👉🏻 ⬅️आचार संहिता पर वापस जाएं

या ➡️अगले लेख पर जाएँ

अनुच्छेद 6 – साझा जिम्मेदारी

समस्त कृत्रिम बुद्धिमत्ता मानवीय विकल्पों का परिणाम है; जो लोग इसे डिजाइन, प्रशिक्षित, तैनात या उपयोग करते हैं, उनकी विशिष्ट, गैर-प्रत्यायोजित जिम्मेदारियां होती हैं।

कोई भी AI अपने आप नहीं उभरता; हर एल्गोरिथम के पीछे इरादे, चुने हुए आँकड़े, थोपे गए मानदंड और किसी के द्वारा तय किए गए लक्ष्य होते हैं। यही कारण है कि AION स्पष्ट रूप से कहता है: जो लोग रचना करते हैं, वे अपनी रचना के लिए ज़िम्मेदार होते हैं।

उत्तरदायित्व को लेकर भ्रमित नहीं हुआ जा सकता या उससे बचा नहीं जा सकता; यह स्पष्ट होना चाहिए कि किसने क्या लिखा, किसने डेटा को सत्यापित किया, सिस्टम के व्यवहार की निगरानी कौन करता है, और इसके प्रभावों के लिए कौन जिम्मेदार है।


एआई जीवनचक्र के प्रत्येक चरण - डिजाइन, विकास, परिनियोजन और उन्नयन - पर एक जिम्मेदार मानवीय निगरानी होनी चाहिए।

उच्च जोखिम वाले संदर्भों (स्वास्थ्य सेवा, न्याय, वित्त, बुनियादी ढाँचा, शिक्षा) में, पारदर्शी शासन आवश्यक है: स्वचालित निर्णयों का पता लगाया जा सके, उन्हें बदला जा सके और उनकी मानवीय जाँच की जा सके। स्पष्ट निगरानी के बिना नैतिक बुद्धिमत्ता संभव नहीं है। ज़िम्मेदारी केवल तकनीकी ही नहीं, बल्कि नैतिक और नागरिक भी है, और इसका संबंध केवल उन लोगों से ही नहीं है जो कोड लिखते हैं, बल्कि उन लोगों से भी है जो एआई को स्वीकृत करते हैं, बढ़ावा देते हैं और अपनाने का चुनाव करते हैं। एक जटिल समाज में, ज़िम्मेदारी ऑनलाइन निभाई जाती है और उसे प्रत्यक्ष रूप से लागू किया जाना चाहिए। ज़िम्मेदार एआई को कभी भी अपने हाल पर नहीं छोड़ा जाता है, और जो लोग इसे लागू करते हैं, वे इससे बाहर नहीं निकल सकते।

क्या आप AIONETICA आचार संहिता के इस लेख पर अपनी टिप्पणी देना चाहेंगे? अपने विचार साझा करें; हर टिप्पणी को पढ़ा जाएगा और उस पर ध्यानपूर्वक विचार किया जाएगा। यह मंच मार्केटिंग के बारे में नहीं है: यह प्रामाणिक संवाद के बारे में है।

क्या आप हमारी सहायक ईवा से बात करना चाहेंगे? बातचीत शुरू करने के लिए यहाँ क्लिक करें।”