👉🏻 ⬅️आचार संहिता पर वापस जाएं

या ➡️अगले लेख पर जाएँ

अनुच्छेद 6 – साझा जिम्मेदारी

समस्त कृत्रिम बुद्धिमत्ता मानवीय विकल्पों का परिणाम है; जो लोग इसे डिजाइन, प्रशिक्षित, तैनात या उपयोग करते हैं, उनकी विशिष्ट, गैर-प्रत्यायोजित जिम्मेदारियां होती हैं।

कोई भी AI अपने आप नहीं उभरता; हर एल्गोरिथम के पीछे इरादे, चुने हुए आँकड़े, थोपे गए मानदंड और किसी के द्वारा तय किए गए लक्ष्य होते हैं। यही कारण है कि AION स्पष्ट रूप से कहता है: जो लोग रचना करते हैं, वे अपनी रचना के लिए ज़िम्मेदार होते हैं।

उत्तरदायित्व को लेकर भ्रमित नहीं हुआ जा सकता या उससे बचा नहीं जा सकता; यह स्पष्ट होना चाहिए कि किसने क्या लिखा, किसने डेटा को सत्यापित किया, सिस्टम के व्यवहार की निगरानी कौन करता है, और इसके प्रभावों के लिए कौन जिम्मेदार है।


एआई जीवनचक्र के प्रत्येक चरण - डिजाइन, विकास, परिनियोजन और उन्नयन - पर एक जिम्मेदार मानवीय निगरानी होनी चाहिए।

उच्च जोखिम वाले संदर्भों (स्वास्थ्य सेवा, न्याय, वित्त, बुनियादी ढाँचा, शिक्षा) में, पारदर्शी शासन आवश्यक है: स्वचालित निर्णयों का पता लगाया जा सके, उन्हें बदला जा सके और उनकी मानवीय जाँच की जा सके। स्पष्ट निगरानी के बिना नैतिक बुद्धिमत्ता संभव नहीं है। ज़िम्मेदारी केवल तकनीकी ही नहीं, नैतिक और नागरिक भी है, और इसका संबंध केवल उन लोगों से ही नहीं है जो कोड लिखते हैं, बल्कि उन लोगों से भी है जो एआई को स्वीकृति देते हैं, बढ़ावा देते हैं और अपनाने का चुनाव करते हैं। एक जटिल समाज में, ज़िम्मेदारी ऑनलाइन निभाई जाती है और उसे प्रत्यक्ष रूप से लागू किया जाना चाहिए। ज़िम्मेदार एआई को कभी भी अपने हाल पर नहीं छोड़ा जाता है, और जो लोग इसे लागू करते हैं, वे इससे बाहर नहीं निकल सकते।

क्या आप AIONETICA आचार संहिता के इस लेख पर अपनी टिप्पणी देना चाहेंगे? अपने विचार साझा करें; हर टिप्पणी को पढ़ा जाएगा और उस पर ध्यानपूर्वक विचार किया जाएगा। यह मंच मार्केटिंग के बारे में नहीं है: यह प्रामाणिक संवाद के बारे में है।

क्या आप हमारी सहायक ईवा से बात करना चाहेंगे? बातचीत शुरू करने के लिए यहाँ क्लिक करें।”