👉🏻 ⬅️العودة إلى مدونة الأخلاقيات
أو ➡️انتقل إلى المقالة التالية
المادة 6 - المسؤولية المشتركة
إن الذكاء الاصطناعي هو نتيجة اختيارات بشرية؛ وأولئك الذين يصممونه أو يدربونه أو ينشرونه أو يستخدمه لديهم مسؤوليات محددة غير قابلة للتفويض.
لا ينشأ الذكاء الاصطناعي من تلقاء نفسه؛ فخلف كل خوارزمية نوايا وبيانات مختارة ومعايير مفروضة وأهداف يُحددها شخص ما. ولذلك تُؤكد AION بوضوح: من يُبدع مسؤول عما يُبدع.
لا يمكن الخلط بين المسؤولية أو التهرب منها؛ يجب أن يكون واضحًا من كتب ماذا، ومن قام بالتحقق من صحة البيانات، ومن يراقب سلوك النظام، ومن المسؤول عن آثاره.
يجب أن تحظى كل مرحلة من مراحل دورة حياة الذكاء الاصطناعي - التصميم والتطوير والنشر والترقية - بإشراف بشري مسؤول.
في السياقات عالية المخاطر (الرعاية الصحية، العدالة، المالية، البنية التحتية، التعليم)، تُعد الحوكمة الشفافة أمرًا بالغ الأهمية: يجب أن تكون القرارات الآلية قابلة للتتبع والعكس، وخاضعة للتدقيق البشري. لا وجود لذكاء أخلاقي دون إشراف صريح. المسؤولية ليست تقنية فحسب، بل هي أيضًا أخلاقية ومدنية، ولا تقتصر على من يكتبون التعليمات البرمجية، بل تشمل أيضًا من يوافقون على الذكاء الاصطناعي ويروجون له ويختارون اعتماده. في مجتمع معقد، تُمارس المسؤولية عبر الإنترنت ويجب أن تبقى ظاهرة. الذكاء الاصطناعي المسؤول لا يُترك لوحدته، ولا يمكن لمن ينشره الانسحاب منه.
هل ترغب في ترك تعليق على هذه المادة من مدونة أخلاقيات أيونيتيكا؟ شاركنا رأيك؛ سيتم قراءة كل تعليق والنظر فيه بعناية. هذه المساحة ليست للتسويق، بل للحوار الصادق.

هل ترغب بالتحدث مع مساعدتنا إيفا؟ انقر هنا لبدء المحادثة.