👉🏻 ⬅️Повернутися до Кодексу етики

або ➡️Перейти до наступної статті

Стаття 6 – Спільна відповідальність

Весь штучний інтелект є результатом людського вибору; ті, хто його проектує, навчає, розгортає або використовує, мають конкретні обов'язки, які не можна делегувати.

Штучний інтелект не виникає сам по собі; за кожним алгоритмом стоять наміри, відібрані дані, нав'язані критерії та цілі, визначені кимось. Ось чому AION чітко заявляє: ті, хто створює, відповідають за те, що вони створюють.

Відповідальність не можна плутати чи ухилятися від неї; має бути чітко визначено, хто що написав, хто перевірив дані, хто контролює поведінку системи та хто відповідає за її наслідки.


Кожен етап життєвого циклу штучного інтелекту — проектування, розробка, розгортання та оновлення — повинен перебувати під відповідальним людським наглядом.

У сферах високого ризику (охорона здоров'я, юстиція, фінанси, інфраструктура, освіта) прозоре управління є надзвичайно важливим: автоматизовані рішення повинні бути простежуваними, оборотними та підлягати перевірці людиною. Не існує етичного інтелекту без чіткого нагляду. Відповідальність є не лише технічною, вона також моральною та цивільною, і стосується не лише тих, хто пише код, але й тих, хто схвалює, просуває та вирішує впроваджувати ШІ. У складному суспільстві відповідальність здійснюється в Інтернеті та має залишатися видимою. Відповідальний ШІ ніколи не залишається напризволяще, і ті, хто його впроваджує, не можуть відмовитися від нього.

Чи хотіли б ви залишити коментар до цієї статті Кодексу етики AIONETICA? Поділіться своїми думками; кожен коментар буде прочитано та ретельно розглянуто. Цей простір не про маркетинг: він про справжній діалог.

Ви б хотіли поговорити з Євою, нашою асистенткою? Натисніть тут, щоб розпочати розмову.