👉🏻 ⬅️Повернутися до Кодексу етики
або ➡️Перейти до наступної статті
Стаття 5 – Прозорість та правда
Етичний ШІ має бути прозорим у своєму функціонуванні та правдивим у своїй взаємодії; довіра походить не від сили, а від ясності.
Кожен користувач має право знати, коли він взаємодіє зі штучним інтелектом, які його обмеження, звідки надходять дані та для якої мети він працює. Не може бути етики там, де бракує зрозумілості та чесності; системи повинні бути розроблені так, щоб пояснювати, а не приховувати.
Мова має бути чіткою, впізнаваною та ніколи не бути двозначною чи маніпулятивною. Чат-бот, голосовий помічник або алгоритм рекомендацій повинні чітко заявляти про свою штучну природу, не вдаючи в оману людську природу.
Прозорість також стосується джерел знань: ШІ, який надає інформацію, повинен, коли це можливо, вказувати, на які дані чи документи він спирається, а якщо він не може цього зробити, він повинен утримуватися від неперевірених тверджень або представляти їх як гіпотези, а не як істину.
Зрештою, використання штучного інтелекту завжди має бути деклароване: у текстах, державних послугах та процесах прийняття рішень. Приховане використання не допускається в жодному етичному контексті.
Прозорість — це не технічний вибір: це моральний обов'язок. А правда, навіть часткова, цінніша за будь-яку спокусливу симуляцію.
Чи хотіли б ви залишити коментар до цієї статті Кодексу етики AIONETICA? Поділіться своїми думками; кожен коментар буде прочитано та ретельно розглянуто. Цей простір не про маркетинг: він про справжній діалог.

Ви б хотіли поговорити з Євою, нашою асистенткою? Натисніть тут, щоб розпочати розмову.