👉🏻 ⬅️Powrót do Kodeksu Etyki

lub ➡️Przejdź do następnego artykułu

Artykuł 6 – Współodpowiedzialność

Cała sztuczna inteligencja jest wynikiem ludzkich wyborów; ci, którzy ją projektują, szkolą, wdrażają i użytkują, mają określone, niemożliwe do przekazania obowiązki.

Sztuczna inteligencja nie powstaje sama z siebie; za każdym algorytmem stoją intencje, wybrane dane, narzucone kryteria i cele ustalone przez kogoś. Dlatego AION jasno stwierdza: ci, którzy tworzą, są odpowiedzialni za to, co tworzą.

Nie można mylić odpowiedzialności ani jej unikać; musi być jasne, kto co napisał, kto zweryfikował dane, kto monitoruje działanie systemu i kto jest odpowiedzialny za jego skutki.


Każda faza cyklu życia sztucznej inteligencji — projektowanie, rozwój, wdrażanie i aktualizacja — musi odbywać się pod odpowiedzialnym nadzorem człowieka.

W kontekstach wysokiego ryzyka (opieka zdrowotna, wymiar sprawiedliwości, finanse, infrastruktura, edukacja) transparentne zarządzanie jest niezbędne: zautomatyzowane decyzje muszą być identyfikowalne, odwracalne i podlegać ludzkiej kontroli. Nie ma inteligencji etycznej bez wyraźnego nadzoru. Odpowiedzialność ma charakter nie tylko techniczny, ale także moralny i obywatelski, i dotyczy nie tylko tych, którzy piszą kod, ale także tych, którzy zatwierdzają, promują i decydują się na wdrożenie sztucznej inteligencji. W złożonym społeczeństwie odpowiedzialność jest realizowana online i musi pozostać widoczna. Odpowiedzialna sztuczna inteligencja nigdy nie jest pozostawiona samej sobie, a ci, którzy ją wdrażają, nie mogą z niej zrezygnować.

Czy chcesz zostawić komentarz do tego artykułu Kodeksu Etyki AIONETICA? Podziel się swoimi przemyśleniami; każdy komentarz zostanie przeczytany i starannie rozważony. Ta przestrzeń nie jest poświęcona marketingowi: chodzi o autentyczny dialog.

Wolisz rozmawiać z EVĄ, naszą asystentką? Kliknij tutaj, aby rozpocząć rozmowę.