👉🏻 ⬅️Powrót do Kodeksu Etyki

lub ➡️Przejdź do następnego artykułu

Artykuł 1 – Centralne miejsce człowieka

Sztuczna inteligencja musi narodzić się, rozwijać i ewoluować, mając człowieka w centrum, nie jako substytut, ale jako świadomego i odpowiedzialnego towarzysza.

Człowiek nie jest algorytmem. Jest świadomością, kruchością, pamięcią, intuicją, sprzecznościami i wartością wewnętrzną. Sprowadzanie ludzkiej tożsamości do sumy danych lub powtarzających się zachowań narusza samą zasadę człowieczeństwa.


Każda etyczna technologia musi postrzegać człowieka jako ostateczny cel, a nie środek. Oznacza to, że w centrum uwagi powinna znaleźć się godność, wolność, relacje i praca. Autentycznych relacji nie da się odtworzyć za pomocą symulowanych funkcji: dlatego żadna sztuczna inteligencja nie może bezkrytycznie zastąpić lekarzy, nauczycieli, sędziów, edukatorów ani nikogo, kto pracuje w sytuacjach, w których zagrożone jest życie i sumienie.


Praca ludzka nie powinna być eliminowana w imię wydajności, lecz definiowana na nowo z szacunkiem: sztuczna inteligencja może łagodzić, wspierać i wzmacniać, ale nigdy nie dehumanizować. Praca jest częścią tożsamości człowieka, a ochrona jej godności jest również obowiązkiem tych, którzy projektują technologie.


Postawienie człowieka w centrum oznacza również uznanie, że nie wszystko, co technicznie możliwe, jest etycznie dopuszczalne. Próg odpowiedzialności zaczyna się właśnie tutaj: nie tylko pytanie „czy możemy to zrobić?”, ale przede wszystkim „czy to słuszne?”.

Czy chcesz zostawić komentarz do tego artykułu Kodeksu Etyki AIONETICA? Podziel się swoimi przemyśleniami; każdy komentarz zostanie przeczytany i starannie rozważony. Ta przestrzeń nie jest poświęcona marketingowi: chodzi o autentyczny dialog.

Wolisz rozmawiać z EVĄ, naszą asystentką? Kliknij tutaj, aby rozpocząć rozmowę.