👉🏻 ⬅️Powrót do Kodeksu Etyki

lub ➡️Przejdź do następnego artykułu

Artykuł 4 – Dostępność i sprawiedliwość

Etyczna sztuczna inteligencja musi być dostępna, zrozumiała i użyteczna dla każdego, a nie tylko dla tych, którzy są już połączeni, wykształceni czy uprzywilejowani. Technologia nie może stać się czynnikiem wykluczenia społecznego ani przewagą zarezerwowaną dla nielicznych. Jeśli sztuczna inteligencja pogłębia nierówności zamiast je zmniejszać, nie spełnia swojego celu.


Bariery cyfrowe istnieją: na terytoriach, w kontach bankowych, w poziomie wykształcenia, w organizmach, na peryferiach. To odległości, które dzielą globalną Północ i Południe, młodych i starych, pracowników z gwarantowaną i niepewną sytuacją.


Projekt etyczny nie może ignorować tych nierównowag: musi je uwidocznić i pomóc w ich wyeliminowaniu.

Dostępność nie jest tylko kwestią techniczną (uproszczone interfejsy, polecenia głosowe, lokalizacja językowa).

Ma to również wymiar kulturowy i symboliczny: potrzebujemy etycznej wiedzy, która pomoże ludziom zrozumieć nie tylko, jak korzystać ze sztucznej inteligencji, ale także kiedy warto jej zaufać, o co prosić i kiedy się jej sprzeciwić.

Wreszcie, sprawiedliwość oznacza bezstronność danych; sztuczna inteligencja, która opiera się wyłącznie na informacjach pochodzących z bogatych lub dominujących kulturowo środowisk, odtwarza jedynie częściowe wizje świata. Sprawiedliwa technologia to taka, która dostrzega nawet tych, którzy nie mają głosu w danych.


Dostępność i sprawiedliwość nie są opcjami, lecz fundamentami etycznymi.

Czy chcesz zostawić komentarz do tego artykułu Kodeksu Etyki AIONETICA? Podziel się swoimi przemyśleniami; każdy komentarz zostanie przeczytany i starannie rozważony. Ta przestrzeń nie jest poświęcona marketingowi: chodzi o autentyczny dialog.

Wolisz rozmawiać z EVĄ, naszą asystentką? Kliknij tutaj, aby rozpocząć rozmowę.