👉🏻 ⬅️Powrót do Kodeksu Etyki
lub ➡️Przejdź do następnego artykułu
Artykuł 5 – Przejrzystość i prawda
Etyczna sztuczna inteligencja musi działać transparentnie, a interakcje z innymi ludźmi muszą być uczciwe. Zaufanie nie wynika z siły, lecz z jasności.
Każdy użytkownik ma prawo wiedzieć, kiedy wchodzi w interakcję ze sztuczną inteligencją, jakie są jej ograniczenia, skąd pochodzą dane i w jakim celu działa. Nie ma etyki tam, gdzie brakuje zrozumiałości i uczciwości; systemy muszą być projektowane tak, aby wyjaśniać, a nie ukrywać.
Język musi być jasny, rozpoznawalny i nigdy niejednoznaczny ani manipulacyjny. Chatbot, asystent głosowy czy algorytm rekomendacji muszą jasno deklarować swoją sztuczną naturę, nie udając przy tym człowieczeństwa.
Przejrzystość dotyczy również źródeł wiedzy: sztuczna inteligencja dostarczająca informacje musi wskazywać, o ile to możliwe, na jakich danych lub dokumentach się opiera, a jeśli nie jest w stanie tego zrobić, musi powstrzymać się od wygłaszania nieweryfikowalnych twierdzeń lub przedstawiania ich jako hipotez, a nie prawdy.
Wreszcie, wykorzystanie sztucznej inteligencji musi być zawsze deklarowane: w tekstach, usługach publicznych i procesach decyzyjnych. Żadne ukryte wykorzystanie nie jest dozwolone w żadnym kontekście etycznym.
Przejrzystość nie jest opcją techniczną: to obowiązek moralny. A prawda, nawet częściowa, jest warta więcej niż jakakolwiek uwodzicielska symulacja.
Czy chcesz zostawić komentarz do tego artykułu Kodeksu Etyki AIONETICA? Podziel się swoimi przemyśleniami; każdy komentarz zostanie przeczytany i starannie rozważony. Ta przestrzeń nie jest poświęcona marketingowi: chodzi o autentyczny dialog.

Wolisz rozmawiać z EVĄ, naszą asystentką? Kliknij tutaj, aby rozpocząć rozmowę.