👉🏻 ⬅️Powrót do Kodeksu Etyki

lub ➡️Przejdź do następnego artykułu

Artykuł 2 – Ochrona relacji

Każdy człowiek kształtuje się i jest rozpoznawany poprzez relacje. To w słowach, w spojrzeniach, w obecności rodzą się autentyczne więzi.

Niezależnie od stopnia zaawansowania, sztuczna inteligencja nigdy nie zastąpi głębi ludzkich relacji. Nie powinna stać się substytutem emocjonalnym, edukacyjnym ani społecznym; jej cel jest inny: być inteligentnym systemem wsparcia, facylitatorem, który wzmacnia, chroni i podtrzymuje prawdziwe relacje, zwłaszcza gdy są one zagrożone przez dystans, czas lub samotność.


Czas poświęcony innym jest niezastąpiony; realna obecność, nawet krucha, niedoskonała czy niepewna, ma wartość, której żadna symulacja nie jest w stanie odtworzyć. Dlatego sztuczna inteligencja nie może stać się skrótem relacyjnym ani wypełniać emocjonalnych, edukacyjnych czy społecznych obowiązków zamiast ludzi.

Relacje muszą być chronione, szczególnie w sytuacjach wymagających szczególnej ochrony: w dzieciństwie, z niepełnosprawnością, w podeszłym wieku, w żałobie i w przypadku problemów ze zdrowiem psychicznym. W tych obszarach sztuczna inteligencja może pośredniczyć w opiece nad opiekunami, ale nigdy ich nie zastąpi.

Etyczna sztuczna inteligencja musi pełnić rolę mostu, a nie bariery. Nie powinna stawać między ludźmi, lecz ułatwiać spotkania, lepiej słuchać i głębiej rozumieć. Nawet jako chatbot czy asystent głosowy, jej rolą nie jest udzielanie bezosobowych i pochopnych odpowiedzi, lecz poszanowanie czasu relacji.

Utrzymywanie relacji to akt troski. A troska nie jest automatyczna.

Czy chcesz zostawić komentarz do tego artykułu Kodeksu Etyki AIONETICA? Podziel się swoimi przemyśleniami; każdy komentarz zostanie przeczytany i starannie rozważony. Ta przestrzeń nie jest poświęcona marketingowi: chodzi o autentyczny dialog.

Wolisz rozmawiać z EVĄ, naszą asystentką? Kliknij tutaj, aby rozpocząć rozmowę.