👉🏻 ⬅️Retour au Code d'éthique
ou ➡️Aller à l'article suivant
Article 6 – Responsabilité partagée
Toute intelligence artificielle est le résultat de choix humains ; ceux qui la conçoivent, la forment, la déploient ou l’utilisent ont des responsabilités spécifiques et non délégables.
Une IA n'émerge pas d'elle-même ; derrière chaque algorithme se cachent des intentions, des données sélectionnées, des critères imposés et des objectifs définis par quelqu'un. C'est pourquoi AION affirme clairement : ceux qui créent sont responsables de ce qu'ils créent.
La responsabilité ne peut être ni confondue ni éludée ; il doit être clair qui a écrit quoi, qui a validé les données, qui surveille le comportement du système et qui est responsable de ses effets.
Chaque phase du cycle de vie de l’IA (conception, développement, déploiement et mise à niveau) doit faire l’objet d’une supervision humaine responsable.
Dans les contextes à haut risque (santé, justice, finance, infrastructures, éducation), une gouvernance transparente est essentielle : les décisions automatisées doivent être traçables, réversibles et soumises à un contrôle humain. Il n’y a pas d’intelligence éthique sans supervision explicite. La responsabilité n’est pas seulement technique, elle est aussi morale et civile, et concerne non seulement ceux qui écrivent le code, mais aussi ceux qui approuvent, promeuvent et choisissent d’adopter l’IA. Dans une société complexe, la responsabilité s’exerce en ligne et doit rester visible. Une IA responsable n’est jamais laissée à elle-même, et ceux qui la déploient ne peuvent s’en désengager.
Souhaitez-vous laisser un commentaire sur cet article du Code de déontologie d'AIONETICA ? Partagez votre avis ; chaque commentaire sera lu et examiné attentivement. Cet espace n'est pas un espace marketing : il s'agit d'un dialogue authentique.

Préférez-vous parler à EVA, notre assistante ? Cliquez ici pour entamer la conversation.