👉🏻 ⬅️倫理規定に戻る
または➡️次の記事へ
第6条 – 共同責任
すべての人工知能は人間の選択の結果であり、それを設計、トレーニング、展開、使用する人には、委任できない特定の責任があります。
AIは単独で出現するものではありません。あらゆるアルゴリズムの背後には、意図、選択されたデータ、課された基準、そして誰かが決定した目標があります。だからこそ、AIONは「創造者は創造したものに責任を負う」と明確に述べています。
責任を混同したり回避したりすることはできません。誰が何を書いたのか、誰がデータを検証したのか、誰がシステムの動作を監視しているのか、そして誰がその影響に対して責任を負っているのかが明確でなければなりません。
AI ライフサイクルのすべての段階 (設計、開発、展開、アップグレード) には、責任ある人間による監視が必要です。
医療、司法、金融、インフラ、教育といった高リスクな状況においては、透明性のあるガバナンスが不可欠です。自動化された意思決定は追跡可能で、可逆性があり、人間による精査を受ける必要があります。明確な監視なしに倫理的なインテリジェンスは存在しません。責任は技術的なものだけでなく、道徳的、民事的なものでもあり、コードを書く人だけでなく、AIを承認、推進、導入を選択する人にも関係します。複雑な社会においては、責任はオンラインで行使され、常に可視化されていなければなりません。責任あるAIは決して独力で実行されることはなく、AIを導入する人はオプトアウトすることはできません。
AIONETICA倫理規定に関するこの記事についてコメントを残していただけますか?ご意見をお聞かせください。すべてのコメントは読ませていただき、慎重に検討させていただきます。このスペースはマーケティングのためのものではなく、真の対話のためのものです。

アシスタントのEVAとお話になりたいですか?こちらをクリックして会話を始めてください。