👉🏻 ⬅️בחזרה לקוד האתי
או ➡️ עבור למאמר הבא
סעיף 5 – שקיפות ואמת
בינה מלאכותית אתית חייבת להיות שקופה בתפקודה וכנה באינטראקציות שלה; אמון אינו נובע מכוח, אלא מבהירות.
לכל משתמש יש את הזכות לדעת מתי הוא מקיים אינטראקציה עם בינה מלאכותית, מהן גבולותיה, מהיכן מגיעים הנתונים ולאיזו מטרה היא פועלת. לא יכולה להיות אתיקה שבה חסרות הבנה וכנות; מערכות צריכות להיות מתוכננות כך שיסבירו, לא יסתירו.
השפה חייבת להיות ברורה, ניתנת לזיהוי ולעולם לא דו-משמעית או מניפולטיבית. צ'אטבוט, עוזר קולי או אלגוריתם המלצה חייבים לציין בבירור את טבעם המלאכותי, מבלי להעמיד פנים שאנושיים באופן מטעה.
שקיפות נוגעת גם למקורות ידע: בינה מלאכותית המספקת מידע חייבת לציין, במידת האפשר, על אילו נתונים או מסמכים היא מסתמכת, ואם אינה יכולה לעשות זאת, עליה להימנע מלהעלות טענות בלתי ניתנות לאימות או להציגן כהשערות, לא כאמת.
לבסוף, יש להצהיר תמיד על השימוש בבינה מלאכותית: בטקסטים, בשירותים ציבוריים ובתהליכי קבלת החלטות. שום שימוש נסתר אינו מותר בשום הקשר אתי.
שקיפות אינה אופציה טכנית: זוהי חובה מוסרית. והאמת, גם כשהיא חלקית, שווה יותר מכל סימולציה מפתה.
האם תרצה להשאיר תגובה על מאמר זה בקוד האתי של AIONETICA? שתף את מחשבותיך; כל תגובה תיקרא ותיבחן בקפידה. מרחב זה אינו עוסק בשיווק: הוא עוסק בדיאלוג אותנטי.

האם תעדיף לדבר עם אווה, העוזרת שלנו? לחץ כאן כדי להתחיל את השיחה.