הטיית בינה מלאכותית: מכונות אינן אובייקטיביות כפי שקיווינו

אשראי תמונה:
אשראי תמונה
iStock

הטיית בינה מלאכותית: מכונות אינן אובייקטיביות כפי שקיווינו

הטיית בינה מלאכותית: מכונות אינן אובייקטיביות כפי שקיווינו

טקסט כותרות משנה
כולם מסכימים שבינה מלאכותית צריכה להיות חסרת פניות, אבל הסרת הטיות מתגלה כבעייתית
    • מְחַבֵּר:
    • שם היוצר
      Quantumrun Foresight
    • פברואר 8, 2022

    סיכום תובנה

    בעוד שלטכנולוגיות מונעות נתונים יש הבטחה לטפח חברה הוגנת, הן משקפות לעתים קרובות את אותן הטיות שבני אדם טומן בחובו, מה שמוביל לעוולות פוטנציאליות. לדוגמה, הטיות במערכות בינה מלאכותית (AI) יכולות להחמיר בטעות סטריאוטיפים מזיקים. עם זאת, נערכים מאמצים להפוך מערכות בינה מלאכותית לשוויוניות יותר, אם כי הדבר מעלה שאלות מורכבות לגבי האיזון בין תועלת והגינות, והצורך ברגולציה וגיוון מתחשב בצוותים טכנולוגיים.

    הטיית AI ההקשר הכללי

    התקווה היא שטכנולוגיות המונעות על ידי נתונים יסייעו לאנושות בהקמת חברה שבה הוגנות היא הנורמה לכולם. עם זאת, המציאות הנוכחית מציירת תמונה אחרת. רבות מההטיות שיש לבני אדם, שהובילו לעוולות בעבר, משתקפות כעת באלגוריתמים השולטים בעולם הדיגיטלי שלנו. הטיות אלו במערכות בינה מלאכותיות נובעות לעיתים קרובות מדעות קדומות של האנשים שמפתחים מערכות אלו, והטיות אלו מחלחלות לעיתים קרובות לתוך עבודתם.

    קחו, למשל, פרויקט בשנת 2012 המכונה ImageNet, שביקש לרכז את התיוג של תמונות להדרכה של מערכות למידת מכונה. רשת עצבית גדולה שאומנה על נתונים אלו הצליחה לזהות אובייקטים בדיוק מרשים. עם זאת, בבדיקה מעמיקה יותר, חוקרים גילו הטיות חבויות בתוך נתוני ImageNet. במקרה מסוים אחד, אלגוריתם שאומן על נתונים אלה היה מוטה להנחה שכל מתכנתי התוכנה הם גברים לבנים.

    הטיה זו עלולה לגרום לכך שמתעלמים מנשים בתפקידים כאלה כאשר תהליך הגיוס הוא אוטומטי. ההטיות מצאו את דרכן לתוך מערכי הנתונים מכיוון שהאדם שהוסיף תוויות לתמונות של "אישה" כלל תווית נוספת שהורכבה ממונח גנאי. דוגמה זו ממחישה כיצד הטיות, בין אם מכוונות או לא מכוונות, יכולות לחדור אפילו למערכות הבינה המלאכותית המתוחכמות ביותר, ועלולה להנציח סטריאוטיפים ואי-שוויון מזיקים.

    השפעה משבשת 

    מאמצים לטפל בהטיה בנתונים ובאלגוריתמים יזמו חוקרים בארגונים ציבוריים ופרטיים שונים. במקרה של פרויקט ImageNet, למשל, נעשה שימוש במיקור המונים כדי לזהות ולחסל מונחי תיוג המפילים אור גנאי על תמונות מסוימות. אמצעים אלה הוכיחו כי אכן ניתן להגדיר מחדש מערכות AI כך שיהיו שוויוניות יותר.

    עם זאת, כמה מומחים טוענים שהסרת הטיה עלולה להפוך מערך נתונים לפחות יעיל, במיוחד כאשר יש הטיות מרובות. מערך נתונים שהוסר מהטיות מסוימות עלול בסופו של דבר להיעדר מספיק מידע לשימוש יעיל. זה מעלה את השאלה איך ייראה מערך נתוני תמונה מגוון באמת, וכיצד ניתן להשתמש בו מבלי לפגוע בתועלת שלו.

    מגמה זו מדגישה את הצורך בגישה מתחשבת לשימוש בטכנולוגיות AI ובטכנולוגיות מונעות נתונים. עבור חברות, פירוש הדבר עשוי להיות השקעה בכלים לזיהוי הטיות וקידום גיוון בצוותים טכנולוגיים. עבור ממשלות, זה יכול לכלול יישום תקנות כדי להבטיח שימוש הוגן בבינה מלאכותית. 

    השלכות של הטיית AI

    השלכות רחבות יותר של הטיית AI עשויות לכלול:

    • ארגונים היו אקטיביים בהבטחת הוגנות ואי-אפליה כאשר הם ממנפים בינה מלאכותית לשיפור הפרודוקטיביות והביצועים. 
    • בעל אתיקאי בינה מלאכותית בצוותי פיתוח כדי לזהות ולהפחית סיכונים אתיים בשלב מוקדם של פרויקט. 
    • עיצוב מוצרי AI תוך התחשבות ברורה בגורמי גיוון כגון מגדר, גזע, מעמד ותרבות.
    • קבלת נציגים מהקבוצות המגוונות שישתמשו במוצר AI של חברה כדי לבדוק אותו לפני שהוא ישוחרר.
    • שירותים ציבוריים שונים מוגבלים מאנשים מסוימים מהציבור.
    • חלק מהציבור אינם יכולים לגשת להזדמנויות עבודה מסוימות או להעפיל להן.
    • רשויות אכיפת חוק ואנשי מקצוע מכוונים בצורה לא הוגנת לחברים מסוימים בחברה יותר מאחרים. 

    שאלות שכדאי לקחת בחשבון

    • האם אתה אופטימי שקבלת החלטות אוטומטית תהיה הוגנת בעתיד?
    • מה לגבי קבלת החלטות בינה מלאכותית עושה אותך הכי עצבני?

    הפניות לתובנות

    הקישורים הפופולריים והמוסדיים הבאים קיבלו התייחסות לתובנה זו: