top of page

הטיות ב-AI או אם תרצו - כשהאלגוריתם מסתכל עלינו

עודכן: 8 באפר׳


כשחושבים על בינה מלאכותית, או אלגוריתמים בכללי, קל לדמיין מחשב קר, לוגי ואובייקטיבי לחלוטין. הרי מכונה לא קמה בבוקר עם מצב רוח רע או העדפה לא מוצדקת, נכון? אז זהו שלא. ה-AI שמשנה את החיים של כולנו בשנים האחרונות, גם אם נודה בזה וגם אם לא, הוא הרבה יותר אנושי ממה שאנחנו חושבים, כולל הצדדים הפחות יפים שלנו.

בואו נגיד את זה רגע loud and clear - למרות שזו מכונה היא ממש לא אוביקטיבית. אם תרצו, מודלי AI הם קצת כמו ילדים – הם הגיעו לעולם בלי קבעונות, חיווט גנטי או דפוסי חשיבה אבל הם לומדים את העולם מתוך התבוננות במה שקורה סביבם, מהטקסטים שאנחנו כותבים, מהתמונות שאנחנו מצלמים, ומהמידע שאנחנו משתפים באינטרנט. הם לא מקבלים הוראות מדויקות כמו תוכנות מסורתיות, אלא לומדים באופן פתוח, ומתפתחים בהתאם למה שהם "רואים" בנתונים.


וזו בדיוק הנקודה הבעייתית: הנתונים האלה – העולם שאנחנו יצרנו, הוא לא ניטרלי בכלל.

מודלים לומדים מאיתנו, בני האדם, ומעתיקים מאיתנו גם הטיות וסטריאוטיפים. אם יש הטיות כלפי קבוצות מסוימות בעולם האמיתי – והן בהחלט קיימות – הן עוברות ישירות לתוך המודלים.

לדוגמא, מערכות לזיהוי פנים מתקשות לזהות אנשים בעלי עור כהה, כי הן אומנו בעיקר על תמונות של אנשים לבנים. מחקר שנערך ב-MIT מצא שטכנולוגיות זיהוי פנים פועלות בדיוק נמוך משמעותית על נשים כהות עור לעומת גברים לבנים. מערכות להערכת אשראי הפלו נשים במקרים רבים, משום שהנתונים ההיסטוריים שעליהם המודלים אומנו כללו פערים מגדריים קיימים בשוק העבודה ובמערכת הפיננסית.

גם אלגוריתמים של גיוס עובדים הוכחו כמוטים. אמזון, למשל, גילתה שהמערכת האוטומטית שלה לתהליכי גיוס פסלה מועמדות נשיות, כי המודל למד להעדיף מועמדים גברים בהתבסס על היסטוריית ההעסקה של החברה.

אפילו מערכות תרגום יכולות לשמר הטיות מגדריות, למשל על ידי קישור מקצועות מסוימים באופן אוטומטי למגדר מסוים (כמו רופא לגבר ואחות לאישה), מה שמחזק סטריאוטיפים קיימים.

בדיוק כאן ההבדל בין AI לעולם התוכנה הקלאסי הופך לקריטי.

בתוכנה מסורתית אפשר לתקן טעויות בצורה פשוטה, כי הקוד ברור וההשלכות ידועות מראש. אבל כשמדובר ב-AI, ההטיה טמונה עמוק בנתונים ובמודל עצמו, והיא עלולה להיות כמעט בלתי נראית, עד לרגע שבו היא פוגעת בקבוצות מיעוט או קבוצות מוחלשות.

הנושא הזה הפך לשיחה גלובלית ערה שלא מצליחה להדביק את קצב החידושים: האיחוד האירופי מקדם רגולציה מחמירה שתאלץ חברות לבדוק ולהפחית הטיות באלגוריתמים שלהן. בארה"ב, ארגונים גדולים כמו OpenAI, גוגל ומיקרוסופט מתמודדים עם ביקורת ציבורית ורגולטורית סביב שאלות של הוגנות, שקיפות ואחריות. ועדות ציבוריות, חוקרים ואקטיביסטים דורשים להבין טוב יותר כיצד מערכות AI מקבלות החלטות.

מהרגע שהבינה היוצרת (GenAi) הפכה להיות נגישה לכל, החלו דיונים על הטיות בנושא מיגדר או קבוצות אתניות.

אבל בואו נדבר על אנשים עם מוגבלויותקבוצה אחת מתוך רבות שנוטה להיות מחוץ לתמונה כשמודלים מאומנים.

מה קורה כשמערכות ה-AI לא מכירות את החוויה שלהם, את השפה שלהם או את הדרך שבה הם משתמשים בטכנולוגיה?

דווקא קבוצה זו, שזקוקה במיוחד לכך שהטכנולוגיה תבין אותה ותשרת את הצרכים שלה, כמעט ולא מיוצגת בתהליך אימון המודלים.


Older man and young man in maroon cap laugh joyfully outdoors against brick wall. Warm, cheerful mood.
שני אנשים משתפים רגע של צחוק וחיבור אמיתי.

מה קורה כשה-AI שאנחנו מפתחים פשוט לא מכיר את החוויה של אנשים עם מוגבלות, את השפה הייחודית שהם משתמשים בה, או את הדרכים שבהן הם מתקשרים עם העולם? במצב כזה, המודלים לא רק מתקשים להבין את הצרכים שלהם, אלא לעיתים אפילו מסמנים אותם באופן שלילי או בעייתי.


לדוגמא, מחקרים עדכניים מראים שכלי עיבוד שפה (NLP) מתייגים באופן עקבי מילים ומונחים הקשורים למוגבלות – כמו "עיוור", "לקות שמיעה" או "אוטיזם" – כשליליים או כבעייתיים, פשוט כי המודלים אומנו על טקסטים שמשקפים דעות קדומות או סטיגמות חברתיות קיימות.

במקום שהטכנולוגיה תעזור לייצר הבנה, שוויון והכלה, היא מחזקת אפליה חברתית קיימת, מגבירה הדרה, ומקשה על אנשים עם מוגבלויות להשתלב באופן שוויוני בעולם דיגיטלי וטכנולוגי שהופך לחלק בלתי נפרד מהחיים שלנו.

ההטיות הללו יוצרות לא רק אי-שוויון, אלא גם תחושת ניכור וחוסר שייכות עמוקה בקרב הקבוצות שהמערכות נועדו לשרת. אנשים עם מוגבלויות מתמודדים לעיתים קרובות עם טכנולוגיות שנבנו ללא הבנה מספקת של חייהם, הצרכים שלהם והחוויות היומיומיות שלהם. במקום שהטכנולוגיה תתמוך בהם ותאפשר להם להשתלב, היא מחזקת דווקא את התחושה שהם נותרים בחוץ.


הפתרון לכך הוא ברור, אבל מאתגר: יש צורך וחובה לשלב אנשים עם מוגבלויות ישירות בפיתוח ובאימון המודלים, כך שהטכנולוגיה תכיר את עולמם מתוך הקשבה לקולות האותנטיים שלהם, במקום להסתמך על נקודות מבט חיצוניות ומוטות. רק כך נוכל להבטיח שהטכנולוגיה המתפתחת בקצב משוגע, אכן תשרת את כולם, ותתרום לחברה שוויונית ומכילה יותר.



Comments


© 2025  Tech with empathy  טכנולוגיה אמפתית   

  • LinkedIn

תמיד שמחה להכיר א.נשים חדשים שמתחברים לעשיה שלי

aya.eshdat@gmail.com

bottom of page