Newsletter

מכונות שלומדות (גם) מהטעויות שלנו אפקט הבומרנג: אנחנו מלמדים את הבינה המלאכותית את הפגמים שלנו והיא מחזירה לנו אותם... מוכפלים!

בינה מלאכותית יורשת את ההטיות שלנו - ואז מגבירה אותן. אנו רואים תוצאות מעוותות - ומחזקים אותן. מעגל שמנציח את עצמו. מחקר של UCL מצא כי הטיה של 4.7% בזיהוי פנים גדלה ל-11.3% לאחר אינטראקציות בין אדם לבינה מלאכותית. במשאבי אנוש, כל מעגל מגביר את ההטיה המגדרית ב-8-14%. החדשות הטובות? טכניקת "המראה האלגוריתמית" - המראה של מנהלים כיצד ייראו החלטותיהם אם יתקבלו על ידי בינה מלאכותית - מפחיתה את ההטיה ב-41%.

מחקרים שנערכו לאחרונה הדגישו תופעה מעניינת: קיים קשר "דו-כיווני" בין ההטיות הקיימות במודלים של בינה מלאכותית לבין אלו של המחשבה האנושית.

אינטראקציה זו יוצרת מנגנון הנוטה להגביר עיוותים קוגניטיביים בשני הכיוונים .

מחקר זה מדגים כי מערכות בינה מלאכותית לא רק יורשות הטיות אנושיות מנתוני אימון, אלא שכאשר הן נפרסות, הן יכולות להעצים אותן, ובכך להשפיע על תהליכי קבלת ההחלטות של אנשים. מצב זה יוצר מעגל שאם לא ינוהל כראוי, עלול להחמיר בהדרגה את ההטיות הראשוניות.

תופעה זו בולטת במיוחד במגזרים חשובים כגון:

בסביבות אלה, הטיות ראשוניות קטנות יכולות להתעצם באמצעות אינטראקציות חוזרות ונשנות בין מפעילים אנושיים למערכות אוטומטיות, ולהפוך בהדרגה להבדלים משמעותיים בתוצאות .

מקורותיהן של דעות קדומות

במחשבה האנושית

המוח האנושי משתמש באופן טבעי ב"קיצורי דרך למחשבה" שיכולים להכניס טעויות שיטתיות לשיפוטינו. תיאוריית ה"חשיבה הכפולה " מבחינה בין:

  • חשיבה מהירה ואינטואיטיבית (נוטה לסטריאוטיפים)
  • חשיבה איטית ורפלקטיבית (מסוגלת לתקן דעות קדומות)

לדוגמה, בתחום הרפואי, רופאים נוטים לתת משקל רב מדי להשערות ראשוניות, ולהתעלם מראיות סותרות. תופעה זו, המכונה "הטיית אישור", משוכפלת ומוגברת על ידי מערכות בינה מלאכותית שאומנו על נתוני אבחון היסטוריים.

במודלים של בינה מלאכותית

מודלים של למידת מכונה משמרים הטיות בעיקר באמצעות שלושה ערוצים:

  1. נתוני הכשרה לא מאוזנים המשקפים אי-שוויונים היסטוריים
  2. בחירת מאפיינים המשלבים מאפיינים מוגנים (כגון מגדר או מוצא אתני)
  3. לולאות משוב הנובעות מאינטראקציות עם החלטות אנושיות שכבר מוטות

מחקר שנערך ב-UCL בשנת 2024 הראה כי מערכות זיהוי פנים שאומנו על סמך שיפוטים רגשיים אנושיים ירשו נטייה של 4.7% לתייג פנים כ"עצובות", רק כדי להגביר נטייה זו ל-11.3% באינטראקציות עוקבות עם משתמשים.

איך הם מעצימים אחד את השני

ניתוח נתונים מפלטפורמות גיוס עובדים מראה שכל סבב של שיתוף פעולה בין אדם לאלגוריתם מגביר את ההטיה המגדרית ב-8-14% באמצעות מנגנוני משוב המחזקים זה את זה.

כאשר אנשי מקצוע בתחום משאבי אנוש מקבלים רשימות מועמדים מבוססות בינה מלאכותית שכבר הושפעו מהטיות היסטוריות, האינטראקציות הבאות שלהם (כגון בחירת שאלות ראיון או ביקורות ביצועים) מחזקות את הייצוגים המוטים של המודל.

מטא-אנליזה משנת 2025 של 47 מחקרים מצאה כי שלושה סבבים של שיתוף פעולה בין בני אדם לבינה מלאכותית הגדילו את הפערים הדמוגרפיים פי 1.7-2.3 בתחומים כמו שירותי בריאות, הלוואות וחינוך.

אסטרטגיות למדידה ומיתון הטיה

כימות באמצעות למידת מכונה

מסגרת מדידת ההטיה שהוצעה על ידי דונג ואחרים (2024) מאפשרת לנו לזהות הטיה ללא צורך בתוויות של "האמת הכל" על ידי ניתוח פערים בדפוסי קבלת החלטות בין קבוצות מוגנות.

התערבויות קוגניטיביות

טכניקת "המראה האלגוריתמית" שפותחה על ידי חוקרי UCL הפחיתה את ההטיה המגדרית בהחלטות קידום ב-41%, בכך שהראתה למנהלים כיצד ייראו הבחירות ההיסטוריות שלהם אם היו נעשות על ידי מערכת בינה מלאכותית.

פרוטוקולי אימון המתחלפים בין סיוע בבינה מלאכותית לקבלת החלטות אוטונומית מראים פוטנציאל מיוחד, ומפחיתים את השפעות העברת ההטיה מ-17% ל-6% במחקרי אבחון קליניים.

השלכות על החברה

ארגונים המיישמים מערכות בינה מלאכותית מבלי להתחשב באינטראקציות עם הטיות אנושיות מתמודדים עם סיכונים משפטיים ותפעוליים מוגברים.

ניתוח תביעות אפליה בתעסוקה מראה כי תהליכי גיוס בסיוע בינה מלאכותית מגדילים את שיעורי ההצלחה של התובעים ב-28% בהשוואה לתיקים מסורתיים המובלים על ידי בני אדם, שכן עקבות של החלטות אלגוריתמיות מספקות ראיות ברורות יותר להשפעה שונה.

לקראת בינה מלאכותית המכבדת חופש ויעילות

המתאם בין הטיות אלגוריתמיות למגבלות על חופש הבחירה מחייב אותנו לחשוב מחדש על פיתוח טכנולוגי מנקודת מבט של אחריות אישית ושמירה על יעילות השוק. חיוני להבטיח שבינה מלאכותית תהפוך לכלי להרחבת הזדמנויות, לא להגבלתן.

כיוונים מבטיחים כוללים:

  • פתרונות שוק המעודדים פיתוח אלגוריתמים אובייקטיביים
  • שקיפות רבה יותר בתהליכי קבלת החלטות אוטומטיים
  • דה-רגולציה שמעודדת תחרות בין פתרונות טכנולוגיים שונים

רק באמצעות רגולציה עצמית אחראית בתעשייה, בשילוב עם חופש הבחירה של המשתמשים, נוכל להבטיח שחדשנות טכנולוגית תמשיך להיות מנוע של שגשוג והזדמנויות עבור כל אלו שמוכנים לבחון את כישוריהם.

משאבים לצמיחה עסקית

9 בנובמבר, 2025

ויסות מה שלא נוצר: האם אירופה נמצאת בסיכון של חוסר רלוונטיות טכנולוגית?

אירופה מושכת רק עשירית מההשקעות העולמיות בבינה מלאכותית, אך טוענת שהיא מכתיבה כללים גלובליים. זהו "אפקט בריסל" - הטלת תקנות גלובליות באמצעות כוח שוק מבלי לעודד חדשנות. חוק הבינה המלאכותית נכנס לתוקף בלוח זמנים מדורג עד 2027, אך חברות טכנולוגיה רב-לאומיות מגיבות באסטרטגיות התחמקות יצירתיות: הפעלת סודות מסחריים כדי להימנע מחשיפת נתוני הדרכה, הפקת סיכומים תואמים טכנית אך בלתי מובנים, שימוש בהערכה עצמית כדי להוריד את דירוג המערכות מ"סיכון גבוה" ל"סיכון מינימלי", ועיסוק ב"קניית פורומים" על ידי בחירת מדינות חברות עם בקרות פחות מחמירות. הפרדוקס של זכויות יוצרים חוץ-טריטוריאליות: האיחוד האירופי דורש ש-OpenAI יעמוד בחוקים האירופיים גם עבור הדרכה מחוץ לאירופה - עיקרון שמעולם לא נראה במשפט הבינלאומי. "המודל הכפול" צץ: גרסאות אירופאיות מוגבלות לעומת גרסאות גלובליות מתקדמות של אותם מוצרי בינה מלאכותית. הסיכון האמיתי: אירופה הופכת ל"מבצר דיגיטלי" מבודד מחדשנות עולמית, כאשר אזרחים אירופאים ניגשים לטכנולוגיות נחותות. בית המשפט לצדק כבר דחה את הגנת "סודות מסחריים" בתיק ניקוד האשראי, אך אי הוודאות הפרשנית נותרה עצומה - מה בדיוק המשמעות של "סיכום מפורט מספיק"? איש אינו יודע. השאלה האחרונה שנותרה ללא מענה: האם האיחוד האירופי יוצר דרך שלישית אתית בין הקפיטליזם האמריקאי לשליטת המדינה הסינית, או פשוט מייצא בירוקרטיה למגזר שבו הוא אינו מתחרה? לעת עתה: מובילה עולמית ברגולציה של בינה מלאכותית, שולית בפיתוחה. תוכנית עצומה.
9 בנובמבר, 2025

חריגים: המקום שבו מדע הנתונים פוגש סיפורי הצלחה

מדע הנתונים הפך את הפרדיגמה: חריגים אינם עוד "טעויות שיש לבטל" אלא מידע בעל ערך שיש להבין. חריג בודד יכול לעוות לחלוטין מודל רגרסיה לינארית - שינוי השיפוע מ-2 ל-10 - אך ביטולו עלול לגרום לאובדן האות החשוב ביותר במערך הנתונים. למידת מכונה מציגה כלים מתוחכמים: Isolation Forest מבודד חריגים על ידי בניית עצי החלטה אקראיים, Local Outlier Factor מנתח צפיפות מקומית, ואוטואנקודרים משחזרים נתונים רגילים ומסמנים את מה שהם לא מצליחים לשחזר. ישנם חריגים גלובליים (טמפרטורה -10°C באזורים הטרופיים), חריגים הקשריים (הוצאה של 1,000 אירו בשכונה ענייה) וחריגים קולקטיביים (שיאים מסונכרנים בתעבורת הרשת המצביעים על התקפה). הקבלה עם גלדוול: "כלל 10,000 השעות" שנוי במחלוקת - פול מקרטני אמר, "קבוצות רבות עשו 10,000 שעות בהמבורג ללא הצלחה; התיאוריה אינה חסינת תקלות". הצלחה מתמטית אסייתית אינה גנטית אלא תרבותית: מערכת המספרים האינטואיטיבית יותר של סין, גידול אורז דורש שיפור מתמיד לעומת התרחבות טריטוריאלית של החקלאות המערבית. יישומים בעולם האמיתי: בנקים בבריטניה מפצים 18% מההפסדים הפוטנציאליים באמצעות זיהוי אנומליות בזמן אמת, ייצור מזהה פגמים מיקרוסקופיים שבדיקה אנושית הייתה מפספסת, שירותי בריאות מאמתים נתוני ניסויים קליניים עם רגישות של 85%+ לזיהוי אנומליות. לקח אחרון: ככל שמדע הנתונים עובר מסילוק חריגים להבנתם, עלינו לראות קריירות לא קונבנציונליות לא כאנומליות שיש לתקן אלא כמסלולים בעלי ערך שיש לחקור.