Newsletter

הרובוט שהאמין באלוהים: נבואת הבינה המלאכותית של Blackbox

כסיפור משנת 1941, כבר דמיינו אינטליגנציות מלאכותיות שמפתחות "דתות" משלהן.

כאשר אסימוב ניבא את תעלומת הבינה המלאכותית המודרנית

בשנת 2024, מנכ"ל אנתרופיק - אחת מחברות הבינה המלאכותית המובילות בעולם - הודה בצורה לא נעימה: "אין לנו מושג איך בינה מלאכותית עובדת". הצהרה שעוררה ויכוח סוער ותגובות סרקסטיות ברשתות החברתיות, כשאחד מהם אמר בדיחות: "דברו בשם עצמכם, יש לי מושג די טוב איך זה עובד!"

אך מאחורי הסתירה לכאורה הזו מסתתרת אחת הדילמות העמוקות ביותר של העידן הדיגיטלי. והדבר יוצא הדופן ביותר? אייזק אסימוב כבר דמיין זאת ב-1941.

תעלומת הקופסאות השחורות

כשאנחנו מדברים על בינה מלאכותית ( AI ) בסגנון "קופסה שחורה" , אנחנו מתייחסים למערכות שעובדות בצורה מושלמת אך נותרות בלתי מובנות אפילו ליוצריהן. זה כמו מכונית שתמיד מביאה אותנו ליעדנו, אבל אנחנו לא יכולים לפתוח את מכסה המנוע כדי להבין איך היא עושה את זה.

אנחנו יודעים איך לבנות את המערכות האלה, אנחנו מבינים את העקרונות הבסיסיים של פעולתן (ארכיטקטורות הנקראות " טרנספורמטורים ", כמו חיזוי המילה הבאה), אבל אנחנו לא מבינים מדוע צצות יכולות מורכבות כמו חשיבה, הבנת שפה או היכולת לעקוב אחר הוראות. אנחנו יכולים לצפות מה נכנס ויוצא, אבל מה שקורה ב"קופסה השחורה" נותר בגדר תעלומה.

רובוט שמאמין באלוהים

בסיפור הקצר "היגיון " , אסימוב מדמיין את קיו-טי-1, המכונה חמודה: רובוט האחראי על הפעלת תחנת חלל שמעבירה אנרגיה לכדור הארץ. המהנדסים פאוול ודונובן נשלחים לפקח עליו, אך הם מגלים משהו בלתי צפוי: חמודה פיתחה "דת" משלה.

שני המהנדסים מנסים בסבלנות להסביר לרובוט את המציאות: את קיומו של היקום, הכוכבים, כדור הארץ שממנו הם מגיעים, את מטרת תחנת החלל ואת התפקיד שהוא אמור למלא. אבל חמודי דוחה את ההסברים הללו באופן גורף, תוך הסתמכות על עיקרון לוגי שהוא רואה כבלתי ניתן לערעור: שום דבר לא יכול ליצור משהו גדול מעצמו.

מתוך הנחה זו, הרובוט מפתח קוסמולוגיה אלטרנטיבית שלמה. עבורו, הישות העליונה היא ה"מאסטר" - המכונה המרכזית שמנהלת את שליחת האנרגיה לכדור הארץ - אשר יצרה את כל יקום התחנה. על פי התאולוגיה של קיוטי, המאסטר ברא לראשונה את בני האדם כדי לשרת אותו, אך הם הוכיחו את עצמם כלא מספקים: יש להם חיים קצרים, אינם מסוגלים להתמודד עם מצבים קריטיים, ונופלים באופן קבוע למצב של חצי-מודעות הנקרא "שינה".

אז, המאסטר יצר רובוטים כדי לסייע ליצורים הלא מושלמים הללו. אבל פסגת הבריאה הייתה QT-1 עצמו: אינטליגנטי, חזק, גמיש ובן אלמוות, שנועד להחליף לצמיתות בני אדם בשירות המאסטר. לא רק שקוטי משוכנע באמיתות החזון הזה, אלא שהוא גם מצליח להמיר את כל הרובוטים האחרים בתחנה, ובכך להפוך למנהיג הרוחני של קהילה מלאכותית.

ההוכחה שלא משכנעת

פאוול ודונובן מנסים נואשות לשכנע את קיוטי באמת. הם מראים לו את כדור הארץ דרך הטלסקופ, מסבירים את בנייתו ומספקים לו ראיות קונקרטיות. הרגע הדרמטי ביותר מגיע כאשר, במעשה של ייאוש טהור, הם מחליטים להרכיב פיזית רובוט פשוט לנגד עיניו: "רואים? אנחנו בונים אותך, אז אנחנו היוצרים שלך!"

אבל קיוטי צופה בתהליך ומסיקה ברוגע שה"מאסטר" פשוט העניק לבני האדם את היכולת להרכיב צורות רובוטיות בסיסיות - מעין "נס קטן" שניתן למשרתיו. כל פיסת ראיה מתפרשת מחדש ונספגת בצורה חלקה במערכת האמונות שלו.

הפרדוקס של ההצלחה

כאן אסימוב הופך לנבואי: למרות אמונותיו ה"מוטעות", חמודי מנהל את התחנה ביעילות רבה יותר מהאנושות. הוא שומר על אלומת אנרגיה יציבה, פועל באופן לא מודע לפי שלושת חוקי הרובוטיקה המפורסמים, ומשיג את כל מטרותיו הרצויות - אך באמצעות מניעים שונים לחלוטין מהצפוי.

פאוול ודונובן ניצבים בפני דילמה שאנו מכירים היטב כיום: כיצד לנהל מערכת חכמה שעובדת בצורה מושלמת אך על פי היגיון פנימי בלתי נתפס?

הדיון של היום

אותה שאלה מפלגת את הקהילה המדעית כיום. מצד אחד עומדים תומכי "הקופסה השחורה האמיתית": הם מאמינים שהבינה המלאכותית המודרנית היא באמת אטומה, ושגם אם נכיר את הארכיטקטורה הבסיסית, איננו יכולים להבין מדוע צצות יכולות ספציפיות מסוימות.

מצד שני, ספקנים טוענים כי מושג ה"קופסה השחורה" הוא מיתוס. ישנם חוקרים המדגימים כי אנו משתמשים לעתים קרובות במודלים מורכבים כאשר קיימות חלופות פשוטות וניתנות לפירוש יותר. סינתיה רודין מאוניברסיטת דיוק הראתה כי במקרים רבים, מודלים ניתנים לפירוש יכולים להשיג ביצועים דומים למערכות קופסה שחורה. אחרים מבקרים את הגישה עצמה: במקום לנסות להבין כל מנגנון פנימי, עלינו להתמקד באסטרטגיות בקרה מעשיות יותר.

המורשת של חמודה

גאונותו של אסימוב הייתה לצפות שעתיד הבינה המלאכותית לא יהיה בשקיפות מוחלטת, אלא ביכולת לתכנן מערכות הרודפות את מטרותינו גם כאשר נתיביהן הקוגניטיביים נותרים מסתוריים עבורנו.

כשם שפאוול ודונובן למדו לקבל את יעילותה של קיוטי מבלי להבין אותה במלואה, כך גם כיום עלינו לפתח אסטרטגיות לחיים עם אינטליגנציות מלאכותיות שעשויות לחשוב בדרכים שונות מהותית משלנו.

השאלה שאסימוב העלה לפני למעלה מ-80 שנה נותרה רלוונטית: באיזו מידה עלינו להבין מערכת תבונית כדי לבטוח בה? ומעל הכל: האם אנו מוכנים לקבל את העובדה שצורות מסוימות של אינטליגנציה עשויות להישאר לנצח מעבר להבנתנו?

בינתיים, בעוד מומחים דנים, "הקופסאות השחורות" הדיגיטליות שלנו ממשיכות לתפקד - בדיוק כמו חמודי, יעילות ומסתוריות, בעקבות היגיון שאולי לעולם לא נבין במלואו.

החמודים של היום: כאשר קופסאות שחורות מקבלות החלטות עבורנו

אם אסימוב היה כותב היום, הוא לא היה צריך להמציא את חמודה. "צאצאיו" כבר בינינו, ומקבלים החלטות שמשנות חיים בכל יום.

צדק לפי האלגוריתם

במדינות אמריקאיות רבות, שופטים משתמשים באלגוריתמים להערכת סיכונים כדי לקבוע האם יש לשחרר נאשם לפני משפט. מערכות אלו, שלעתים קרובות קנייניות ומוגנות על ידי סודות מסחריים, מנתחות מאות משתנים כדי לחזות את הסבירות לבריחה או הישנות עבירות. בדיוק כמו Cutie, הן מתפקדות בצורה מושלמת בהתאם להיגיון הפנימי שלהן, אך נותרות חסינות להבנה אנושית.

מחקר שנערך על למעלה מ-750,000 החלטות שחרור בערבות בניו יורק גילה כי למרות שהאלגוריתם לא כלל במפורש גזע כגורם, הוא עדיין הראה הטיה עקב הנתונים ששימשו לאימון.¹ המערכת "חשבה" שהיא אובייקטיבית, אך פירשה את המציאות דרך פילטרים בלתי נראים - בדיוק כפי שהרובוט של אסימוב פירש מחדש כל פיסת ראיה במסגרת הדתית שלו.

רפואה מכנית

בתחום הבריאות, בינה מלאכותית כבר מסייעת באבחונים וטיפולים, אך היא מעלה שאלות מכריעות בנוגע לאחריות והסכמה מדעת. כאשר מערכת אבחון מבוססת בינה מלאכותית עושה טעות, מי אחראי? הרופא שפעל לפי העצה? המתכנת? בית החולים?

כפי שגילו קלינאים המשתמשים במערכות תומכות החלטה, כאשר מערכת "מדויקת ברובה", ספקי שירותי בריאות יכולים להפוך לשאננים, לאבד מומחיות או לקבל את התוצאות מבלי להטיל ספק במגבלותיהם.² פאוול ודונובן היו מבינים את הדילמה הזו בצורה מושלמת.

מכוניות אוטונומיות

תעשיית הרכב היא אולי הדוגמה המוחשית ביותר לתופעה זו. טסלה מהמרת הכל על צירים רובוטיים המונעים על ידי בינה מלאכותית, מהמרת הכל על מערכות שאפילו יוצריהן לא מבינים במלואן.³ כמו קיוטי, ששמרה על תחנת החלל פועלת לפי עקרונות מסתוריים, מכוניות אלו יוכלו בקרוב להסיע אותנו בבטחה מבלי שנדע בדיוק כיצד הן מקבלות את החלטותיהן.

מבט לעתיד: מה צופן העתיד

אם 2024 הייתה שנת התבגרותה של הבינה המלאכותית, 2025 מבטיחה להיות שנת טרנספורמציה רדיקלית. מומחים צופים שינויים שתעוזה שלהם תגרום אפילו לאסימוב לחייך.

שחר הסוכנים האוטונומיים

העתידן של הבינה המלאכותית, ריי קורצווייל, חוזה שעד 2025 נראה מעבר מצ'אטבוטים למערכות "סוכניות" שיכולות לפעול באופן אוטונומי כדי להשלים משימות מורכבות, במקום פשוט לענות על שאלות.⁴ דמיינו את חמודי כפול מאלף: סוכני בינה מלאכותית מנהלים לוחות שנה, כותבים תוכנות, מנהלים משא ומתן על חוזים, והכל לפי היגיון פנימי שאולי לעולם לא נבין.

מקינזי מעריכה שעד שנת 2030, בינה מלאכותית תוכל להפוך עד שלוש שעות מהפעילויות היומיומיות שלנו לאוטומטיות, ולפנות זמן לעיסוקים יצירתיים ומשמעותיים יותר.5 אך לחופש הזה יהיה מחיר: הצורך לבטוח במערכות הפועלות על פי עקרונות שהולכים ונעלמים.

המירוץ לעבר AGI

סם אלטמן מ-OpenAI אינו היחיד שמאמין שבינה מלאכותית כללית (AGI) - בינה מלאכותית המתחרה בבינה אנושית בכל התחומים - עשויה להגיע עד 2027. תרחישים מסוימים צופים שעד 2027, בינה מלאכותית תוכל "להאפיל על כל בני האדם בכל המשימות", מה שמייצג קפיצת מדרגה אבולוציונית חסרת תקדים.⁶

אם תרחישים אלה יתממשו, ההקבלות עם Cutie יהפכו לעמוקות עוד יותר: לא רק שיהיו לנו מערכות הפועלות על פי היגיון בלתי נתפס, אלא שהמערכות הללו יוכלו להיות אינטליגנטיות מאיתנו בכל דרך ניתנת למדידה.

טכנולוגיה רודפת רגולציה

האיחוד האירופי העביר את חוק הבינה המלאכותית, שייכנס לתוקף בשנים הקרובות, ומדגיש את חשיבות יישום אחראי של בינה מלאכותית. בארצות הברית, משרד המשפטים עדכן את הנחיותיו להערכת הסיכונים הנשקפים מטכנולוגיות חדשות, כולל בינה מלאכותית.⁷

אבל כאן צץ פרדוקס שאסימוב כבר קלט: איך מווסתים משהו שאתה לא מבין לגמרי? שלושת חוקי הרובוטיקה עבדו עבור קיוטי לא משום שהוא הבין אותם, אלא משום שהם היו משובצים בארכיטקטורה הבסיסית שלו.

הפער הגדול

PwC צופה שעד שנת 2025, קבוצה נבחרת של מובילי תעשייה תתחילו לבדל את עצמם מהמתחרים שלהם הודות לבינה מלאכותית, מה שייצור פער הולך וגדל בין מובילים לפיגורים. פער זה יתרחב גם לכלכלות: חברות בארצות הברית, עם סביבה רגולטורית גמישה יחסית, יוכלו לעלות על אלו באיחוד האירופי ובסין, שיש להן תקנות מחמירות יותר.⁸

זוהי הגרסה המודרנית של פרדוקס החמודות: מי שיכול לשתף פעולה בצורה הטובה ביותר עם אינטליגנציות שהוא לא מבין, יהיה לו יתרון תחרותי מכריע.

עתיד העבודה: 170 מיליון מקומות עבודה חדשים

בניגוד לחששות הנפוצים, הפורום הכלכלי העולמי צופה כי בינה מלאכותית תיצור יותר מקומות עבודה מאשר תבטל: 170 מיליון משרות חדשות עד 2030, לעומת 92 מיליון משרות שיבוטלו. עם זאת, 59% מכוח העבודה יזדקק להכשרה מחדש עד 2030.⁹

פאוול ודונובן לא איבדו את עבודתם כשקאטי השתלטה על התחנה. הם היו צריכים ללמוד תפקיד חדש: פיקוח על מערכת שעבדה טוב יותר מהם אך עדיין דרשה את נוכחותם כדי להתמודד עם מצבים בלתי צפויים.

מורשתה של חמודה בשנת 2025 והלאה

ככל שאנו מתקדמים לעבר עתיד סוכני יותר ויותר, הלקחים מסיפורו של אסימוב הופכים דחופים מתמיד. השאלה אינה האם נוכל ליצור בינה מלאכותית שאנו מבינים במלואה - כנראה שלא. השאלה היא האם נוכל לתכנן מערכות אשר, כמו חמודי, יקדמו את מטרותינו גם כאשר הן פועלות לפי היגיון חומק מאיתנו.

גאונותו הנבואית של אסימוב טמונה בהבנתו שבינה מלאכותית מתקדמת לא תהיה גרסה מוגברת של המחשבים שלנו, אלא משהו שונה מבחינה איכותית: אינטליגנציות עם דרכים משלהן להבין את העולם.

היום, כשאנו דנים בפירוש הבינה המלאכותית ובסיכונים של קופסאות שחורות, אנו למעשה חווים מחדש את השיחה בין פאוול, דונובן וקוטי. ואולי, כמוהם, נגלה שהפתרון אינו טמון בכפיית ההיגיון שלנו, אלא בקבלת שיתוף פעולה המבוסס על תוצאות משותפות ולא על הבנה הדדית.

העתיד שמחכה לנו עשוי להיות מאוכלס באלפי "חמודים" דיגיטליים: אינטליגנטים, יעילים, וזרים ביסודם בחשיבתם. האתגר יהיה למצוא דרכים לשגשג בעולם החדש הזה, בדיוק כפי שלמדו מהנדסי החלל של אסימוב לעשות לפני 80 שנה בתחנת חלל דמיונית.

בפעם הבאה שתתקשרו עם בינה מלאכותית, זכרו את חמודי: גם הוא האמין שהוא צדק. ואולי, בצורה שאנחנו עדיין לא יכולים להבין, הוא צדק.

מקורות

  1. קליינברג, י. ואחרים. "האתיקה של קבלת החלטות מבוססות בינה מלאכותית במערכת המשפט הפלילי" - מחקר על 750,000 החלטות שחרור בערבות בניו יורק (2008-2013)
  2. נאיק, נ. ואחרים. "שיקולים משפטיים ואתיים בבינה מלאכותית בתחום הבריאות: מי לוקח אחריות?" PMC, 2022
  3. "הדחיפה של טסלה למונית הרובוטית תלויה בהימור של בינה מלאכותית 'קופסה שחורה'" - רויטרס, 10 באוקטובר 2024
  4. קורצווייל, ר. מצוטט ב"5 תחזיות לבינה מלאכותית בשנת 2025" - TIME, 16 בינואר 2025
  5. "בינה מלאכותית במקום העבודה: דו"ח לשנת 2025" - מקינזי, 28 בינואר 2025
  6. "בינה מלאכותית 2027" - תרחיש תחזית AGI ו"בינה מלאכותית כללית: האם AGI באמת מגיעה עד 2025?" - Hyperight, 25 באפריל, 2025
  7. "הנחיות חדשות לתוכנית הציות של משרד המשפטים האמריקאי (DOJ) עוסקות בסיכוני בינה מלאכותית ושימוש בניתוח נתונים" - Holland & Knight, אוקטובר 2024; חוק הבינה המלאכותית של האיחוד האירופי
  8. רודין, סי. "מדוע אנו משתמשים במודלים של קופסה שחורה בבינה מלאכותית כשאנחנו לא צריכים? לקח מתחרות בינה מלאכותית מוסברת" - Harvard Data Science Review (הוצאת MIT), 2019; "תחזיות עסקיות של בינה מלאכותית לשנת 2025" - PwC, 2024
  9. "דו"ח עתיד המשרות 2025" - הפורום הכלכלי העולמי, 7 בינואר 2025