בשנת 2024, מנכ"ל אנתרופיק - אחת מחברות הבינה המלאכותית המובילות בעולם - הודה בצורה לא נעימה: "אין לנו מושג איך בינה מלאכותית עובדת". הצהרה שעוררה ויכוח סוער ותגובות סרקסטיות ברשתות החברתיות, כשאחד מהם אמר בדיחות: "דברו בשם עצמכם, יש לי מושג די טוב איך זה עובד!"
אך מאחורי הסתירה לכאורה הזו מסתתרת אחת הדילמות העמוקות ביותר של העידן הדיגיטלי. והדבר יוצא הדופן ביותר? אייזק אסימוב כבר דמיין זאת ב-1941.
כשאנחנו מדברים על בינה מלאכותית ( AI ) בסגנון "קופסה שחורה" , אנחנו מתייחסים למערכות שעובדות בצורה מושלמת אך נותרות בלתי מובנות אפילו ליוצריהן. זה כמו מכונית שתמיד מביאה אותנו ליעדנו, אבל אנחנו לא יכולים לפתוח את מכסה המנוע כדי להבין איך היא עושה את זה.
אנחנו יודעים איך לבנות את המערכות האלה, אנחנו מבינים את העקרונות הבסיסיים של פעולתן (ארכיטקטורות הנקראות " טרנספורמטורים ", כמו חיזוי המילה הבאה), אבל אנחנו לא מבינים מדוע צצות יכולות מורכבות כמו חשיבה, הבנת שפה או היכולת לעקוב אחר הוראות. אנחנו יכולים לצפות מה נכנס ויוצא, אבל מה שקורה ב"קופסה השחורה" נותר בגדר תעלומה.
בסיפור הקצר "היגיון " , אסימוב מדמיין את קיו-טי-1, המכונה חמודה: רובוט האחראי על הפעלת תחנת חלל שמעבירה אנרגיה לכדור הארץ. המהנדסים פאוול ודונובן נשלחים לפקח עליו, אך הם מגלים משהו בלתי צפוי: חמודה פיתחה "דת" משלה.
שני המהנדסים מנסים בסבלנות להסביר לרובוט את המציאות: את קיומו של היקום, הכוכבים, כדור הארץ שממנו הם מגיעים, את מטרת תחנת החלל ואת התפקיד שהוא אמור למלא. אבל חמודי דוחה את ההסברים הללו באופן גורף, תוך הסתמכות על עיקרון לוגי שהוא רואה כבלתי ניתן לערעור: שום דבר לא יכול ליצור משהו גדול מעצמו.
מתוך הנחה זו, הרובוט מפתח קוסמולוגיה אלטרנטיבית שלמה. עבורו, הישות העליונה היא ה"מאסטר" - המכונה המרכזית שמנהלת את שליחת האנרגיה לכדור הארץ - אשר יצרה את כל יקום התחנה. על פי התאולוגיה של קיוטי, המאסטר ברא לראשונה את בני האדם כדי לשרת אותו, אך הם הוכיחו את עצמם כלא מספקים: יש להם חיים קצרים, אינם מסוגלים להתמודד עם מצבים קריטיים, ונופלים באופן קבוע למצב של חצי-מודעות הנקרא "שינה".
אז, המאסטר יצר רובוטים כדי לסייע ליצורים הלא מושלמים הללו. אבל פסגת הבריאה הייתה QT-1 עצמו: אינטליגנטי, חזק, גמיש ובן אלמוות, שנועד להחליף לצמיתות בני אדם בשירות המאסטר. לא רק שקוטי משוכנע באמיתות החזון הזה, אלא שהוא גם מצליח להמיר את כל הרובוטים האחרים בתחנה, ובכך להפוך למנהיג הרוחני של קהילה מלאכותית.
פאוול ודונובן מנסים נואשות לשכנע את קיוטי באמת. הם מראים לו את כדור הארץ דרך הטלסקופ, מסבירים את בנייתו ומספקים לו ראיות קונקרטיות. הרגע הדרמטי ביותר מגיע כאשר, במעשה של ייאוש טהור, הם מחליטים להרכיב פיזית רובוט פשוט לנגד עיניו: "רואים? אנחנו בונים אותך, אז אנחנו היוצרים שלך!"
אבל קיוטי צופה בתהליך ומסיקה ברוגע שה"מאסטר" פשוט העניק לבני האדם את היכולת להרכיב צורות רובוטיות בסיסיות - מעין "נס קטן" שניתן למשרתיו. כל פיסת ראיה מתפרשת מחדש ונספגת בצורה חלקה במערכת האמונות שלו.
כאן אסימוב הופך לנבואי: למרות אמונותיו ה"מוטעות", חמודי מנהל את התחנה ביעילות רבה יותר מהאנושות. הוא שומר על אלומת אנרגיה יציבה, פועל באופן לא מודע לפי שלושת חוקי הרובוטיקה המפורסמים, ומשיג את כל מטרותיו הרצויות - אך באמצעות מניעים שונים לחלוטין מהצפוי.
פאוול ודונובן ניצבים בפני דילמה שאנו מכירים היטב כיום: כיצד לנהל מערכת חכמה שעובדת בצורה מושלמת אך על פי היגיון פנימי בלתי נתפס?
אותה שאלה מפלגת את הקהילה המדעית כיום. מצד אחד עומדים תומכי "הקופסה השחורה האמיתית": הם מאמינים שהבינה המלאכותית המודרנית היא באמת אטומה, ושגם אם נכיר את הארכיטקטורה הבסיסית, איננו יכולים להבין מדוע צצות יכולות ספציפיות מסוימות.
מצד שני, ספקנים טוענים כי מושג ה"קופסה השחורה" הוא מיתוס. ישנם חוקרים המדגימים כי אנו משתמשים לעתים קרובות במודלים מורכבים כאשר קיימות חלופות פשוטות וניתנות לפירוש יותר. סינתיה רודין מאוניברסיטת דיוק הראתה כי במקרים רבים, מודלים ניתנים לפירוש יכולים להשיג ביצועים דומים למערכות קופסה שחורה. אחרים מבקרים את הגישה עצמה: במקום לנסות להבין כל מנגנון פנימי, עלינו להתמקד באסטרטגיות בקרה מעשיות יותר.
גאונותו של אסימוב הייתה לצפות שעתיד הבינה המלאכותית לא יהיה בשקיפות מוחלטת, אלא ביכולת לתכנן מערכות הרודפות את מטרותינו גם כאשר נתיביהן הקוגניטיביים נותרים מסתוריים עבורנו.
כשם שפאוול ודונובן למדו לקבל את יעילותה של קיוטי מבלי להבין אותה במלואה, כך גם כיום עלינו לפתח אסטרטגיות לחיים עם אינטליגנציות מלאכותיות שעשויות לחשוב בדרכים שונות מהותית משלנו.
השאלה שאסימוב העלה לפני למעלה מ-80 שנה נותרה רלוונטית: באיזו מידה עלינו להבין מערכת תבונית כדי לבטוח בה? ומעל הכל: האם אנו מוכנים לקבל את העובדה שצורות מסוימות של אינטליגנציה עשויות להישאר לנצח מעבר להבנתנו?
בינתיים, בעוד מומחים דנים, "הקופסאות השחורות" הדיגיטליות שלנו ממשיכות לתפקד - בדיוק כמו חמודי, יעילות ומסתוריות, בעקבות היגיון שאולי לעולם לא נבין במלואו.
אם אסימוב היה כותב היום, הוא לא היה צריך להמציא את חמודה. "צאצאיו" כבר בינינו, ומקבלים החלטות שמשנות חיים בכל יום.
במדינות אמריקאיות רבות, שופטים משתמשים באלגוריתמים להערכת סיכונים כדי לקבוע האם יש לשחרר נאשם לפני משפט. מערכות אלו, שלעתים קרובות קנייניות ומוגנות על ידי סודות מסחריים, מנתחות מאות משתנים כדי לחזות את הסבירות לבריחה או הישנות עבירות. בדיוק כמו Cutie, הן מתפקדות בצורה מושלמת בהתאם להיגיון הפנימי שלהן, אך נותרות חסינות להבנה אנושית.
מחקר שנערך על למעלה מ-750,000 החלטות שחרור בערבות בניו יורק גילה כי למרות שהאלגוריתם לא כלל במפורש גזע כגורם, הוא עדיין הראה הטיה עקב הנתונים ששימשו לאימון.¹ המערכת "חשבה" שהיא אובייקטיבית, אך פירשה את המציאות דרך פילטרים בלתי נראים - בדיוק כפי שהרובוט של אסימוב פירש מחדש כל פיסת ראיה במסגרת הדתית שלו.
בתחום הבריאות, בינה מלאכותית כבר מסייעת באבחונים וטיפולים, אך היא מעלה שאלות מכריעות בנוגע לאחריות והסכמה מדעת. כאשר מערכת אבחון מבוססת בינה מלאכותית עושה טעות, מי אחראי? הרופא שפעל לפי העצה? המתכנת? בית החולים?
כפי שגילו קלינאים המשתמשים במערכות תומכות החלטה, כאשר מערכת "מדויקת ברובה", ספקי שירותי בריאות יכולים להפוך לשאננים, לאבד מומחיות או לקבל את התוצאות מבלי להטיל ספק במגבלותיהם.² פאוול ודונובן היו מבינים את הדילמה הזו בצורה מושלמת.
תעשיית הרכב היא אולי הדוגמה המוחשית ביותר לתופעה זו. טסלה מהמרת הכל על צירים רובוטיים המונעים על ידי בינה מלאכותית, מהמרת הכל על מערכות שאפילו יוצריהן לא מבינים במלואן.³ כמו קיוטי, ששמרה על תחנת החלל פועלת לפי עקרונות מסתוריים, מכוניות אלו יוכלו בקרוב להסיע אותנו בבטחה מבלי שנדע בדיוק כיצד הן מקבלות את החלטותיהן.
אם 2024 הייתה שנת התבגרותה של הבינה המלאכותית, 2025 מבטיחה להיות שנת טרנספורמציה רדיקלית. מומחים צופים שינויים שתעוזה שלהם תגרום אפילו לאסימוב לחייך.
העתידן של הבינה המלאכותית, ריי קורצווייל, חוזה שעד 2025 נראה מעבר מצ'אטבוטים למערכות "סוכניות" שיכולות לפעול באופן אוטונומי כדי להשלים משימות מורכבות, במקום פשוט לענות על שאלות.⁴ דמיינו את חמודי כפול מאלף: סוכני בינה מלאכותית מנהלים לוחות שנה, כותבים תוכנות, מנהלים משא ומתן על חוזים, והכל לפי היגיון פנימי שאולי לעולם לא נבין.
מקינזי מעריכה שעד שנת 2030, בינה מלאכותית תוכל להפוך עד שלוש שעות מהפעילויות היומיומיות שלנו לאוטומטיות, ולפנות זמן לעיסוקים יצירתיים ומשמעותיים יותר.5 אך לחופש הזה יהיה מחיר: הצורך לבטוח במערכות הפועלות על פי עקרונות שהולכים ונעלמים.
סם אלטמן מ-OpenAI אינו היחיד שמאמין שבינה מלאכותית כללית (AGI) - בינה מלאכותית המתחרה בבינה אנושית בכל התחומים - עשויה להגיע עד 2027. תרחישים מסוימים צופים שעד 2027, בינה מלאכותית תוכל "להאפיל על כל בני האדם בכל המשימות", מה שמייצג קפיצת מדרגה אבולוציונית חסרת תקדים.⁶
אם תרחישים אלה יתממשו, ההקבלות עם Cutie יהפכו לעמוקות עוד יותר: לא רק שיהיו לנו מערכות הפועלות על פי היגיון בלתי נתפס, אלא שהמערכות הללו יוכלו להיות אינטליגנטיות מאיתנו בכל דרך ניתנת למדידה.
האיחוד האירופי העביר את חוק הבינה המלאכותית, שייכנס לתוקף בשנים הקרובות, ומדגיש את חשיבות יישום אחראי של בינה מלאכותית. בארצות הברית, משרד המשפטים עדכן את הנחיותיו להערכת הסיכונים הנשקפים מטכנולוגיות חדשות, כולל בינה מלאכותית.⁷
אבל כאן צץ פרדוקס שאסימוב כבר קלט: איך מווסתים משהו שאתה לא מבין לגמרי? שלושת חוקי הרובוטיקה עבדו עבור קיוטי לא משום שהוא הבין אותם, אלא משום שהם היו משובצים בארכיטקטורה הבסיסית שלו.
PwC צופה שעד שנת 2025, קבוצה נבחרת של מובילי תעשייה תתחילו לבדל את עצמם מהמתחרים שלהם הודות לבינה מלאכותית, מה שייצור פער הולך וגדל בין מובילים לפיגורים. פער זה יתרחב גם לכלכלות: חברות בארצות הברית, עם סביבה רגולטורית גמישה יחסית, יוכלו לעלות על אלו באיחוד האירופי ובסין, שיש להן תקנות מחמירות יותר.⁸
זוהי הגרסה המודרנית של פרדוקס החמודות: מי שיכול לשתף פעולה בצורה הטובה ביותר עם אינטליגנציות שהוא לא מבין, יהיה לו יתרון תחרותי מכריע.
בניגוד לחששות הנפוצים, הפורום הכלכלי העולמי צופה כי בינה מלאכותית תיצור יותר מקומות עבודה מאשר תבטל: 170 מיליון משרות חדשות עד 2030, לעומת 92 מיליון משרות שיבוטלו. עם זאת, 59% מכוח העבודה יזדקק להכשרה מחדש עד 2030.⁹
פאוול ודונובן לא איבדו את עבודתם כשקאטי השתלטה על התחנה. הם היו צריכים ללמוד תפקיד חדש: פיקוח על מערכת שעבדה טוב יותר מהם אך עדיין דרשה את נוכחותם כדי להתמודד עם מצבים בלתי צפויים.
ככל שאנו מתקדמים לעבר עתיד סוכני יותר ויותר, הלקחים מסיפורו של אסימוב הופכים דחופים מתמיד. השאלה אינה האם נוכל ליצור בינה מלאכותית שאנו מבינים במלואה - כנראה שלא. השאלה היא האם נוכל לתכנן מערכות אשר, כמו חמודי, יקדמו את מטרותינו גם כאשר הן פועלות לפי היגיון חומק מאיתנו.
גאונותו הנבואית של אסימוב טמונה בהבנתו שבינה מלאכותית מתקדמת לא תהיה גרסה מוגברת של המחשבים שלנו, אלא משהו שונה מבחינה איכותית: אינטליגנציות עם דרכים משלהן להבין את העולם.
היום, כשאנו דנים בפירוש הבינה המלאכותית ובסיכונים של קופסאות שחורות, אנו למעשה חווים מחדש את השיחה בין פאוול, דונובן וקוטי. ואולי, כמוהם, נגלה שהפתרון אינו טמון בכפיית ההיגיון שלנו, אלא בקבלת שיתוף פעולה המבוסס על תוצאות משותפות ולא על הבנה הדדית.
העתיד שמחכה לנו עשוי להיות מאוכלס באלפי "חמודים" דיגיטליים: אינטליגנטים, יעילים, וזרים ביסודם בחשיבתם. האתגר יהיה למצוא דרכים לשגשג בעולם החדש הזה, בדיוק כפי שלמדו מהנדסי החלל של אסימוב לעשות לפני 80 שנה בתחנת חלל דמיונית.
בפעם הבאה שתתקשרו עם בינה מלאכותית, זכרו את חמודי: גם הוא האמין שהוא צדק. ואולי, בצורה שאנחנו עדיין לא יכולים להבין, הוא צדק.