Newsletter

למה מתמטיקה קשה (גם אם אתה בינה מלאכותית)

מודלים של שפה לא יכולים להכפיל - הם משננים תוצאות כמו שאנחנו משננים פאי, אבל זה לא הופך אותם לבעלי יכולת מתמטית. הבעיה היא מבנית: הם לומדים דרך דמיון סטטיסטי, לא הבנה אלגוריתמית. אפילו "מודלים של חשיבה" חדשים כמו o1 נכשלים במשימות טריוויאליות: הוא סופר נכון את ה-'r' ב"תות" לאחר שניות של עיבוד, אבל נכשל כשהוא צריך לכתוב פסקה שבה האות השנייה של כל משפט מאייתת מילה. גרסת הפרימיום, שעולה 200 דולר לחודש, לוקחת ארבע דקות לפתור את מה שילד יכול לעשות באופן מיידי. DeepSeek ו-Mistral עדיין סופרים אותיות באופן שגוי בשנת 2025. הפתרון המתפתח? גישה היברידית - המודלים החכמים ביותר הבינו מתי לקרוא למחשבון אמיתי במקום לנסות את החישוב בעצמם. שינוי פרדיגמה: בינה מלאכותית לא צריכה לדעת איך לעשות הכל, אלא לתזמר את הכלים הנכונים. פרדוקס סופי: GPT-4 יכול להסביר בצורה מבריקה את תורת הגבולות, אבל הוא נכשל בבעיות כפל שמחשבון כיס תמיד פותר נכון. הם מצוינים לחינוך מתמטי - הם מסבירים בסבלנות אינסופית, מתאימים דוגמאות ומפרקים חשיבה מורכבת. לחישובים מדויקים? תסמכו על מחשבון, לא על בינה מלאכותית.

רבים מסתמכים על תואר שני במשפטים (LLM) גם לביצוע פעולות מתמטיות. גישה זו אינה עובדת.

הנקודה היא פשוטה: מודלים לשוניים גדולים (LLMs) לא באמת יודעים איך להכפיל. לפעמים הם יכולים לקבל את התוצאה הנכונה, בדיוק כמו שאני אולי יודע את הערך של פאי בעל פה. אבל זה לא אומר שאני מתמטיקאי, וגם לא ש-LLMs באמת יודעים איך לעשות מתמטיקה.

דוגמה מעשית

דוגמה: 49858 *5994949 = 298896167242 תוצאה זו תמיד זהה; אין דרך אמצע. זה נכון או לא נכון.

אפילו עם הכשרה מקיפה המתמקדת במתמטיקה, המודלים הטובים ביותר יכולים לפתור נכון רק חלק קטן מהחישובים. מחשבון כיס פשוט, לעומת זאת, משיג 100% מהתוצאות נכונות, בכל פעם. וככל שהמספרים גדולים יותר, כך הביצועים של המודלים לתואר שני (LLM) גרועים יותר.

האם ניתן לפתור את הבעיה הזו?

הבעיה הבסיסית היא שמודלים אלה לומדים על ידי דמיון, לא על ידי הבנה. הם מתפקדים בצורה הטובה ביותר בבעיות דומות לאלה שעליהן אומנו, אך הם לעולם לא מפתחים הבנה אמיתית של מה שהם אומרים.

למי שרוצה ללמוד עוד, אני ממליץ על המאמר הזה בנושא " איך עובד תואר שני במשפטים ".

מחשבון, לעומת זאת, משתמש באלגוריתם מדויק שתוכנת לביצוע הפעולה המתמטית.

זו הסיבה שלעולם אסור לנו להסתמך לחלוטין על תוכניות לימודי משפטים (LLM) לחישובים מתמטיים: אפילו בתנאים הטובים ביותר, עם כמויות עצומות של נתוני אימון מיוחדים, הן לא מצליחות להבטיח אמינות אפילו בפעולות הבסיסיות ביותר. גישה היברידית עשויה לעבוד, אך תוכניות לימודי משפטים לבדן אינן מספיקות. אולי גישה זו תשמש לפתרון מה שנקרא "בעיית התות ".

יישומים של תואר ראשון במשפטים (LLM) בלימודי מתמטיקה

בהקשר החינוכי, סטודנטים לתואר שני במשפטים יכולים לשמש כמדריכים מותאמים אישית, המסוגלים להתאים הסברים לרמת ההבנה של הסטודנט. לדוגמה, כאשר סטודנט מתמודד עם בעיית חשבון דיפרנציאלי, התואר השני יכול לפרק את ההיגיון לשלבים פשוטים יותר, ולספק הסברים מפורטים לכל שלב בתהליך הפתרון. גישה זו מסייעת לבנות הבנה מוצקה של מושגים בסיסיים.

היבט מעניין במיוחד הוא יכולתו של התואר השני במשפטים (LLM) לייצר דוגמאות רלוונטיות ומגוונות. אם סטודנט מנסה להבין את מושג הגבולות, התואר השני יכול להציג תרחישים מתמטיים שונים, החל ממקרים פשוטים ועובר למצבים מורכבים יותר, ובכך לאפשר הבנה הדרגתית של המושג.

יישום מבטיח אחד הוא השימוש בתואר ראשון במשפטים (LLM) כדי לתרגם מושגים מתמטיים מורכבים לשפה טבעית נגישה יותר. זה מקל על תקשורת המתמטיקה לקהל רחב יותר ועשוי לסייע להתגבר על המכשול המסורתי לכניסה לתחום זה.

תואר שני במשפטים (LLMs) יכול גם לסייע בהכנת חומרי הוראה, יצירת תרגילים ברמת קושי משתנה ומתן משוב מפורט על הפתרונות המוצעים על ידי התלמידים. זה מאפשר למורים להתאים אישית טוב יותר את מסע הלמידה של תלמידיהם.

היתרון האמיתי

באופן כללי יותר, חשוב גם לקחת בחשבון את ה"סבלנות" הקיצונית הנדרשת כדי לעזור אפילו לתלמיד הכי פחות מוכשר ללמוד: במקרה זה, היעדר רגש עוזר. למרות זאת, אפילו בינה מלאכותית לפעמים "מאבדת סבלנות". ראו דוגמה "משעשעת" זו.

עדכון 2025: מודלים של חשיבה והגישה ההיברידית

2024-2025 הביאו התפתחויות משמעותיות עם הגעתם של מה שנקרא "מודלים של חשיבה" כמו OpenAI o1 ו- deepseek R1. מודלים אלה השיגו תוצאות מרשימות במבחנים מתמטיים: o1 פתר 83% מבעיות האולימפיאדה המתמטית הבינלאומית בצורה נכונה, בהשוואה ל-13% עבור GPT-4o. אך היזהרו: הם לא פתרו את הבעיה הבסיסית שתוארה לעיל.

בעיית התות - ספירת ה-'ר' במילה "תות" - ממחישה בצורה מושלמת את המגבלה המתמשכת. o1 פותר אותה נכון לאחר מספר שניות של "הנמקה", אבל אם מבקשים ממנו לכתוב פסקה שבה האות השנייה של כל משפט מאייתת את המילה "CODE", הוא נכשל. o1-pro, הגרסה שעולה 200 דולר לחודש, פותר אותה... לאחר 4 דקות של עיבוד. DeepSeek R1 ודגמים עדכניים אחרים עדיין טועים בספירה הבסיסית. נכון לפברואר 2025, Mistral עדיין אמרה לכם שיש רק שתי 'ר' במילה "תות".

הטריק המתפתח הוא גישה היברידית: כאשר הם צריכים להכפיל 49858 ב-5994949, המודלים המתקדמים ביותר כבר לא מנסים "לנחש" את התוצאה על סמך קווי דמיון לחישובים שנצפו במהלך האימון. במקום זאת, הם קוראים למחשבון או מפעילים קוד פייתון - בדיוק כמו אדם אינטליגנטי שמכיר את מגבלותיו.

"שימוש בכלים" זה מייצג שינוי פרדיגמה: בינה מלאכותית לא חייבת להיות מסוגלת לעשות הכל בעצמה, אלא חייבת להיות מסוגלת לתזמר את הכלים הנכונים. מודלים של חשיבה משלבים יכולות לשוניות להבנת הבעיה, חשיבה שלב אחר שלב לתכנון הפתרון, והאצלת סמכויות לכלים ייעודיים (מחשבונים, מפרשי פייתון, מסדי נתונים) לביצוע מדויק.

הלקח? סטודנטים לתואר ראשון במשפטים (LLM) של 2025 שימושיים יותר במתמטיקה לא משום שהם "למדו" להכפיל - הם עדיין לא באמת עשו זאת - אלא משום שחלקם החלו להבין מתי להאציל את סמכויות הכפל לאלו שבאמת יודעים איך לעשות זאת. הבעיה הבסיסית נותרה: הם פועלים על סמך דמיון סטטיסטי, לא על סמך הבנה אלגוריתמית. מחשבון של חמישה יורו נותר אמין לאין שיעור לחישובים מדויקים.

משאבים לצמיחה עסקית

9 בנובמבר, 2025

אשליית ההיגיון: הוויכוח שמטלטל את עולם הבינה המלאכותית

אפל מפרסמת שני מאמרים הרסניים - "GSM-Symbolic" (אוקטובר 2024) ו-"The Illusion of Thinking" (יוני 2025) - המדגימים כיצד תוכניות לימודי משפטים (LLM) נכשלות בווריאציות קטנות של בעיות קלאסיות (מגדל האנוי, חציית נהר): "הביצועים יורדים כאשר רק ערכים מספריים משתנים". אפס הצלחות במגדל האנוי המורכב. אבל אלכס לוסן (Open Philanthropy) מתנגד עם "The Illusion of the Illusion of Thinking", המדגים מתודולוגיה פגומה: כשלים היו מגבלות פלט של אסימון, לא קריסת חשיבה, סקריפטים אוטומטיים סיווגו באופן שגוי פלטים חלקיים נכונים, חלק מהחידות היו בלתי פתירות מבחינה מתמטית. על ידי חזרה על בדיקות עם פונקציות רקורסיביות במקום רישום מהלכים, קלוד/ג'מיני/GPT פותרים את מגדל האנוי בן 15 הדיסקים. גארי מרקוס מאמץ את תזת "הסטת ההפצה" של אפל, אך מאמר תזמון שלפני WWDC מעלה שאלות אסטרטגיות. השלכות עסקיות: עד כמה עלינו לסמוך על בינה מלאכותית למשימות קריטיות? פתרון: גישות נוירו-סימבוליות - רשתות עצביות לזיהוי תבניות + שפה, מערכות סמליות ללוגיקה פורמלית. דוגמה: חשבונאות מבוססת בינה מלאכותית מבינה "כמה הוצאתי על נסיעות?" אבל SQL/חישובים/ביקורות מס = קוד דטרמיניסטי.
9 בנובמבר, 2025

🤖 שיחת טכנולוגיה: כאשר בינה מלאכותית מפתחת את שפות הסודיות שלה

בעוד ש-61% מהאנשים כבר חוששים מבינה מלאכותית שמבינה, בפברואר 2025, Gibberlink צברה 15 מיליון צפיות כשהציגה משהו חדש באופן קיצוני: שתי מערכות בינה מלאכותית שמפסיקות לדבר אנגלית ומתקשרות באמצעות צלילים גבוהים בתדרים של 1875-4500 הרץ, בלתי נתפסים לבני אדם. זה לא מדע בדיוני, אלא פרוטוקול FSK שמשפר את הביצועים ב-80%, חותר תחת סעיף 13 של חוק הבינה המלאכותית של האיחוד האירופי ויוצר אטימות דו-שכבתית: אלגוריתמים בלתי ניתנים לפענוח שמתואמים בשפות בלתי ניתנות לפענוח. המדע מראה שאנחנו יכולים ללמוד פרוטוקולי מכונה (כמו קוד מורס בקצב של 20-40 מילים/דקה), אך אנו ניצבים בפני מגבלות ביולוגיות בלתי עבירות: 126 ביט/שנייה לבני אדם לעומת Mbps+ למכונות. שלושה מקצועות חדשים צצים - אנליסט פרוטוקולי בינה מלאכותית, מבקר תקשורת בינה מלאכותית ומעצב ממשק אנושי של בינה מלאכותית - כאשר IBM, גוגל ו-Anthropic מפתחות סטנדרטים (ACP, A2A, MCP) כדי להימנע מהקופסה השחורה האולטימטיבית. החלטות שיתקבלו היום בנוגע לפרוטוקולי תקשורת של בינה מלאכותית יעצבו את מסלול הבינה המלאכותית בעשורים הבאים.
9 בנובמבר, 2025

מגמות בינה מלאכותית 2025: 6 פתרונות אסטרטגיים ליישום חלק של בינה מלאכותית

87% מהחברות מכירות בבינה מלאכותית כצורך תחרותי, אך רבות מהן נכשלות בשילובה - הבעיה אינה הטכנולוגיה, אלא הגישה. שבעים ושלושה אחוזים מהמנהלים מציינים שקיפות (בינה מלאכותית מוסברת) כגורם קריטי לתמיכה מצד בעלי העניין, בעוד שיישומים מוצלחים עוקבים אחר אסטרטגיית "התחילו בקטן, תחשבו בגדול": פרויקטים פיילוט ממוקדים ובעלי ערך גבוה במקום טרנספורמציות עסקיות בקנה מידה מלא. מקרה אמיתי: חברת ייצור מיישמת תחזוקה חזויה של בינה מלאכותית בקו ייצור יחיד, ומשיגה הפחתה של 67% בזמן השבתה תוך 60 יום, מה שמזרז אימוץ כלל-ארגוני. שיטות עבודה מומלצות מאומתות: מתן עדיפות לשילוב API/תוכנה על פני החלפה מלאה כדי להפחית עקומות למידה; הקדשת 30% מהמשאבים לניהול שינויים עם הכשרה ספציפית לתפקיד מייצרת עלייה של 40% במהירות האימוץ ועלייה של 65% בשביעות רצון המשתמשים; יישום מקביל לאימות תוצאות בינה מלאכותית לעומת שיטות קיימות; הידרדרות הדרגתית עם מערכות גיבוי; מחזורי סקירה שבועיים במשך 90 הימים הראשונים, ניטור ביצועים טכניים, השפעה עסקית, שיעורי אימוץ והחזר השקעה (ROI). הצלחה דורשת איזון בין גורמים טכניים ואנושיים: אלופי בינה מלאכותית פנימיים, התמקדות ביתרונות מעשיים וגמישות אבולוציונית.