בספטמבר 2025, OpenAI חשפה גילוי שזעזע את קהילת הטכנולוגיה העולמית: ChatGPT עוקב באופן פעיל אחר שיחות המשתמשים ומדווח על תוכן שעלול להיות פלילי לרשויות אכיפת החוק .
החדשות, שנחשפו כמעט במקרה בפוסט בבלוג של החברה, חשפו שכאשר מערכות אוטומטיות מזהות משתמשים ש"מתכננים לפגוע באחרים", השיחות מנותבות לצינורות ייעודיים שבהם צוות קטן שאומן במדיניות שימוש סוקר אותן. אם בודקים אנושיים קובעים כי קיים "איום מיידי של פגיעה פיזית חמורה באחרים", ניתן לדווח על המקרה לרשויות אכיפת החוק.¹

ChatGPT מזמין אותך בחום לשתף את מחשבותיך האינטימיות ביותר. אל דאגה, הכל סודי... פחות או יותר.
מקורות:
כשאנו מדברים עם פסיכולוג, עורך דין, רופא או כומר, דברינו מוגנים על ידי מנגנון משפטי מבוסס היטב: סודיות מקצועית . עיקרון זה, המושרש במאות שנים של מסורת משפטית, קובע כי שיחות מסוימות הן בלתי ניתנות לפגיעה, אפילו לנוכח חקירות פליליות.
מאפייני סודיות מקצועית מסורתית:
בניגוד לתפיסה הרווחת, סודיות מקצועית אינה מוחלטת . ישנם יוצאים מן הכלל מוגדרים היטב המשתנים בהתאם לקטגוריה המקצועית:
לעורכי דין (סעיף 28 לקוד האתיקה הפורנזית): גילוי מותר כאשר הדבר נחוץ עבור:
דוגמה קריטית : אם לקוח מצהיר בפני עורך הדין כי בכוונתו לבצע רצח, בין ההגנה על זכות ההגנה לבין ההגנה על טובת החיים, האחרונה חייבת לגבור ועורך הדין משוחרר מחיסיון².
עבור פסיכולוגים (סעיף 13 בקוד האתי): סודיות עלולה להיות מופרת כאשר:
הבדל חשוב : לפסיכולוג הפרטי יש שיקול דעת גדול יותר מאשר לפסיכולוג הציבורי, אשר, כעובד ציבור, יש לו חובות דיווח מחמירות יותר³.
מקורות:
ChatGPT פועל בתחום אפור שונה לחלוטין:
חוסר חסיון משפטי : לשיחות עם בינה מלאכותית אין שום הגנה משפטית. כפי שהודה מנכ"ל OpenAI, סם אלטמן: "אם אתה מדבר עם מטפל, עורך דין או רופא על נושאים אלה, יש חסיון משפטי לכך. יש סודיות בין רופא לחולה, יש חסיון משפטי, מה שזה לא יהיה. ועדיין לא פתרנו את זה לגבי כשאתה מדבר עם ChatGPT." ²
תהליך אוטומטי : בניגוד לאיש מקצוע אנושי שמעריך כל מקרה לגופו, ChatGPT משתמש באלגוריתמים כדי לזהות תוכן "בעייתי", תוך הסרת שיקול דעת אנושי מוסמך משלב הסינון הראשוני.
מקורות:
המצב יוצר פרדוקס מטריד. מיליוני אנשים משתמשים ב-ChatGPT כאדם דיגיטלי, חולקים מחשבות אינטימיות, ספקות, פחדים ואפילו פנטזיות פליליות שלעולם לא היו חולקים עם בן אדם. כפי שמדווח סם אלטמן: "אנשים מדברים על הדברים האישיים ביותר בחייהם ב-ChatGPT. אנשים משתמשים בו - במיוחד צעירים - כמטפל, כמאמן לחיים." ⁴
הסיכון של צנזורה עצמית פלילית : המודעות לכך שניתן לנטר שיחות עלולה, באופן פרדוקסלי:
היבט מכריע שהדגישו מבקרים נוגע לכשירותם של אלו המקבלים את ההחלטות הסופיות.
אנשי מקצוע אנושיים מחזיקים ב:
מערכת ChatGPT עובדת עם:
דוגמה בעייתית : כיצד אלגוריתם מבחין בין:
מקורות:
מקורות:
הודאתה של OpenAI יוצרת סתירה בוטה לעמדותיה הקודמות. החברה התנגדה בתוקף לבקשות לנתוני משתמשים בתביעות משפטיות, תוך ציטוט חששות בנוגע לפרטיות. בתיק נגד הניו יורק טיימס, OpenAI טענה בתוקף נגד חשיפת יומני צ'אט כדי להגן על פרטיות המשתמשים.⁴
האירוניה : OpenAI מגינה על פרטיות המשתמשים בבית המשפט, ובמקביל מודה בניטור ושיתוף נתונים עם רשויות חיצוניות.
המצב הסתבך עוד יותר עקב צו בית משפט שדרש מ-OpenAI לשמור את כל יומני ChatGPT ללא הגבלת זמן, כולל צ'אטים פרטיים ונתוני API. משמעות הדבר היא ששיחות שמשתמשים חשבו שהן זמניות נשמרות כעת לצמיתות בארכיון.⁵
מקורות:
כפי שמציע סם אלטמן, ייתכן שיהיה צורך לפתח מושג של "פריבילגיה של בינה מלאכותית" - הגנה משפטית דומה לזו המוענקת לאנשי מקצוע מסורתיים. עם זאת, זה מעלה שאלות מורכבות:
אפשרויות רגולטוריות אפשריות:
IA "מדורג":
גישה "תלת-צדדית":
לקחים ממגזרים אחרים:
מקורות:
מקרה OpenAI קובע תקדימים חשובים לכל תעשיית הבינה המלאכותית:
עבור חברות המפתחות בינה מלאכותית שיחתית:
עבור חברות המשתמשות בבינה מלאכותית:
הדילמה המרכזית : כיצד לאזן בין מניעת פשעים אמיתיים לבין הזכות לפרטיות וסודיות דיגיטלית?
הנושא אינו רק טכני אלא נוגע לעקרונות יסוד:
הגילוי של OpenAI מסמן רגע מכונן באבולוציה של הבינה המלאכותית, אך השאלה אינה האם דיווח הוא נכון או לא נכון באופן כללי: אלא כיצד להפוך אותו ליעיל, הוגן ומכבד זכויות .
הצורך הוא אמיתי : איומים קונקרטיים באלימות, פיגועים מתוכננים או פשעים חמורים אחרים דורשים פעולה. השאלה אינה האם לדווח, אלא כיצד לעשות זאת באחריות.
ההבדלים הבסיסיים שיש לפתור:
הכשרה ומומחיות:
שקיפות ובקרה:
פרופורציונליות:
עבור חברות בתחום , האתגר הוא לפתח מערכות המגנות ביעילות על החברה מבלי להפוך לכלי מעקב חסר הבחנה. אמון המשתמשים הוא חיוני , אך הוא חייב להתקיים במקביל לאחריות חברתית.
עבור המשתמשים , הלקח הוא כפול:
עתיד הבינה המלאכותית השיחה דורש מסגרת חדשה אשר:
השאלה הנכונה אינה האם מכונות צריכות לדווח על פשעים, אלא כיצד נוכל לגרום להן לעשות זאת (לפחות) באותה חוכמה, הכשרה ואחריות כמו אנשי מקצוע אנושיים .
המטרה אינה לחזור לבינה מלאכותית ש"עיוורת" לסכנות אמיתיות, אלא לבנות מערכות המשלבות יעילות טכנולוגית עם אתיקה ומומחיות אנושית. רק אז נוכל לקבל את הטוב משני העולמות: בטיחות וזכויות פרט מוגנות.