רגולציה בתחום הבינה המלאכותית עוברת טרנספורמציה דרמטית בשנת 2025, עם דגש מיוחד על יישומים הפונים לצרכן. חברות המשתמשות בצ'אטבוטים מבוססי בינה מלאכותית, מערכות קבלת החלטות אוטומטיות וטכנולוגיות יצירתיות חייבות להיערך לנוף רגולטורי מורכב וקפדני יותר ויותר.
שנת 2025 מסמלת את סוף עידן "המערב הפרוע" של פיתוח בינה מלאכותית. חוק הבינה המלאכותית האירופי נכנס לתוקף ב-1 באוגוסט 2024, כאשר ההוראות העיקריות נכנסו לתוקף במהלך שנת 2025: דרישות אוריינות בינה מלאכותית נכנסו לתוקף ב-2 בפברואר 2025, בעוד שכללי ממשל ודרישות עבור מודלים של GPAI נכנסו לתוקף ב-2 באוגוסט 2025.
תקנות מתפתחות פועלות לפי גישה מובנית המבוססת על שלוש רמות סיכון:
1. מערכות בינה מלאכותית קריטיות לתשתית: יישומים בתחומי הבריאות, התחבורה, האנרגיה והשווקים הפיננסיים דורשים כיום אישור טרום פריסה, ניטור מתמשך ופיקוח אנושי משמעותי.
2. בינה מלאכותית הפונה לצרכן: יישומים המקיימים אינטראקציה ישירה עם צרכנים חייבים לספק גילוי נאות ברור לגבי השימוש בבינה מלאכותית, לתחזק מסלולי ביקורת מקיפים וליישם פרוטוקולים לגילוי הטיות.
3. בינה מלאכותית למטרות כלליות: מערכות למטרות כלליות דורשות גם רישום, בדיקות אבטחה בסיסיות וגילוי מתודולוגיות אימון.
הצעת חוק 243 של הסנאט של קליפורניה, שהוגשה על ידי הסנאטור סטיב פדייה, נולדה בתגובה להתאבדותו הטרגית של סוול סצר, ילד בן 14 מפלורידה ששם קץ לחייו לאחר שפיתח קשר רגשי עם צ'אטבוט.
דרישות מפתח לתקן SB 243:
החוק קובע תביעה פרטית עם נזקים בפועל או סטטוטוריים של 1,000 דולר לכל הפרה, הגבוה מביניהם.
SB 420 שואפת לספק מסגרת רגולטורית שתבטיח שמערכות בינה מלאכותית יכבדו זכויות אדם ויקדמו הוגנות, שקיפות ואחריותיות. החקיקה מסדירה את הפיתוח והיישום של "מערכות קבלת החלטות אוטומטיות בסיכון גבוה" על ידי דרישה להערכת השפעה כדי להעריך את מטרתן, השימוש בנתונים והפוטנציאל להטיה.
דרישות הודעה לצרכן: לפי סעיף SB 420, אנשים הכפופים למערכות קבלת החלטות אוטומטיות חייבים לדעת מתי הכלי משמש לקבלת החלטות לגביהם, לקבל פרטים על המערכת, וכאשר הדבר אפשרי מבחינה טכנית, לקבל את האפשרות לערער על החלטות אלה לצורך בדיקה אנושית.
אלבמה, הוואי, אילינוי, מיין ומסצ'וסטס הציגו כולן תקנות בשנת 2025 שיהפכו אי מתן הודעה לצרכנים כאשר הם מקיימים אינטראקציה עם צ'אטבוטים המבוססים על בינה מלאכותית להפרה של חוק מעשים או נוהגים בלתי הוגנים או מטעים (UDAP), מה שיוביל לחקירות מצד תובעים כלליים ולתביעות פרטיות אפשריות נגד חברות.
הוואי (HB 639): תסווג כלא הוגן או מטעה שימוש בצ'אטבוטים מבוססי בינה מלאכותית המסוגלים לחקות התנהגות אנושית מבלי לחשוף זאת תחילה באופן ברור ובולט לצרכנים. עסקים קטנים המשתמשים בצ'אטבוטים מבוססי בינה מלאכותית מבלי דעת פטורים אלא אם כן ניתנה הודעה ברורה.
אילינוי (HB 3021): תתקן את חוק הונאת הצרכנים ושיטות עסקיות מטעות כדי לדרוש הודעה ברורה כאשר צרכנים מתקשרים עם צ'אטבוטים, סוכני בינה מלאכותית או אווטארים שעלולים להטעות את הצרכנים ולהאמין שהם מתקשרים עם בני אדם.
קליפורניה חוקקה את חוק גילוי הבוטים הראשון (Cal. Bus. & Prof. Code § 17940-17942), המחייב גילוי כאשר בוטים משמשים ל"הונאה ביודעין" של אדם לצורך עסקאות מסחריות או השפעה בבחירות.
חוק מדיניות הבינה המלאכותית של יוטה, שנכנס לתוקף ב-1 במאי 2024, מחייב בוטים הפונים לצרכנים לחשוף "על פי בקשה" כי צרכנים מקיימים אינטראקציה עם "בינה מלאכותית גנרטיבית ולא עם אדם".
בשנת 2022, לקוחות אפליקציית הרזיה Noom תבעו את החברה בגין הפרה לכאורה של חוק גילוי בוטים של קליפורניה, בטענה כי Noom הציגה באופן כוזב כי חבריה יקבלו תוכניות מותאמות אישית ממאמנים אנושיים, כשלמעשה הם היו בוטים אוטומטיים. הצדדים הגיעו לפשרה בשווי 56 מיליון דולר.
ה-FTC פרסמה הנחיות המחייבות חברות "להיות שקופות לגבי אופי הכלים שעמם משתמשים מקיימים אינטראקציה" והזהירה מפני שימוש בכלים אוטומטיים כדי להונות אנשים.
על פי חוק הבינה המלאכותית של האיחוד האירופי, החל מאוגוסט 2026, ספקי בינה מלאכותית חייבים ליידע משתמשים כאשר הם מקיימים אינטראקציה עם בינה מלאכותית אלא אם כן זה ברור מאליו. תוכן שנוצר על ידי בינה מלאכותית חייב להיות מתויג בבירור באופן קריא על ידי מכונה, למעט עריכות קלות.
אפילו חברות שאינן מגדירות את עצמן כחברות בינה מלאכותית עשויות להשתמש בצ'אטבוטים מוסדרים. צ'אטבוטים נפוצים בשירות לקוחות, שירותי בריאות, בנקאות, חינוך, שיווק ובידור.
חברות חייבות לנווט בנוף רגולטורי מקוטע עם דרישות משתנות בין מדינות שונות. היעדר הסמכות פדרלית מחייבת חברות לעמוד בדרישות שונות במדינות שונות.
מחוקקים במדינות שוקלים מגוון רחב של חקיקות בנושא בינה מלאכותית, עם מאות כללים שיוצגו עד 2025, כולל חוקי הגנת הצרכן מקיפים, תקנות ספציפיות לתעשייה ותקנות צ'אטבוטים.
ארגונים שנותנים עדיפות לממשל הבינה המלאכותית יזכו ביתרון תחרותי, שכן תאימות פרואקטיבית היא המפתח למימוש מלוא הפוטנציאל של הבינה המלאכותית תוך הימנעות ממלכודות משפטיות.
הנוף הרגולטורי עבור יישומי בינה מלאכותית הפונים לצרכנים מתפתח במהירות, כאשר קליפורניה מובילה את הדרך באמצעות חקיקה מקיפה הנוגעת הן לבטיחות צ'אטבוטים (SB 243) והן לשקיפות רחבה יותר של החלטות בתחום הבינה המלאכותית (SB 420).
טלאי זה של תקנות ברמת המדינה יוצר אתגרי ציות לחברות הפועלות במספר תחומי שיפוט, בעוד שהיעדר הקפאה פדרלית פירושו שחברות צריכות להתמודד עם דרישות מגוונות.
הדגש על שקיפות, זכויות פיקוח אדם והגנה על אוכלוסיות פגיעות מאותת על מעבר לממשל בינה מלאכותית מרשם יותר, אשר נותן עדיפות להגנת הצרכן על פני גמישות חדשנות.
יישומי בינה מלאכותית הפונים לצרכן הם מערכות בינה מלאכותית המקיימות אינטראקציה ישירה עם צרכנים, כולל צ'אטבוטים לשירות לקוחות, עוזרים וירטואליים, מערכות המלצה ובינה מלאכותית שיחתית המשמשות בתעשיות כמו מסחר אלקטרוני, שירותי בריאות, שירותים פיננסיים ובידור.
הדרישות המרכזיות כוללות:
לא, סעיף 243 של סעיף SB חל באופן ספציפי על "צ'אטבוטים נלווים" - מערכות בינה מלאכותית עם ממשקי שפה טבעית המספקים תגובות אדפטיביות, אנושיות, ומסוגלות לענות על הצרכים החברתיים של המשתמשים. לא כל הצ'אטבוטים של שירות לקוחות נופלים בהכרח תחת הגדרה זו.
העונשים משתנים בהתאם למדינה אך עשויים לכלול:
חברות צריכות:
כן, חוק הבינה המלאכותית חל על כל מערכת בינה מלאכותית המשרתת משתמשים באיחוד האירופי, ללא קשר למקום ממוקמת החברה. החל מאוגוסט 2026, ספקים יחויבו ליידע את המשתמשים בעת אינטראקציה עם בינה מלאכותית אלא אם כן הדבר ברור מאליו.
חברות חייבות לציית לחוקי כל מדינה בה הן פועלות. נכון לעכשיו, אין גישה פדרלית מוקדמת, ולכן יש צורך לפתח אסטרטגיות ציות רב-מדינתיות העומדות בדרישות המחמירות ביותר.
חלק מהחוקים מספקים פטורים או דרישות מופחתות לעסקים קטנים. לדוגמה, חוק HB 639 של הוואי פוטר עסקים קטנים המשתמשים בצ'אטבוטים מבוססי בינה מלאכותית מבלי דעת, בתנאי שהם פועלים בהתאם לאחר קבלת הודעה מתאימה.
מקורות וקישורי הפניה: