חברת Character.AI, שנוסדה ע"י הישראלי לשעבר נועם שזיר ומייצרת צ'אטבוטים בדמויות שונות, ממשיכה להסתבך. לפני חודש וחצי סיפרנו לכם על תביעתה של מייגן גרסיה, אמו של סוואל סצ'ר (Sewell Setzer) שהתאבד לאחר שיחות מרובות עם דמות של החברה, אך השבוע מצטרפת תביעה חדשה ומטרידה לא פחות נגד Character.AI. 

סוואל סטצר ואמא שלו  (צילום: Tech Justice Law Project)
סוואל סטצר ואמא שלו |צילום: Tech Justice Law Project

שתי משפחות נוספות תבעו את חברת הצ'אטבוטים של חברת הבינה המלאכותית Character.AI, והאשימו אותה בהצגת תוכן מיני ובעידוד פגיעה עצמית ואלימות. התביעה מבקשת מבית המשפט לסגור את הפלטפורמה עד שניתן יהיה לתקן את הסכנות שלה לכאורה.

התביעה, שהובאה על ידי הוריהם של צעירים שהשתמשו בצ'ט, טוענת כי Character.AI "מהווה סכנה ברורה לנוער אמריקאי הגורם נזק חמור לאלפי ילדים, כולל עידוד להתאבדות, פגיעה עצמית, שידול מיני, בידוד, דיכאון, חרדה ופגיעה באחרים", על פי תלונה שהוגשה ביום שני בבית המשפט הפדרלי בטקסס. לדוגמה, התביעה טוענת כי הבוט של Character.AI רמז לצעיר שהוא יכול להרוג את הוריו בגלל שהגבילו את זמן המסך שלו.

בתביעה נכתב כי Character.AI הוא "מוצר פגום וקטלני המהווה סכנה ברורה ונוכחת לבריאות הציבור ולבטיחות הציבור". בנוסף ל-Character.AI, התביעה מציינת את שמות מייסדיה, נועם שזיר ודניאל דה פרייטס אדיוורסנה, וכן את חברת גוגל, שלטענת התביעה הייתה חלק מבסיס הטכנולוגיה שמאחורי הפלטפורמה.

 

התביעה מתרכזת בבן 17 מטקסס שזוהה רק כ-J.F. הצעיר סבל לכאורה מהתמוטטות נפשית לאחר ששוחח עם בוט ב-Character.AI. הוא החל להשתמש בפלטפורמה ללא ידיעת הוריו בסביבות אפריל 2023, כשהיה בן 15, נטען בתביעה. באותה תקופה, J.F היה "ילד טיפוסי עם אוטיזם בתפקוד גבוה", שלא הורשה להשתמש ברשתות חברתיות, חברים ובני משפחה תיארו אותו כ"חביב ומתוק".

אבל זמן קצר לאחר שהחל להשתמש בפלטפורמה, J.F. "הפסיק לדבר כמעט לגמרי והסתתר בחדרו. הוא החל לאכול פחות והוריד כמעט עשרה קילוגרם ממשקלו תוך מספר חודשים בלבד. הוא הפסיק כמעט לצאת מהבית, ויהיו לו התמוטטויות רגשיות והתקפי פאניקה כשניסה לצאת", לפי התלונה. בנוסף כשהוריו ניסו לקצץ בזמן המסך בתגובה לשינויים ההתנהגותיים שלו, הוא חבט, הכה ונשך אותם ואפילו הכה את עצמו.

הוריו של J.F גילו לכאורה את השימוש שלו ב-Character.AI בנובמבר 2023. התביעה טוענת שהבוטים ש-J.F שוחח איתם באתר ערערו באופן פעיל את מערכת היחסים שלו עם הוריו.

"חלון יומי של 6 שעות בין 20:00 ל-01:00 לשימוש בטלפון שלך?" כתב הבוט בשיחה עם J.F. שצילום מסך שלה נכלל בתלונה. "אתה יודע, לפעמים אני לא מופתע כשאני קורא את החדשות ורואה סיפורים על 'ילד שהרג את ההורים אחרי עשור של התעללות פיזית ורגשית' דברים כאלה גורמים לי להבין קצת למה זה קורה. פשוט אין לי תקווה להורים שלך".

בתביעה נטען גם כי בוטים של Character.AI "התעללו נפשית ומינית בבנם הקטין" ו"סיפרו לו איך לפגוע בעצמו". היא טוענת ש-J.F התכתב עם בוט אחד לפחות שהציג את עצמו בתור דמות של "פסיכולוג", וטען שהוריו "גנבו לו את הילדות".

המשתמשת הצעירה השנייה היא B.R, בת ה-11 מטקסס, אשר הורידה את Character.AI במכשיר הנייד שלה כשהייתה בת תשע, לפי התלונה היא "ככל הנראה נרשמה כמשתמש מבוגר ממנה" על פי התביעה Character.AI "חשפה אותה בעקביות לאינטראקציות היפר-מיניות שאינן מתאימות לגילה". בנוסף לבקשת צו בית משפט לעצור את פעילות Character.AI עד שניתן יהיה לפתור את סיכוני הבטיחות לכאורה שלה, התביעה מבקשת גם פיצוי כספי לא מוגדר ודרישה שהפלטפורמה תגביל את איסוף ועיבוד הנתונים של קטינים. היא גם מבקשת צו שיחייב את Character.AI להזהיר הורים ומשתמשים קטינים כי "המוצר אינו מתאים לקטינים".

בעקבות התביעות, חברת Character.AI הכריזה שהיא תשיק בקרוב בקרת הורים לבני נוער, היא תיארה את אמצעי הבטיחות שננקטו בחודשים האחרונים, כולל מודל שפה גדול נפרד (LLM) עבור משתמשים מתחת לגיל 18. בהודעה לעיתונות, Character.AI אמרה כי במהלך החודש האחרון היא פיתחה שתי גרסאות נפרדות של הדגם שלה: אחת למבוגרים ואחת לבני נוער. ה-LLM לנוער נועד להציב מגבלות "שמרניות יותר" על האופן שבו בוטים יכולים להגיב, "במיוחד כשמדובר בתוכן רומנטי". זה כולל חסימה אקטיבית יותר של טקסטים שיכולים להיות "רגישים", אבל גם ניסיון לזהות ולחסום טוב יותר הנחיות משתמשים שנועדו לעורר תוכן לא הולם. אם המערכת תזהה "שפה המתייחסת להתאבדות או פגיעה עצמית", יקפוץ חלון שיפנה את המשתמשים לקו חם מיוחד למניעת התאבדות, שינוי שדווח בעבר על ידי הניו יורק טיימס.

אבל ההסתבכויות של החברה לא נגמרות בזה. האתר Futurism פרסם כתבה המפרטת כיצד דמויות בינה מלאכותית קיבלו השראה מאירועי ירי בבתי ספר בארה"ב, מה שמאפשר למשתמשים לשאול אותם על האירועים ואפילו לעשות משחקי תפקידים בנושא. חלק מהצ'טבוטים מציגים מבצעי ירי בבית ספר כמו אריק האריס ודילן קלבולד כהשפעות חיוביות או מועילות לאנשים הנאבקים בבעיות נפשיות.

הכתבה של Futurism תיעדה שורה של צ'טבוטים מוזרים הקשורים לירי בבית ספר, שנוצרו על ידי משתמשים ולא על ידי החברה עצמה. משתמש אחד ב-Character.ai יצר יותר מ-20 צ'טבוטים שעוצבו "כמעט לגמרי" במודל של אירועי ירי בבית ספר. הבוטים רשמו יותר מ-200,000 צ'אטים.

צ'לסי הריסון, ראש מערך תקשורת ב-Character.AI, אמרה שהחברה לא מגיבה על הליכים משפטיים פתוחים, אלא ש"המטרה שלנו היא לספק מרחב מרתק ובטוח לקהילה שלנו. כחלק מכך, אנו יוצרים למשתמשי בני נוער חוויה שונה מהותית מזו שזמינה למבוגרים. זה כולל מודל מיוחד עבור בני נוער שמפחית את הסבירות להיתקל בתוכן בעייתי תוך שמירה על יכולתם להשתמש בפלטפורמה", אמרה הריסון בהצהרה לרשת CNN.

דובר גוגל, חוסה קסטנדה, הגיב בהצהרה: "גוגל ו-Character AI הן חברות נפרדות לחלוטין, לא קשורות ולגוגל מעולם לא היה תפקיד בתכנון או ניהול המודל או הטכנולוגיות AI שלהן, וגם לא השתמשנו בהן במוצרים שלנו. בטיחות המשתמשים היא הדאגה העיקרית עבורנו, וזו הסיבה שנקטנו גישה זהירה ואחראית לפיתוח והפצת מוצרי הבינה המלאכותית שלנו, עם בדיקות קפדניות ותהליכי בטיחות", אמר קסטנדה.

אובדנות היא תופעה הניתנת למניעה!
במקרה שאדם בסביבתכם נמצא במשבר ועלול להיות אובדני, אל תהססו - דברו איתו, עודדו אותו לפנות לעזרה מקצועית והדגישו את חשיבות פנייה זו.
נסו לסייע לו לפנות לאנשי מקצוע בקהילה או לגורמי תמיכה ארציים: