תמונת עמוד תכנית דרור גלוברמן (צילום: קשת 12)
דרור גלוברמן|צילום: קשת 12

פתאום התחילו צעקות. 

האישה החייכנית חטפה עצבים, והתחילה לצעוק על התור בקופת חולים. "חוצפה, מה זה המחשב מכניס לרופאה אנשים שהגיעו אחריי. כואב לי!" היא צעקה במבטא זר, "למה אני מחכה אחריהם". 

אני הייתי בתור אחריה. גם אני לא הבנתי איך התור עובד, אז שאלתי במשרד. והסבירו לי שילדים ומוזמנים מראש מקבלים קדימות. איך האישה הזו אמורה לדעת את זה?

לא פחות מהכאב הפיסי, נדמה לי שכאב לה התסכול, לחכות בלי לדעת למה ועד מתי. 

עכשיו דמיינו שככה החיים שלנו מתנהלים. מישהו מחליט על החיים שלכם בלי הסבר. 

יש איזה אלגוריתם שמחליט אם לקבל אתכם לעבודה או ללימודים, מתי ולמה לפטר אתכם (ייתכן שזה כבר קורה. הטיפול הרפואי שלכם, הריבית שתשלמו על המשכנתא, העצה המשפטית, מחירי מוצרים. אפילו מעצר משטרתי (זה כבר קורה בישראל, וזה לא לגמרי חוקי). 

החלטות כבר נקבעות מעל הראש שלנו על ידי אלגוריתמים בלי שהבנו למה, בלי שהסבירו לנו. זה לא תמיד שלא רוצים להסביר לנו, לפעמים פשוט אי אפשר.

חלק גדול מכל הקטע שנקרא "בינה מלאכותית" מכונה על ידי הממציאים שלה "קופסה שחורה". אפילו אלה שהמציאו וכתבו את הבינה המלאכותית לא יכולים להסביר מה הוביל להחלטה ספציפית. למה GPT ענה בדיוק כך ולא אחרת, ולמה מידג'רני צייר את החללית ירוקה לא סגולה, כמו שהמשטרה לא יודעת להסביר לאנשים שהיא עוצרת לחיפוש סמים בכניסה לנתב"ג למה דווקא אותם. כשאחד החשודים דרש לדעת, השוטר שאל אותו בחקירה - תגיד, אתה הומו? כי השוטר למד מניסיונו עם המערכת, שרבים מאלה שהיא בוחרת לעצור שייכים לקהילת הלהט"ב. אם זה נשמע לכם בעייתי, אתם צודקים. 

בעגה המדעית קוראים לזה Inexplainability. חוסר היכולת להסביר. וכשהבינה המלאכותית משתלטת על עוד ועוד חלקים בחיים שלנו, היא מחדירה לתוכם יותר ויותר מה-inexplainability הזה. דורשים מאיתנו לסמוך על המחשב לא להתווכח. בכל זאת, מחשב, עוד עם בינה מלאכותית! מי את, גברת שמחכה בתור לקופת חולים, שתתווכחי עם בינה מלאכותית?! (לא שיש בינה מלאכותית בניהול תורים. סתם תוכנה פשוטה).

כהה עור? אתה עצור

כשלא מסבירים, קל יותר להחביא מבוכות. כמו למשל בעיית ההטיה של הבינה המלאכותית. ההטיה, שאולי קיימת נגד הומואים בישראל, התגלתה כגזענות במערכת שעזרה לשופטים בארה"ב להחליט אילו חשודים להאריך את מעצרם ואילו לשחרר הביתה עד תום הליכים. צבע העור, הסתבר להם, משפיע לא פחות מחומרת האישום. כהה עור שגנב מסטיק בפיצוציה יישלח למעצר, בעוד לבן ששדד בנק יכול לחזור הביתה. מצטערים, אי אפשר להסביר לך למה דווקא אתה מבלה לילה במעצר. 

הבעיה אפילו עמוקה יותר. המהפכה המדעית של המאות האחרונות, גלילאו גליליי וניוטון וכל זה, נבנו צעד צעד, באופן שכל צעד ניתן להסבר ולשחזור. זה כל הקטע המדעי. ככה התפתח האמון בשיטה, ככה היא שינתה את העולם, וגם אותנו בחזרה. זה איפשר לנו לתלות פחות שאלות בגורמים ספיריטואליים עלומים - מה זה קשת בענן? - ולענות יותר תשובות מתוך מחקר וידע מדעי. בינה מלאכותית היא אמנם פסגה מדעית - אבל ככל שהיא מתקדמת ומתרחבת, היא מגדילה את רכיב המסתורין, הסיכון וההפתעה בחיים שלנו. 

עם התפתחות העידן המדעי, צברה האנושות יותר הבנה ויותר ודאות על העולם, הסבירו הנרי קיסינג'ר ואריק שמידטבעידן הבינה המלאכותית, המגמה התהפכה: אנחנו חיים בתוך עמימות שהולכת ומצטברת. אין הסברים. זה לא רק שהמערכות הללו זוכרות הרבה יותר מידע ומנתחות אותו הרבה יותר מהר מכל מוח אנושי - הן גם משאירות את דרכי הפעולה שלהן בצל. נשגב מבינתנו. אנחנו מתפתחים, אבל הולכים אחורה. זה עניין של מדיניות. לו הממשלות היו דורשות מחברות הבינה המלאכותית להסביר, הן היו יכולות להשקיע בזה מיליארדים. אבל לא דורשים מהן כלום. 

אולי זו אחת הסיבות שבגללה מנכ"ל גוגל סונדאר פיצ'אי לא ישן בלילה. מה שלא הפריע לגוגל לשחרר את בארד, הבינה המלאכותית שמתחרה ב-GPT, לציבור הרחב. כי עם דאגות לא הולכים למכולת. (שאלתי אותו איך ייגמר המשבר הפוליטי בישראל. מעניין.

אתם לא רובוט? תוכיחו! 

האם אתם מסוגלים להבדיל בין בוט לבן אדם?

משחק חדש ומגניב מאתגר אתכם לזהות אחרי שיחה של 2 דקות נוצר על ידי AI21 Labs הישראלית. 

אחרי כמה משחקים - הנה כמה מסקנות מפתיעות:

  1. זה לא לגמרי טריוויאלי, אבל גם לא נורא קשה. 
  2. למשחק אין אוטוקורקט. לא ידעתי עד כמה אני בונה עליו בתת מודע במהלך ההקלדה.
  3. מי שרוצה שיזהו אותו כבנאדם ולא יטעו לחשוב שהוא בינה, עובר אוטומטית לשיחה בסלנג. Cuz וכאלה. כלומר נולד מבחן טיורינג הפוך, שבו אנשים מנסים להוכיח שהם אנשים בתחרות מול בוטים. תתרגלו.

הראשונה בשידור 

"אני פדהה, מגישת הטלויזיה הראשונה בכווית שעובדת עם בינה מלאכותית בכוויית ניוז. איזה סוג חדשות אתם מעדיפים? בואו נשמע את דעתכם".

אכן, כווית הציבה מגישת טלוויזיה שהוכנה כולה על ידי בינה מלאכותית. "היא נראית כאילו היא מאוקראינה, ונשמעת כמו גבר", הגיבו צייצנים עוקצניים מהעולם הערבי. הנה היא כאן.

דמותה, קולה ואפילו הטקסט שבפיה נכתבו על ידי בינה מלאכותית. גם אני הכנתי דמות כזו, שנהנית מהפרצוף שלי ומהקול שלי - והאמת שכל אחד מכם יכול לגרום לי להגיד מה שתרצו. אבל בעצם, זה עוד חלק ממכונת הפייק ניוז המושלמת של הבינה המלאכותית. האם הצופים, מאזינים והקוראים יקנו את זה? 

עם כל הכבוד לוידיאו או לקולה של הקריינית, החלק החשוב כאן הוא הטקסט שהיא אומרת. ואת זה מכונות כמו GPT4 כותבות ברמה מעוררת קנאה כבר עכשיו. הן קוראות לקרוא כמויות עצומות של מידע, מאתרות את החשוב והמעניין, ומסוגלות לסכם ברהיטות משכנעת. 

אבל חלק מהגרעין הקשה של העבודה העיתונאית - לחשוף שחיתויות, לשכנע מקורות לדבר בהבטחה לאנונימיות, לצלם במצלמה נסתרת או לנבור במסמכים שהושלכו לזבל - סליחה על הקלישאה - בינה מלאכותית לא תעשה את זה בקרוב. 

זה לא אומר שלא נאמין. להפך. המכונות האלה אמנם נוטות לטעות, אבל הן אלופות בלשכנע. זה הרבה יותר פשוט ממה שאנשים חושבים. ולכן, טעויות, הטיות והזיות של בינה מלאכותית מפחידות אותי פחות, מאשר השימוש בכסות של בינה מלאכותית כדי לדחוף אג'נדות סמויות. 

וכאן, צרכני התקשורת - שזה כולנו - יצטרכו ללמוד לשאול את השאלה הכי פשוטה והכי קשה - מי הבעלים של כלי תקשורת, מה האינטרסים שלו ומה האג'נדה שהוא רוצה לקדם. 

ויראליות שווה פופוליזם

המגישה הווירטואלית שאלה את צופיה, "איזה סוג חדשות אתם מעדיפים". מה קורה כשנותנים להמון לבחור את החדשות שלו במינימום התערבות של אנשי מקצוע? מה שקורה בפייסבוק ובטוויטר. האלגוריתם דוחף את התכנים שרווחיים לו, ומתעדף ויראליות - שעשויה בחלקה הגדול משקרים ומזעם. ויראליות משרתת פופוליזם, ואת התוצאה אנחנו רואים מסביב לעולם וגם בישראל. 

עכשיו דמיינו מה יקרה כשכל זה יעלה על ספידים של בינה מלאכותית. אם קשה לכם לנבא, אני מבין אתכם. אחרי יותר משני עשורים עם אינטרנט ורשתות חברתיות, אנחנו עדיין לא יודעים איך לצמצם דרמטית את נזקיהן, ברמת המדינה. הבינה המלאכותית זה עולם חדש של הזדמנות וסיכונים, ואנחנו עדיין לא יודעים איך להתמודד עם אף אחד מהם.