רבות דובר לאחרונה על מודל ה-AI שמפתחת בימים אלה חברת מטא, שנועד להתחרות ב-ChatGPT של OpenAI. לפי הדיווחים (או השמועות) מדובר במודל הרבה יותר משוכלל. המהנדס הראשי של מטא אפילו זלזל במתחרים וטען ש-ChatGPT אינו המצאה גדולה. במטא לא שחררו את המודל שלהם, אבל משום מה הוא דלף למערכת הפורומים 4Chan - מעין רשת אפלה שנחשבת למזבלה של האינטרנט, אליה מגיעים פדופילים, רוצחים ואנסים.
חבורת חוקרים מסטנפורד גילתה ב-4Chan את המודל הדלוף של מטא. הם לקחו את המודל, והמציאו רעיון חדש - לתת למודל אחד לאמן מודל אחר. החוקרים למעשה גרמו לקוד הגנוב של מטא ולמודל של ChatGPT לאמן אחד את השני במקום שבני אדם יעשו זאת.
התהליך של פיתוח בינה מלאכותית עובד כך שבינה מלאכותית בפני עצמה לא יודעת לעשות הרבה. צריך לתת לה משימה ספציפית, היא מבצעת, ואז מקבלת פידבק האם ביצעה נכון או לא. עד היום אנשים עשו את האימון הזה לבינה המלאכותית, אך כעת, בלי בני אדם, הצליחו להגיע לתוצאות דומות לאלה של ChatGPT ביעילות גבוהה ובעלות אפסית.
לאחר שהקוד של מטא דלף, נוצר מפץ גדול ומסוכן ממה שניתן לדמיין. מתכנת בולגרי בשם גאורגי גרגנוב לקח את המודל הזה וייצר לו תוכנה מוגבלת עבור המקבוק שלו, וכעת ניתן להריץ את כל המודל הענק של מטא על לפטופ. הוא כמובן הרבה פחות חזק משרתי הענק של אנבידיה למשל, אבל זה עדיין עבד. ראו אחרים את מה שעשה גרגנוב והכריזו שהצליחו להריץ את המודל על סמארטפון. מתכנת אוקראיני אפילו הודיע שהצליח להריץ את המודל על רוסברי פאי, יחידת המחשוב הכי זולה שניתן לרכוש בעולם שעולה 35 דולר.
בניגוד לחברות ענק כמו מטא ו-Open AI, שמחוייבות לייצר חוקה עם גבולות ברורים לבינה המלאכותית - מה מותר ומה אסור לה לעשות - במקרה הזה, כשאנשים יכולים להריץ את המודלים האלה על המחשבים האישיים שלהם, אין חוקים ואין גבולות - וכאן טמונה סכנה גדולה. במילים אחרות כל אחד יכול מעתה להוריד את המודל ללפטופ שלו, להריץ אילו שאלות שהוא רק רוצה ללא מגבלה, כמו למשל איך בונים פצצות? מה הדרך היעילה ביותר לייצר פייק ניוז בישראל כדי לקטב עוד יותר את החברה? או דיפ פייק של פנים וקול, ותמונות מזויפות שנראות אמיתיות לחלוטין. עם יכולות כאלה, ניתן רק לדמיין איזה נזק ניתן לייצר ברחבי העולם.
>> בזמן שעבדתם, פרק 124 - מפעל השבבים שעלול להוביל למלחמה עולמית