אתמול פורסם כי יותר משנה אחרי שחשף כי הוא סובל ממחלת ALS, כתב המשטרה של חדשות 12, משה נוסבאום, יחזור לשדר בערוץ באמצעות בינה מלאכותית, וזה יקרה בעוד שבועות אחדים.

איך זה יעבוד? קולו של נוסבאום נדגם למטרה הייעודית הזאת. הדיווחים העיתונאים שלו יוקלדו וכלי AI יפיק את הדיווח בקולו. מערכת AI אחרת תייצר את תנועות השפתיים. ההטמעה וההתאמה של כלי ה-AI נעשו על ידי אנשי מחלקת ההנדסה והטכנולוגיה של חדשות 12.

לא נמסר מחברת החדשות באילו כלים בדיוק ישתמשו, אך יש לא מעט כלים שיכולים לחקות קול של בן אדם, מה שנקרא דיפ-פייק. בין היתר, Descript היא פלטפורמת עריכת אודיו ווידאו המציעה יכולות חיקוי קוליות של  AI, כאשר ניתן ליצור קולות סינתטיים שיכולים לקרוא טקסט עם אינטונציה והבעה טבעית. גם Murf.ai מתמקדת ביצירת קולות AI באיכות גבוהה מאוד, עם מגוון רחב של קולות ואפשרויות התאמה אישית. ו-Veed.io מציעה שילוב של עריכת וידאו עם יכולות חיקוי קול.

רוב כלי ה-AI המתקדמים לחיקוי קול אינם לגמרי חינמיים. עם זאת, חלקם מציעים גרסאות ניסיון חינמיות או תוכניות חינמיות עם מגבלות מסוימות, כמו Voice.ai ו-Murf.ai.

הקושי לדעת מה הוא אמיתי ומה פייק מלווה את הבינה המלאכותית מאז התחלתה, ורק הולך ומעמיק בעידן של פייק ניוז. על רקע זה החברה הישראלית SURF Security השיקה את גרסת הבטא של הכלי שלה לזיהוי דיפ-פייק (DEEPFAKE), שמתבסס על רשתות נוירוניות, לבדיקת לקוחות.

בדוגמה שהציגה החברה אפשר לראות כי ביחס לנוסבאום, המערכת הצליחה לזהות שמדובר בעבודה של בינה מלאכותית.

הכלי של SURF לזיהוי דיפ-פייק, Deepwater, מובנה בתוך הדפדפן העסקי בגישת ה-Zero-Trust (אפס אמון) של SURF Security ומגן על ארגונים, חברות תקשורת, משטרות וצבאות מכל העולם מפני איומי דיפ-פייק מבוססי בינה מלאכותית.

על פי החברה, הכלי יכול לזהות בדיוק של 98% אם האדם איתו אתם מתקשרים הוא אדם אמיתי או חיקוי מבוסס בינה מלאכותית, ומתריע למשתמשים על איומי דיפ-פייק פוטנציאליים תוך שניות בודדות.

זיופי דיפ-פייק מבוססי בינה מלאכותית מנוצלים על ידי גורמי איום כדי לגרום להפסדים כספיים אדירים. 49% מאוכלוסיית העולם חיה במדינה בה צפויות להתקיים בחירות לאומיות במהלך השנה הקרובה, וזיופי דיפ-פייק משמשים להפצת מידע כזב ולהשפעה על תוצאות הבחירות. בין הדוגמאות האחרונות ניתן למנות שיחות טלפון מזויפות שהגיעו לכאורה מנשיא ארה"ב ג'ו ביידן, וסרטון מזויף של הפוליטיקאי הבריטי ווס סטריטינג, שפורסם בקרבה לבחירות והזיק לו.

עם העלייה ביכולות של כלי הבינה המלאכותית הגנרטיביים ובקלות השימוש בהם, הסיכון הנובע מזיופי דיפ-פייק עולה בקצב מדאיג. על פי מחקר שערכה חברת Sumsub, הונאות דיפ-פייק גדלו ב-303% בארה"ב לעומת השנה שעברה, וקצב הגדילה אף היה מהיר יותר במדינות כמו פורטוגל (1700%), סין (2800%), סינגפור (1100%) ועוד רבות אחרות. סכומים של אלפי דולרים נגנבו ממשתמשים כתוצאה מהונאות בינה מלאכותית מבהילות בהן נעשה שימוש בקול של אהוביהם/ן.

הכלי לזיהוי דיפ-פייק של SURF Security יכול להגן מפני איומים כאלה, ויפעל מול כל מקור שמע בדפדפן עצמו, כמו סרטונים מקוונים ותוכנות תקשורת כמו סלאק, זום, גוגל צ'אט, טימס, וואטסאפ ועוד. כל מה שהמשתמשים יידרשו לעשות הוא ללחוץ על כפתור כדי לאמת שהשמע – בין אם הוא מוקלט מראש ובין אם הוא מועבר בשידור חי – הוא אמיתי או מיוצר על ידי מנגנון בינה מלאכותית.

דפדפן surf security (צילום: קומסקיור)
צילום: קומסקיור

"כדי להביא את האפקטיביות של הכלי למקסימום האפשרי, התמקדנו בדיוק ובמהירות. הרשת הנוירונית אומנה כך שתוכל לזהות זיופי דיפ-פייק שנוצרות על ידי פלטפורמות הבינה המלאכותית המובילות להעתקת קול; יש לה אפשרות מובנית להפחתת רעשי רקע שמאפשרת להפוך את קטע השמע לברור יותר לפני עיבוד והיא יכולה להגיע להחלטה תוך פחות משתי שניות", אומר זיו ינקוביץ', סמנכ"ל הטכנולוגיות של SURF Security. "כמובן, תוכנות הבינה המלאכותית להעתקת קול משתכללות מיום ליום, ולכן אנחנו מחויבים לנצח במרוץ החימוש המתמיד הזה, כמו כל חברות אבטחת הסייבר האחרות".

כל חברת תקשורת, רשות אכיפת חוק או חברה וארגון שרוצים להגן על עצמם מפני זיופי דיפ-פייק, יכולים להירשם לתוכנית הבטא בקישור. המוצר המלא צפוי להיות מושק ברבעון הראשון של 2025.