הנקראות ביותר

DeepFake: מי יעצור את הדור הבא של הסרטונים המזויפים

סרטוני DeepFake, שבהם בינה מלאכותית משתילה בצורה אמינה את פניו של אדם שלא צולם, רק הולכים ומתרבים ● האתרים הגדולים חוסמים אותם, הפוליטיקאים חוששים מאיום ביטחוני, והסלבס מהצפת פורנו מזויף, אבל הטכנולוגיה שמאחורי הסרטונים עשויה גם להציל חיים

סרטונים  מזוייפים \ צילום: Shutterstock א.ס.א.פ קרייטיב
סרטונים מזוייפים \ צילום: Shutterstock א.ס.א.פ קרייטיב

הציפייה למהפכת בינה מלאכותית בכל תחומי חיינו מעוררת, לצד התקוות וההבטחות, גם לא מעט פחדים: לצד החשש שנאבד את העבודות שלנו, ושנהיה קורבנות של נשק אוטונומי, אחד הפחדים ההולכים ומתחזקים לאחרונה הוא שלא נוכל לסמוך יותר על מראה עינינו.

הכל התחיל כשמשתמש ברשת החברתית רדיט פרסם אלגוריתם בינה מלאכותית שמאפשר שתילה של פני אדם על גופו של אדם אחר בווידאו, בצורה אמינה. בחודש פברואר דיווחנו על הכלי, לאחר שמשתמש נוסף פרסם ברשת החברתית אפליקציה בשם FakeApp שאפשרה לכל אדם עם מחשב להיעזר בו בקלות וללא ידע טכני. הרשת געשה, ותופעת ה-DeepFakes נולדה - זהו הכינוי שהסרטונים זכו לו, על שם מפרסם האלגוריתם, שילוב של המושגים למידה עמוקה (תהליך הבינה המלאכותית שבו נעשה שימוש) וזיוף. הדיפ-פייקים נוצרים בעזרת מאגר תמונות גדול או סרטון של האדם שאת פניו מעוניינים להשתיל - תכנים שבעידן הרשתות החברתיות זמינים בקלות לכל דורש, ושדרכם התוכנה "לומדת" את פני האדם. לאחר שלב האימון היא ממקמת את פניו בסרטון הרצוי, שהוזן אליה גם הוא, ויוצרת את הזיוף.

מאז נראה שהתופעה מסרבת לדעוך, להיפך. כיוון שמשתמשים רבים עושים בכלי שימוש ליצירת סרטוני פורנו מזויפים של סלבריטאיות ונשים אחרות, השימוש בכלי מעלה שאלות חשובות על הזכות לפרטיות, זכות האישה על גופה, החשש מהשפלה ועוד. הרשת החברתית רדיט עצמה, שבה התופעה נולדה, כבר הסירה את הפורום שבו פורסמו סרטונים אלה לראשונה. נביאי זעם טוענים לסיכון נוסף שהטכנולוגיה הזו חושפת אותנו אליו, ומזהירים משימוש פוטנציאלי בטכניקות של זיופי וידאו וקול לצורכי תעמולה, הפצת פייק ניוז, פברוק ראיות ועוד. מן הצד השני, נראה שאקדמאים וחברות טכנולוגיה רק ממשיכים לשכלל טכניקות זיוף שונות מבוססות בינה מלאכותית, ולמרות הסיכונים, מצביעים על שלל השימושים החיוביים הפוטנציאליים, בין היתר בתחומים כמו עריכת וידאו ועיצוב.

השימושים השליליים של התופעה והשיח הרב סביבה הביאו למירוץ בניסיון לרסן ולבלום את השימוש בכלי, בעיקר על ידי פיתוח כלים שיזהו מתי סרטון מסוים הוא זיוף. המשימה הזו מאתגרת, מפני שאת תהליך היצירה של דיפ-פייקים לא ניתן להחזיר לאחור כדי לזהות אותם. האתגר השני נוגע לטבעו של הפרסום באינטרנט: גם כשסרטונים מסוימים מתגלים בדיעבד כזיוף, קשה לבלום את ההשפעה שכבר הייתה להם על הצופים שנפלו בפח או למחוק כל זכר אליהם בעקבות הגילוי. נשים שהופץ פורנו נקמה שלהן או תוכן פורנוגרפי מזויף עוד לפני תופעת הדיפ-פייקים, מעידות כמה קשה להסיר תכנים כאלה מהאינטרנט לחלוטין.

אכן, על אף שפלטפורמות אליהן התכנים עולים כמו רדיט, טוויטר ופורנהאב אסרו על שיתוף דיפ-פייקים פורנוגרפיים, בפועל קשה להן לזהות ולהסיר את התכנים לחלוטין, ובנוסף הם ממשיכים להופיע באתרים רבים אחרים שאינם מחזיקים במדיניות כזו. בדיקה שערך האתר באזפיד לפני מספר חודשים גילתה שבפורנהאב נמצאים דיפ-פייקים רבים, ושניתן למצוא אותם בקלות כשכותבים בחיפוש Deepfake. גם פלטפורמת שיתוף התמונות Gfycat, שנחשבת לפלטפורמה מועדפת לסרטוני דיפ-פייק, אמנם הצהירה כי היא מוחקת באופן פעיל דיפ-פייקים בעזרת בינה מלאכותית והסתמכות על דיווחי משתמשים, אך בדיקה של אתר Motherboard ביוני גילתה שרבים מהסרטונים עדיין לא הוסרו.

לגלות זיופים באמצעות זיהוי קצב הלב

המלחמה הזו בין חתול לעכבר ככל הנראה רק בחיתוליה, ובין הכלים המוצעים היום כדי לנסות להילחם בתופעה ניתן למנות את הפתרון של פרויקט אנגורה, שפיתחו בינה מלאכותית שמחפשת ברשת גיפים באיכות גבוהה יותר של תוכן, שאנשים מעלים כדי לאתר זיופים. פרויקט Maru מזהה את הפנים של אינדיבידואלים בגיפים ומתייג אותם, ויכול לזהות למשל שבתוכן פורנוגרפי מזויף מושא הסרטון נראה דומה למפורסם מסוים אך לא זהה לו. הסטארט-אפ Truepic מפתח טכנולוגיה שבוחנת פרטים כמו מיקום השיער של המצולם, שכמעט בלתי אפשרי לזייף לאורך אלפי פריימים בצורה מדויקת.

גם אקדמאים מצטרפים למאמץ, ובאוניברסיטת ניו-יורק פיתחו מערכת שבוחנת את הדפוסים של מצמוצים בסרטונים כדי לזהות דפוסים לא טבעיים, מה שמצביע על זיוף. גם באוניברסיטה הטכנית של מינכן פיתחו בינה מלאכותית שיכולה לזהות סרטונים בהם נעשו החלפות פנים, אך באותה טכניקה ניתן להשתמש גם כדי לשפר את איכות ההחלפה, מה שיהפוך אותה לקשה יותר לזיהוי. טכנולוגיות אחרות יכולות לזהות אפילו את קצב הלב של אדם בסרטון לפי השינוי בגוון עור הפנים, ולאתר סרטון מזויף לפי קצבים לא סדירים.

אפילו פייסבוק, שכבר הצליחה לפספס את הסכנה שבהפצת פייק ניוז באמצעותה, הבינה שהפעם היא חייבת לפעול אחרת. במהלך שימוע בסנאט מחוקקים שאלו את סמנכ"לית התפעול של הרשת החברתית, שריל סנדברג, כיצד החברה מתמודדת עם התופעה, ואם פייסבוק מסוגלת לזהות סרטון שנערכה בו מניפולציה ולסמן אותו ככזה כדי להזהיר את המשתמשים. סנדברג התחייבה כי פייסבוק משקיעה בטכנולוגיה ובכח אדם כדי להילחם בבעיה. זמן קצר לאחר מכן הכריזה ענקית הסושיאל כי בודקי העובדות שמשתפים עם פייסבוק פעולה יבחנו גם סרטונים ותמונות וכי החברה פיתחה כלי בינה מלאכותית שיכול לאתר אם סרטונים או תמונות זויפו. הפידבק מבודקי העובדות גם ישמש לשכלול אותו מודל.

הבהלה מכך שלא נוכל יותר להאמין למראה עינינו לא פוסחת גם על פוליטיקאים וגופים רשמיים, שמנסים להדביק את הקצב של הטכנולוגיה. בחודש שעבר שלושה נציגי בית הנבחרים בארה"ב - אדם שיף, סטפני מרפי וקרלוס קורבלו - שלחו מכתב לראש המודיעין הלאומי, דן קואטס, וביקשו ממנו להעריך את האיום שדיפ-פייקים מהווים על הביטחון הלאומי של ארה"ב, לא פחות. הסרטונים מתוארים במכתב כ"זיוף דיגיטלי היפר-ריאליסטי שבו נראים אינדיבידואלים אומרים או עושים דברים שמעולם לא עשו", והמחוקקים מזהירים שזמינות הטכנולוגיה יכולה להוביל לסחיטה, דיסאינפורמציה, ולהוות איום על השיח בארה"ב ועל בטחונה. בין היתר התבקש ראש המודיעין לבחון כיצד ניתן להילחם בתופעה, והאם זרים עשו בה שימוש. מוקדם יותר השנה גם הסנטורים מארק וורנר ומרקו רוביו הזהירו כי מדובר באיום בטחוני, ורוביו הזהיר מכוחות זרים כמו רוסיה, שכבר ניסו להתערב בבחירות ובפוליטיקה האמריקאית באמצעים דיגיטליים, שעלולים להשתמש בכלי לקמפיינים של דיסאינפורמציה.

הסוכנות הממשלתית האמריקאית DARPA, העוסקת בפיתוחים טכנולוגיים עבור הצבא, כבר החלה לפתח כלים לאיתור סרטונים מזויפים באמצעות מעבדה פורנזית, ובין היתר הכלים שלה מבצעים בדיקה של חוסר עקביות בתאורה על פני המשתמש.

בחודש הקודם פורסם כי גם הוועדה הטרנס-אטלנטית ליושר בבחירות מתכננת לפתח כלים כדי למנוע שימוש בדיפ-פייקים להתערבות בבחירות, ולמנוע סרטונים בהם נראה שפוליטיקאים אומרים דברים שלא אמרו. בוועדה רואים את האיום כקרוב מאוד - הם צופים כי בעוד כשנתיים כל אחד יוכל ליצור סרטונים כאלה, שיופצו במאות פלטפורמות אונליין שונות, בניסיון לגרום לפייק ניוז להגיע לאנשים רבים.

לא רק פורנו: רוצים לרקוד כמו ביונסה

אז איך זה שמהצד השני, שלל אנשי מקצוע רק הולכים ומשכללים את טכניקות הזיוף? כמו עם כל כלי טכנולוגי, הפוטנציאל הוא דו-צדדי ולצד הסכנות נמצאות גם הזדמנויות. חוקרים באוניברסיטת קרנגי מלון למשל, שידועה כמובילה בתחומי הבינה המלאכותית, פיתחו שיטת זיוף מבוססת בינה מלאכותית שלדבריהם תסייע ליוצרי סרטים לעבוד בצורה מהירה וזולה, ואפילו תסייע ללמד מכוניות אוטונומיות כיצד לנהוג בשעת לילה. הכלי החדש מאפשר להעביר את ה"סגנון" של אדם - הבעות פניו והמחוות שלו כפי שצולמו בסרטון, לאדם אחר. בסרטון שפרסמו החוקרים מודגם כיצד הבעות הפנים של המנחה והקומיקאי ג'ון אוליבר מועברות לקולגה סטיבן קולבר, ממרטין לותר קינג לאובמה, ומאובמה לטראמפ.

מדענים באוניברסיטת קליפורניה בברקלי פיתחו כלי בינה מלאכותית אחר שיכול להעביר תנועות ריקוד של אדם בסרטון אחד אל אדם אחר, כך שגם אם אתם כלל לא יודעים לרקוד, תוכלו להפיק סרטון בו אתם זזים כמו ביונסה.

ומה לגבי זיופי תמונות מבוססי בינה מלאכותית? גם להם יש פוטנציאל חיובי עצום ואפילו מציל חיים. תהליך בינה מלאכותית כזה שבו משתמשים חוקרים נקרא GAN (Generative Adversarial Training) ובעזרתו מחשב יכול ליצור תמונות מזויפות. בשיטה יש שתי רשתות נוירונים, כשאחת מייצרת תמונה חדשה ואמינה לחלוטין, למשל של פרח, לאחר שהוזנה במאגר תמונות אמיתיות רבות של אותו פרח ולמדה את פרטיו, ואילו הרשת השנייה בוחנת ומעריכה האם התמונות שנוצרו נראות אמיתיות. לאחרונה הוצג שכלול של השיטה בשם BigGan לפיו כשמאמנים את האלגוריתם על מאגר תמונות גדול במיוחד, מקבלים תוצאות מדויקות יותר.

מאמר שפורסם בסוף החודש ע"י אנבידיה, מרכז MGH & BWH למדע נתונים קליני והמרכז הרפואי מאיו קליניק, עסק בשימוש ב-GAN לצרכים רפואיים. הכלי יצר הדמיות MRI מזויפות ואמינות שמציגות מוח עם גידול. בעזרת התמונות המזויפות, ניתן היה לייצר מאגר גדול יותר של דוגמאות כדי לאמן אלגוריתם בינה מלאכותית שהצליח בסוף תהליך האימון לזהות גידולים בסריקות MRI אמיתיות לגמרי. במחקרים דומים הצליחו לייצר בעזרת GAN הדמיות אמינות של נגעים בכבד ובעור.

התעשייה הצומחת הבאה: אימות תוכן

ויש גם מי שמאמין שאפילו בסרטוני הפורנו המזויפים הידועים לשמצה ניתן לעשות שימוש חיובי. חברת הסרטים למבוגרים Naughty America הציגה מוצר חדש באוגוסט, שמבקש להגשים פנטזיות ללקוחותיה. לקוחות החברה יכולים לבקש שישתילו את פניהם בסרט פורנו של החברה, כשהפעם הדברים נעשים בהסכמת המושתל בסרטון וכמובן השחקניות עצמן, ובפיקוח המחלקה המשפטית של החברה.

לבסוף, קיימות גם הערכות שתופעת הדיפ-פייקים שתלך ותשתלט על המידע שאנו צורכים פשוט תוליד את התעשייה הצומחת הבאה של העידן הדיגיטלי - שתעסוק באימות תוכן. ריאן הולמס, מנכ"ל חברת Hootsuite, מערכת ניהול לרשתות חברתיות, כתב בטור דעה בפסט קומפני כי התופעה, שכבר לא ניתן לעצור למעשה, מולידה הזדמנות וחלל שיש למלא, שיתבטא בצמיחה של פיתוחים שונים לאימות מידע. לפי המאמצים שכבר החלו כדי להבחין בין שקר ואמת, בעידן בו השיח על פייק ניוז רק מתגבר, ייתכן מאוד שהוא צודק בהערכותיו. 

רוצה להשאר מעודכן/ת בנושא גלובס טק?
אני מאשר/ת קבלת תוכן פירסומי מגלובס
נושאים נוספים בהם תוכל/י להתעדכן
נדל"ן
נתוני מסחר
שוק ההון
נתח שוק
דין וחשבון
הסיפורים הגדולים של השבוע
מטבעות דיגיטליים
✓ הרישום בוצע בהצלחה!
עקבו אחרינו ברשתות