פייק ניוז: חוקרים פיתחו כלי שיאפשר לשתול מילים בסרטון באמצעות הקלדתן בלבד

חוקרים מאוניברסיטאותת סטנפורד, פרינסטון, מכון מקס פלאנק לאינפורמטיקה וחברת אדובי פיתחו תוכנה המבוססת על בינה מלאכותית שתאפשר לשנות את המילים שהאדם המצולם בסרטון אומר באמצעות שינוי הטקסט בתמלול הסרטון, וכך "לשתול" בפיו מילים שלא אמר מעולם • קיים חשש נרחב מניצול לרעה של טכנולוגיות כאלה על מנת לזייף ראיות, לבייש אנשים ועוד

בינה מלאכותית/  צילום:shutterstock
בינה מלאכותית/ צילום:shutterstock

תוכנה חדשה מבוססת בינה מלאכותית מאפשרת לייצר סרטונים מזויפים בקלות: היא מאפשרת לשנות את המילים שהאדם המצולם בסרטון אומר באמצעות שינוי הטקסט בתמלול הסרטון, וכך "לשתול" בפיו מילים שלא אמר מעולם. התוכנה נמצאת כרגע בשלב המחקר ולא זמינה לצרכנים, ופיתחו אותה חוקרים מאוניברסיטת סטנפורד, אוניברסיטת פרינסטון, מכון מקס פלאנק לאינפורמטיקה בגרמניה וחברת אדובי.

התוכנה סורקת את הסרטון הרצוי, מבודדת את הצלילים שהאדם בסרטון אומר, מתאימה ביניהם לבין הבעות הפנים שלו עבור כל צליל ויוצרת מודל תלת ממדי של החצי התחתון של פניו. כשהתמלול בסרטון נערך על מנת לשנות את המילים שהמצולם אומר, התוכנה משלבת את כל הדאטה שנאסף - הצלילים, ההבעות, והמודל התלת מימדי כדי לייצר צילומים חדשים ואמינים שתואמים את הטקסט החדש, ואלו ישולבו בסרטון המקורי.

שיטות לזיוף סרטונים אמינים באמצעות בינה מלאכותית הולכות ותופסות תאוצה. לפני כשנתיים חוקרים באוניברסיטת וושינגטון פיתחו תוכנה שאפשרה "לשתול" דיבור חדש בסרטון של נשיא ארה"ב לשעבר ברק אובמה, ובשנה שעברה כלים כאלה יצאו מהאקדמיה לקהל הרחב כאשר תוכנה בשם FakeApp עלתה בחינם לרשת החברתית רדיט, ואפשרה למשתמשים להשתיל את פניו של אדם על סרטון של אדם אחר, בקלות וללא צורך בידע טכני, ולייצר סרטונים שזכו לכינוי Deep Fakes. קיים חשש נרחב מניצול לרעה של טכנולוגיות כאלה על מנת לזייף ראיות, להפיץ פייק ניוז, לבייש אנשים ועוד.

בפוסט שפרסמו המדענים שהובילו את המחקר הנוכחי, הם הסבירו כי התוכנה שפיתחו מיועדת לצורכי בידור. "הגישה שלנו מציעה בסיס עבור פיתוח כלי עריכה טובים יותר עבור סרטים. סצינות רבות דורשות עריכה מחודשת על בסיס שינויי תסריט קטנים, וכרגע הדבר דורש עבודה ידנית רבה. הטכניקה שלנו תאפשר התאמה פשוטה של תכנים ויזואליים ותכני אודיו, ואת ההתאמה של סרטים לקהלים שונים", כתבו.

המדענים הכירו גם בסכנות של טכנולוגיה מסוג זה והוסיפו כי "אנחנו מכירים בכך ששחקנים רעים עשויים להשתמש בטכנולוגיות האלה כדי לזייף עמדות אישיות של אנשים ולהכפיש אותם". הפתרון שהם הציעו הוא הצגה של סרטונים שנערכו באמצעות הכלי ככאלה, קבלת רשות מהמצולמים לגבי השינויים שהסרטון יעבור לפני הפצתו, ואף הדגישו כי חשוב שקהילת המחקר תמשיך לפתח כלים לאימות וזיהוי של סרטונים שעברו מניפולציה. "אנחנו מאמינים כי נחוץ שיח ציבורי נרחב כדי לייצר סט של רגולציות וחוקים שיאזנו בין הסיכונים בשימוש לרעה בכלים האלה לבין החשיבות שלהם עבור שימושים יצירתיים", נכתב בפוסט.