5 שניות, פחות מחצי דולר ופוסט אחד בפייסבוק: החוקר ש"זייף" את הנחיתה על הירח באמצעות בינה מלאכותית

ד"ר רועי צזנה פרסם השבוע סיפור מדהים על תרמית ענק וארוכת שנים של סוכנות החלל נאס"א • הוא צירף תמונות היסטוריות וציטט מתוך מכתב וידוי משכנע של בכיר לשעבר בנאס"א • אלא שכל הסיפור היה בדוי ומי שיצר אותו היה צזנה עצמו באמצעות בינה מלאכותית • "אנחנו נכנסים לעולם שבו אי אפשר יהיה להאמין לשום דבר ששומעים או רואים. מה שנשאר לנו זה רק המוח הביקורתי שלנו"

התמונות שכביכול מתעדות את 'זיוף הנחיתה על הירח', הוכנו על ידי שני מנועי בינה מלאכותית הזמינים לציבור / צילום: ד''ר רועי צזנה
התמונות שכביכול מתעדות את 'זיוף הנחיתה על הירח', הוכנו על ידי שני מנועי בינה מלאכותית הזמינים לציבור / צילום: ד''ר רועי צזנה

אמ;לק

ד"ר רועי צזנה פרסם השבוע סיפור מדהים על תרמית ענק ארוכת שנים של נאס"א. הוא צירף תמונות היסטוריות וציטט מתוך מכתב וידוי משכנע של בכיר לשעבר בסוכנות החלל - אלא שכל הסיפור היה בדוי. למה הוא עשה את זה? 

עיני כל העולם היו מופנות השבוע לחללית אוריון במשימת ארטמיס של סוכנות החלל של ארה"ב (נאס"א) שתוכננה לטוס לירח ונועדה לפרוץ מעבר לגבולות של תוכנית אפולו הידועה. בסוף אמנם הודיעה סוכנות החלל כי היא דוחה את השיגור, אבל העניין הציבורי הער גרם לד"ר רועי צזנה, חוקר עתידים במרכז בלווטניק באוניברסיטת ת"א, ועתידן בחברת SparkBeyond לבינה מלאכותית, להפנות זרקור למשהו אחר שמטריד אותו: זיוף הנחיתה הראשונה על הירח.

בדרך לירח: נאס"א מתכננת לשגר היום את משימת ארטמיס 1

"אני מודה, גם אני הייתי ספקן זמן רב לגבי מה שידוע כ'זיוף הנחיתה על הירח'", כתב צזנה בעמוד הפייסבוק שלו: "כל הרעיון נשמע לי הזוי: האם באמת אפשר לזייף מאורע עצום שכזה? ואז קיבלתי אליי למחשב אוסף של ראיות שהיה לי קשה להתווכח איתן.

"קודם כל, התמונות. הן חושפות אמת מדהימה: בתמונה אחת אפשר לראות צלמים בלבוש מלא, על סט של סטודיו עם תפאורה שמדמה את הירח. בתמונה אחרת מראים לנו איך מצלמים את כדור-הארץ ה-'עגול', באמצעות הצבת מצלמה מול כדור גדול במרכז הסטודיו. בתמונה שלישית מדגמן אסטרונאוט עם אביזרי צילום שונים. בתמונה נוספת אנחנו יכולים לראות את כן המצלמה ששימש ליצירת 'המכתשים' על הירח. ובאחרונה אפשר לראות איך האסטרונאוטים באמת זינקו לגבהים על 'הירח': באמצעות חבלים". אל הפוסט הזה הוצמדו 6 תמונות מדהימות המתארות בדיוק מה שד"ר צזנה מספר - והן מופיעות כאן בכתבה.

"אלא שהתמונות הן רק ההתחלה", המשיך צזנה וסיפר כי "אליהן היה מצורף מכתב מאדם שהזדהה כ"מנהל בכיר בנאס"א". תרגמתי אותו לעברית - 'אני מנהל בכיר בנאס"א ואני רוצה להתוודות כאן שהנחיתה על הירח ב-1968 הייתה מזויפת. הכל היה מבוים כאן על פני האדמה. השתמשנו במגוון טכניקות כדי שזה ייראה כאילו נחתנו על הירח, והצלחנו לרמות את העולם.

ראשית, השתמשנו בסטודיו לצילום התיעוד של הנחיתה-לכאורה על הירח. השתמשנו באפקטים מיוחדים כדי שהאסטרונאוטים ייראו כאילו הם הולכים על פני הירח, כשלמעשה הם פשוט הלכו על במה באולפן. השתמשנו גם במודלים מיניאטורים כדי ליצור את האשליה של סביבת הירח, ובמדובבים כדי להקליט את הדיאלוג בין האסטרונאוטים.

"הצלחנו לרמות את העולם במשך יותר מחמישים שנים, אך אני לא יכול לחיות עוד עם השקרים. אני מתוודה עכשיו, בתקווה שהאמת תיחשף סוף-סוף'. בראי כל אלו, איך אפשר להמשיך להאמין שהנחיתה על הירח באמת התקיימה?", חותם צזנה את הסיפור.

עולם חדש ומפחיד

אם נשמתכם נעתקה והיבטתם מבולבלים בתמונות - התגובה שלכם נורמלית לחלוטין. לשם בדיוק כיוון ד"ר צזנה. אבל האמת היא שכל הפוסט, הטקסט והתמונות כולן הן פשוט פייק אחד גדול, או יותר נכון לומר "דיפ-פייק" - מונח המתאר טכנולוגיה מבוססת בינה מלאכותית ליצירת סרטוני וידאו, צילומים או קטעי קול מזוייפים. וזה בדיוק מה שעשה ד"ר צזנה כפי שהבהיר בתחתית הפוסט שפרסם: "כל התמונות ששיתפתי בתחילת הרשומה מפוברקות לגמרי", והסביר: "אני בטוח בכך, מכיוון שאני עצמי יצרתי אותן. לא עם סט צילום עם שחקנים ומצלמות וצלמים מקצועיים. במקום זה, פשוט ביקשתי משני מנועי בינה מלאכותית הזמינים לציבור - Stable Diffusion ודאלי - לייצר עבורי כמה תמונות שמתעדות את זיוף הנחיתה על הירח. נדרשו להם בערך 5 שניות להפקת כל אחת מהתמונות, בעלות של פחות מחצי-דולר לכולן ביחד", כך כתב.

כדי ליצור את הווידוי המרגש של הבכיר מנאס"א, הוא השתמש במנוע הבינה המלאכותית GPT3, שמתמחה בחיקוי כתיבה אנושית. ההנחיה שהוא נתן לכלי הייתה: "כתוב וידוי מצד מנהל בכיר בנאס"א, שמתאר בחרטה כיצד זויפה הנחיתה על הירח ב-1968. הווידוי צריך לכלול פרטים רבים אודות הנחיתה-לכאורה על הירח, ולהסביר איך הצליחו לזייף אותה".

מטרת הפוסט היא להמחיש את הסכנות האורבות למי שיסתמך על מראה עיניים: "אנחנו נכנסים לעולם שאי אפשר יהיה להסתמך על תמונות וסרטונים, ועל שום דבר ששומעים או רואים. מה שנשאר לנו - זה השכל שלנו, המוח הביקורתי וההבנה שצריכה להנחות אותנו", אומר ד"ר צזנה בשיחה עם גלובס, "רציתי להעלות למודעות שאפשר לייצר זיופים של ראיות מאוד בקלות בעזרת בינה מלאכותית.

"בינה מלאכותית הופכת את כולנו לגיבורי על: אפשר להפוך להיות משורר, טבח, צייר, במאי, הכל. צריך לדעת איך להשתמש בבינה מלאכותית כדי לשדרג את היכולות ולהשלים אותן". הוא מוסיף: "נכון שהיום עוד צריך לערוך את התמונות, אבל אני מסתכל קדימה לעוד שלוש שנים. זה מתקדם מהר במיוחד ואין ספק שהעין הבלתי מזוינת תוך שנים ספורות לא תוכל להבדיל בין התמונות האמיתיות למפוברקות".

הסכנה: אובדן אמון

"את מה שעשה רועי צזנה, היה אפשר לעשות גם באופן פיזי אם היינו משקיעים משאבים ומקימים סט, אבל הבינה המלאכותית מאפשרת לעשות את זה יותר מהר, מדויק ובעלויות נמוכות יותר", אומרת ד"ר לירן ענתבי, עמיתת מחקר במכון למחקרי ביטחון לאומי, שמנהלת את תוכנית "טכנולוגיות מתקדמות וביטחון לאומי".

ד"ר לירן ענתבי / צילום: חן גלילי
 ד"ר לירן ענתבי / צילום: חן גלילי

לדברי ענתבי הנגישות והעלויות הנמוכות מאפשרים שימוש לרעה בבינה המלאכותית - גם של אנשים פרטיים. כך, למשל, בשנה שעברה דווח כי על פי החשד, אישה מפנסילבניה השתמשה בסרטונים מזויפים כדי להדיח בנות המתחרות בבתה בקבוצת המעודדות: היא שלחה למאמן הקבוצה תמונות שלהן "עירומות, שותות ומעשנות". עם זאת, מערכת המשפט האמריקאית לא הצליחה להכריע בשאלה האם העדויות זוייפו, למרות שהתובעים היו משוכנעים בכך.

בארץ הכירה מערכת המשפט הישראלית בדיפ פייק לפני הבחירות לכנסת ה-24, שהתקיימו במרץ 2021. ברשתות החברתיות התפרסם סרטון של יאיר לפיד מכריז כי "אם נרכיב את הממשלה הבאה, נמנה לפחות שני שרים ערבים בכירים ונבנה עיר ערבית חדשה".

"אלו דברים שמבחינת לפיד עלולים לפגוע בו", אומרת ענתבי, "אלא שהוא לא אמר אותם. יש עתיד פנתה לוועדת הבחירות המרכזית, ולראשונה, מערכת המשפט הישראלית התייחסה לדיפ פייק". לאחר הגשת העתירה, נוספה לסרטון שקופית המבהירה כי מדובר בזיוף לצורך המחשת רעיון, כך שועדת הבחירות לא דרשה את הסרתו מהרשת.

את ענתבי מטרידות אפשרויות של שימוש בדיפ פייק שעלולות לסכן את בטחון המדינה. "עשינו סימולציה עם מומחים, ונתנו להם להתמודד עם סרטון שלכאורה השתחרר מתקופה ביטחונית לוהטת, כשראש הממשלה אומר משהו מאוד מסית", היא מספרת. בדו"ח המסכם את המחקר נכתב כי המדינה לא ערוכה מספיק להתמודדות עם איום מהסוג הזה, "בין היתר משום שהאיום עצמו לא ברור מספיק", כך נכתב, "וכי לפחות בתחום הביטחון הלאומי טרם הודגמו השפעות מרחיקות לכת שלו".

"מה שמטריד עם הדיפ-פייק", מסבירה ענתבי, "זה שאם מישהו רוצה להתסיס את השטח, הוא מפרסם את הפייק ברגע קריטי, לדוגמה זמן קצר לפני פתיחת קלפיות. הכשל החזק הוא בדמוקרטיות דווקא, כי במשטרים לא דמוקרטיים החקיקה נגד דיפ פייק נוקשה".

"מישהו סיכם עבורי את המצב במשפט הכי נכון והכי מדכא ששמעתי", אמרה ענתבי בשיחה עם צזנה שהתקיימה לפני כמה חודשים ופורסמה בבלוג שלו 'המדריך לעתיד', "הוא אמר שבעתיד שאני מתארת, הרבה יותר בטוח לחיות בדיקטטורה מאשר בדמוקרטיה. לפחות שם יש מישהו מגבוה, שמסנכרן את השקר ומסדיר אותו. זה הרבה יותר טוב ממצב בו אתה חי עם הרבה אנשים מסביבך שכל הזמן רבים על מה שנכון או לא-נכון".

ד''ר רועי צזנה / צילום: ד''ר רועי צזנה
 ד''ר רועי צזנה / צילום: ד''ר רועי צזנה

ענתבי טוענת כי הבעיה המרכזית הנובעת מכך היא אובדן אמון. "אם בעבר היית רואה את רוה"מ בטלוויזיה - היה קל לזהות ולסמוך על המידע. כיום, אם מתפרסם סרטון של רוה"מ, נניח, מחבק חזיר, אי אפשר לסמוך על מראה העיניים. האמון אבד, האדם האינטליגנטי נעשה חשדן".

חייבים רגולציה

האם אנשים באמת מאמינים לדיפ פייק? ד"ר צזנה סבור שכן: "קל מאוד ליפול במה שאתה רוצה להאמין בו. השיח התדרדר והקצין, והחשש שנגיע לעולם כזה שאתה כבר לא יודע במה להאמין". ד"ר ענתבי מוסיפה: "אנשים שנוטים לחשדנות כלפי המערכת וחיבוב של תיאוריות קונספירציה ייטו יותר להאמין בדברים כאלו. קהל יותר מבוגר גם מועד לפורענות".

אז מה בעצם צריך לעשות?
"ראשית אנחנו צריכים לפתח חשיבה ביקורתית. צריך להבין את ההקשר, צריך להפעיל את שיקול הדעת - ולא להפיץ הלאה סתם ככה סרטונים ממקור לא מזוהה שמשחקים לנו בנימים וברגשות", אומר צזנה.

צזנה וענתבי סבורים שהאחריות צריכה לעבור גם לרשתות החברתיות עצמן. "הפלטפורמות שדרכן עוברים הזיופים יצטרכו לזהות אותם בעזרת בינה מלאכותית ולמנוע מהם להתפשט. בתרחיש כזה, נדרשת שקיפות מאוד גבוהה מצד הרשתות החברתיות", מסביר צזנה.

ד"ר ענתבי מצפה שהרגולטורים יהיו מעורבים: "במחקר שעשיתי ראיתי שאין מספיק חשיפה - שוטר למשל, לא מודע לאפשרות שהראייה הפיזית שמובאת לו היא פייק". בנוסף, היא אומרת, "לא הייתי רוצה חקיקה נוקשה כמו בסין, אבל בהחלט אפשר לייצר חקיקה יותר מתקדמת. הבעיה היא הפער בין המערכות: הטכנולוגיות מתפתחות ומשתכללות הרבה יותר מהר, והמערכות המסורתיות ממשיכות להתקדם באותו קצב - כך שהן לא באמת מצליחות להתמודד עם הבעיה".