חזית המדע | ראיון

החוקר שמגלה איך הבוטים הרוסיים הפכו אותנו לכלי משחק

ד"ר אלמוג שמחון, פסיכולוג חישובי מאוניברסיטת בן גוריון, חוקר את השימוש בשפה ברשתות ואת האופן שבו היא מובילה לקיטוב חברתי ● בראיון לגלובס, הוא מסביר איך בוטים רוסיים הופכים אותנו לכלי משחק, מה קורה לשיח אחרי פיגועים ומי משתף יותר פייק ניוז ● ויש לו אזהרה לעתיד: "בינה מלאכותית יכולה לייצר טענות לא פחות משכנעות משל בני אדם, ואפילו יותר"

גלי וינרב | 03.05.2024

ד''ר אלמוג שמחון / צילום: דני מכליס - אוניברסיטת בן גוריון בנגב

ד''ר אלמוג שמחון / צילום: דני מכליס - אוניברסיטת בן גוריון בנגב

נסו רגע להתרכז ולהיזכר מה היה הפוסט האחרון ששיתפתם ברשתות החברתיות, אפילו בין כמה חברים. מה גרם לכם לשתף אותו? כמה מחשבה הקדשתם לשאלות כיצד נולד הפוסט, את מי הוא משרת או מדוע דווקא הוא נחת אצלכם בפיד עכשיו? ד"ר אלמוג שמחון, ראש המעבדה לפסיכולוגיה חברתית חישובית באוניברסיטת בן־גוריון בנגב, חוקר את השאלות האלה ומנסה לפתח "חיסונים" נגד שיח מקטב.

ניתוח | ההמלצה שהזניקה את השווי של אפל ב-70 מיליארד דולר ביום אחד
בדרך לשווי של 2 טריליון דולר: זו המנצחת הגדולה של עונת הדוחות

"אני חוקר את השיח המוסרני־רגשי ברשתות החברתיות", אומר שמחון. "שיתוף של תוכן מוסרני־רגשי, שנוצר על ידי אנשים מהמחנה שלנו, שאנחנו סומכים עליהם, עם אנשים אחרים באותו מחנה - זה חלק מהטבע האנושי, אלא שהרשתות החברתיות מאפשרות למצב הזה לצאת משליטה, וגורמים חיצוניים לחברה שלנו מנצלים את זה".

ד"ר אלמוג שמחון

אישי: בן ,36 נשוי + 2
מקצועי: ראש המעבדה לפסיכולוגיה חברתית חישובית, המחלקה לפסיכולוגיה, אוניברסיטת בן־גוריון בנגב
עוד משהו: עיתונאי לשעבר 

למה הכוונה בשיח מוסרני־רגשי?
"סוג השיח הזה משתמש במילים מאוד טעונות רגשית כדי להעביר מסר של שיפוט מוסרי כלפי האחר, בין היתר כלפי מחנה פוליטי אחר.

"השיח המפלג ביותר הוא שיח מוסרני־רגשי המתנהל בתוך תיבת תהודה. כשאני רואה פוסט מוסרני־רגשי שתואם את הדעה הפוליטית שלי, יש סיכוי גדול יותר שאשתף אותו, וכיוון שיש יותר סיכוי שאשתף אותו, האלגוריתמים של הרשתות החברתיות גם אוהבים את הפוסטים האלה ומציפים לי אותם יותר".

נראה שהשיפוט המוסרי והרכיב הרגשי החזק מקשים על שני הצדדים בדיון להידבר. "סוג השיח הזה עומד בבסיס מנגנון הקיטוב", מבהיר שמחון.

כשכל אכזבה הופכת ל"דיכאון"

שמחון משתמש בכלי חישוב מתקדמים כדי לנטר כמויות גדולות של מידע, בעיקר מהרשתות החברתיות. ב־2016, כשעבד על הדוקטורט שלו, הוא פיתח כלי שאוסף כאלף פוסטים ברשתות חברתיות (בעיקר X, אז טוויטר) בשעה. "זו דרך חדשה לחקור פסיכולוגיה אנושית", הוא אומר.

שמחון ביקש אז לחקור את התגובה הרגשית של הציבור לבחירות בארה"ב. "היינו בטוחים שהילארי קלינטון תיבחר, וחשבנו שיהיה מעניין לבחון איך מצביעי דונלד טראמפ מתמודדים עם זה", הוא מספר. וזה בדיוק מה שהוא עשה, רק הפוך - בסוף טראמפ נבחר, ומי שנאלץ להתמודד עם ההפסד היה המחנה הדמוקרטי. "אנשים היו בהלם", אומר שמחון, "ותהיתי אם הפסד פוליטי כזה יכול להוביל לדיכאון".

התוצאות היו מפתיעות. "בוחרים דיברו ברשתות על דיכאון, אבל כאשר השווינו בין הרגשות שהביעו מצביעי המפלגה הדמוקרטית ב-2016 ל-2018, בלי קשר לבחירות, לא באמת ראינו הבדל. לא מצאנו הבדל גם בחיפושים אחר קבוצות תמיכה נגד דיכאון בגוגל, או אפילו בצריכת תרופות. לא היה הבדל בין ליברלים ללא ליברלים, ולא בין הרגשתם של אותם ליברלים לפני ואחרי הבחירות, אף שהחוויה הנתפסת שלהם הייתה שיש שינוי".

5 תובנות ממחקריו של שמחון

1 אנשים משתפים יותר תוכן שמשתמש בשפה מוסרנית ושיפוטית של הצד האחר, הכולל מילים כמו משוגעים, מטומטמים ופושעים

2 בעקבות פיגועים בארה"ב ובבריטניה, השיח ברשת נעשה דוגמטי יותר

3 בוטים זרים קידמו עמדות קיצון בכל סוגיה במחלוקת, והשתמשו
בשפה הרבה יותר מוסרנית־רגשית מאחרים

4 אדם שמפיץ מידע שגוי עובדתית בשם עמדה מוסרית שהוא תומך בה
עשוי עדיין להיתפס כאדם כן בציבור שמסכים איתו

5 בינה מלאכותית הצליחה לייצר תכנים מותאמים לאישיות כדי לשכנע אנשים

מה יכול לגרום להם לחשוב שהם בדיכאון גם אם הם לא?
"אנחנו חושבים שזה חלק מהמבע של חברה מפוררת ברשתות החברתיות. אחד המאפיינים הוא שיח של פתולוגיזציה. אני לא מאוכזב או עצוב, אלא בדיכאון, הכול מאוד מוגבר".

בעקבות הממצאים האלה, שמחון החליט לחקור את התופעה של שיח מקטב ברשת. "המטרה הייתה לבחון מה קורה לשיח ברשתות אחרי פיגועים, או אחרי איום קיומי. עימתנו זו מול זו שתי תיאוריות על תגובות לחרדה, שגוזרות ניבויים סותרים", אומר שמחון. תיאוריה אחת מנבאת שחרדה, שעלולה ליצור תחושת חוסר ודאות, תוביל להתבטאויות זהירות ופחות נחרצות, ותיאורה אחרת מנבאת שחרדה תפעיל מנגנון פיצוי שיגרום לנו דווקא להירתע ממורכבות. לתיאוריה הזאת קוראים "ניהול האימה".

המחקר של שמחון אישש את תיאוריית ניהול האימה. "בחנו את התגובות אחרי 15 פיגועים בארה"ב ובבריטניה, והשווינו אותן לתגובות שבוע לפני הפיגוע. ראינו שאחרי הפיגוע אנשים מדברים באופן מאוד דוגמטי. ישנה הקצנה חזקה של השיח, ואנשים מדברים על המצב הפוליטי במונחים של פתולוגיה".

המחקר הזה גרם לשמחון לעבור סופית ממחנה חוקרי הדיכאון למחנה של חוקרי הקיטוב הפוליטי. "המטרה שלי ושל שותפיי הייתה ליצור מערכת שיודעת להצביע על ציוץ או פוסט ולדרג עד כמה הם מקטבים. הגענו לרשימה של מילים מקטבות ומילים מקרבות".

אילו מילים סומנו כמקטבות?
"בארה"ב, למשל, המילים שחיתות, אלימות, משוגעים, מטומטמים, פושע".

בארץ זה בטח משהו כמו אנרכיסטים, פשיסטים, טרלול.
"משהו כזה, כן".

בוטים זרים שזורעים כאוס

שמחון השתמש בכלי שפיתח כדי לאשרר את מה שגורמים רבים חשדו בו זה זמן רב: בוטים רוסיים מנצלים את הרשתות החברתיות כדי להעמיק את הקיטוב.

"טוויטר כבר החלו לסמן באותה תקופה ציוצים, שלפי המידע שברשותם הגיעו מגורמים עוינים. ידענו שישנה טענה שטרולים רוסיים רוצים לשבש את הבחירות בארה"ב, ורצינו להבין באיזו שפה הם משתמשים כדי לעשות זאת, ומה הם מנסים להשיג.

"התפיסה אז הייתה שאולי הקרמלין ינסה לשדל את הציבור האמריקאי להיות בצד מסוים של המפה. נאמר תחילה שהם פרו־טראמפ. אז ראינו שהם אכן פרו־טראמפ, אבל הם גם פשוט פרו־קיצוניות.

"הם התבטאו בקצוות הקיצוניים של השיח הפוליטי, אבל לא רק סביב הבחירות. בתקופת הקורונה הם יצרו שיח קיצוני בעד ונגד. כך גם בתקופת מהומות Black Lives Matter הם התבטאו מאוד בעד או מאוד נגד. לא רק שהם התמקמו בצדדים הקיצוניים של הדילמות, אלא גם השתמשו בשפה הרבה יותר קיצונית, מוסרנית־רגשית, מזו שהשתמשו בה אנשים שאינם בוטים".

הבוטים ניסו ליצור תחושה שהם "קולות מהשטח", ואכן רבים קוראים ציוצים בטוויטר ומרגישים שיש לנו מגע ישיר עם רחשי הלב של הציבור. "אבל לפעמים במקום את המציאות ואת השטח, אנחנו דוגמים קמפיין של טרולים חיצוניים", אומר שמחון.

מה בדיוק הם מנסים להשיג?
"לפרק את החברה. מאוד מעניין לראות את זה, אבל גם מערער. אפשר לראות פה ממש בעיניים איך משחקים ברגשות ובתפיסות העולם של האנשים".

איך אתה יודע שזה בוט, מלבד הניסוח הקיצוני?
"אנחנו רואים קבוצה של חשבונות שנוצרו באותו זמן, שמשתמשים בניסוחים מאוד דומים ומהדהדים זה את זה".

והם מגיעים כולם מרוסיה?
"מרוסיה, מאיראן, מונצואלה".

האלגוריתם מספק את הטבע האנושי

נראה שהחברות המפעילות את הרשתות החברתיות מודעות לכך. מדוע הן לא עוצרות את התהליך הזה? הרי גם הן חלק מהחברה שמנסים לפורר.
"אין להן אינטרס כלכלי. בפייסבוק טוענים שהאלגוריתם שלהם הוא לא זה שאחראי להדהוד התוכן המקטב. במשך שנים, בפייסבוק הגבילו את המחקר שניתן לעשות עם הנתונים שלהם, אבל סביב יולי האחרון הם חברו לקבוצת חוקרים מהשורה הראשונה בתחום ופרסמו סדרת מחקרים בכתבי העת Science ו־Nature. הם ניסו לבחון את השפעת השיח הפוליטי במערכת שלהם על האווירה לקראת הבחירות, והראו כמה דברים מעניינים.

"בתקופת בחירות, אם מראים לציבור פיד כרונולוגי, כלומר כזה שלא 'טופל' כך שתוכן פוליטי או מעורר רגשות עזים יעלה אל פני השטח, נראה שהציבור בכל זאת מחפש את התוכן הזה. אולי כבר התרגלנו לזה. פיד כרונולוגי מביא בסך הכול לפחות מעורבות, פחות תגובות ושיתופים, אבל אם כבר נחשפתי לתוכן פוליטי בפיד הכרונולוגי, אני אתייחס אליו יותר מאשר אל תכנים אחרים, במעין מנגנון של פיצוי.

"נראה שזה לא כל כך פשוט לתכנן פלטפורמה 'מיטיבה'. בני האדם אולי קצת מתנגדים לזה, ואם פייסבוק למשל תיצור פלטפורמה כזו נגד הנטייה האנושית, אולי הציבור פשוט יימשך יותר לרשת חברתית אחרת. יש לזה השלכות שקשה לצפות".

לטענתם לא האלגוריתם אשם, הוא פשוט נותן לנו את מה שאנחנו רוצים.
"פרופ' ויליאם ברודי מאוניברסיטת נורת'ווסטרן בארה"ב קורא לתוכן שאנחנו מחפשים תוכן PRIME (Prestigious Insider Moral Emotional), כלומר, תוכן רגשי־מוסרני מאנשי פנים שהם משפיעני הקבוצה. הסיבות לכך שהמוח האנושי אוהב את התוכן הזה הן כנראה אבולוציוניות.

"זה בדרך כלל אכן בריא לנו להאמין לאנשים מוערכים ובעלי ניסיון מתוך השבט שלנו. הבעיה היא שהמנגנון של הרשתות החברתיות מהדהד ומכפיל את התופעה הזאת בכמה וכמה סדרי גודל, וזה מסוכן, עם ובלי שגורמים עוינים רוכבים על הגל הזה לצורכיהם".

תהליכי הקצנה קרו גם לפני הרשתות החברתיות. למשל, בתחילת המאה ה־20, כשפתאום מדינות רבות הפכו לדיקטטורות פאשיסטיות. האם היה איזשהו שינוי טכנולוגי או תקשורתי שהוביל את התהליכים האלה גם אז?
"זה לא התחום שלי. מדברים על המהפכה התעשייתית כגורם שהוביל למלחמות של תחילת המאה ה־20, אבל אז לא ראינו כזה סדר גודל של מניפולציות חיצוניות על המבנה החברתי. זה כנראה נעשה גם אז, אבל היום זה הרבה יותר קל".

להפיץ שקר ועדיין להיחשב לאדם כן

מחקר חדש יותר של שמחון בחן כיצד פוליטיקאים משתתפים בחגיגת הקיטוב. "בחנו חברי פרלמנט וקונגרס בארה"ב, בבריטניה ובגרמניה, וראינו שאכן יש שיתוף של תכנים עם מידע שגוי על ידי פוליטיקאים, ושבאופן עקבי הצד הימני של המפה הפוליטית מפרסם יותר תכנים כאלה. זה ממצא שחזר על עצמו בכמה מדינות".

הם עושים זאת בכוונה? בידיעה שמדובר בפייק?
"יש כאן איזו תפיסה כפולה של האמת - האם אני מדבר את האמת העובדתית או את 'האמת שלי'? אם אני מפיץ מידע שגוי אבל עושה זאת בשמה של עמדה מוסרית שאני תומך בה מעומק הלב לכאורה, ציבור גדול יתפוס אותי כאדם כן. זה נקרא Belief Speaking, וזה איזשהו שער שדרכו הפוליטיקאים מפיצים מידע לא אמין.

"לפעמים חוסר קשב מוביל אנשים לשתף תוכן בלי לבדוק, ולפעמים אנשים חושדים שאולי הם משתפים תוכן קונספירטיבי, אבל מוכנים לעשות זאת כל עוד זה משרת את האינטרס שלהם".

איך תשתלב הבינה המלאכותית בכל הקלחת הזאת?
"אנחנו חוקרים את זה ממש כעת. גילינו שהבינה המלאכותית יכולה לייצר טענות לא פחות משכנעות משל בני אדם, ואפילו יותר. בהשראת שערוריית קיימברידג' אנלטיקה, (חברת ייעוץ פוליטי שהייתה מעורבת בקמפיין הברקזיט ובקמפיין של טראמפ ונחקרה על השיטות שלה לפלח קהל יעד - ג"ו), ערכתי מח קר שבחן את היכולת של בינה מלאכותית לפלח קהלי יעד באופן מאוד מדויק.

"בחברה טענו שהם יכולים להשתמש בכלי בינה מלאכותית וביג דאטה כדי להתאים מסרים פוליטיים לאנשים מסוימים. הם טענו שהם יכולים להכיר את האישיות של אדם המתבטא ברשתות החברתיות לא פחות טוב מבן או מבת הזוג שלו.

"אז כדי להבין אם כלי כזה הוא בר ביצוע ואפקטיבי, החלטנו ליצור אחד כזה בעצמנו. התמקדנו רק בתכונה אישיותית אחת, פתיחות לחוויה. מיינו נבדקים בניסוי לפי מדד של פתיחות לחוויה, ונתנו לכלי בינה מלאכותית לייצר תכנים מותאמים לפי אישיות. וראינו שכאשר ישנה תאימות, הנבדקים באמת משתכנעים יותר".

מדוע זה מסוכן במיוחד?
"פרסום משכנע תמיד היה קיים, ואנשי מכירות או פעילים פוליטיים יכלו בשיחה של אחד על אחד להתאים את המסרים המשכנעים לאישיות של אדם, אבל היום זה קורה בקלות ובמהירות רבה, בסקאלות ענקיות. אם קודם לכן היה לנו תוכן מזוהם, עכשיו יש לנו תוכן מזוהם וסינתטי ומכוון אישית, שהוא גם מאוד מאוד משכנע. אנחנו חייבים להתחיל להגן על עצמנו".

איך אפשר התגונן?
"מבחינת הפלטפורמות, היו כמה מהלכים שהחלו בתקופת הקורונה, כמו סימון ידיעות מסוימות כפייק ניוז. יש מקום לפעילות של הרגולטור, אבל לא בטוח שלרגולטור שמגיע מתוך המערכת הפוליטית יש תמיד אינטרס לנקות את השיח".

ההבדל בין יריבות פוליטית לקיטוב

התשובה האמיתית נמצאת בתוכנו, כנראה. שמחון היה רוצה להזהיר את הציבור משיתוף לא מודע של מידע מקטב או לא אמין. "עצם חשיפת המניפולציה היא קצת כמו חיסון לציבור, שמאפשר לו לבנות עמידות בפני המהלכים הללו", הוא אומר.

במחקר נוסף שהיה שותף לו, אומנו נבדקים לזהות מניפולציות ומידע לא אמין, והם אכן נמנעו משיתוף של תכנים כאלה. "עזרנו להם להבדיל בין תוכן מקטב פוליטית שהוא חלק מהדמוקרטיה - כי חברות דמוקרטיות צריכות שיהיו בהן אידיאולוגיות מתחרות, זה חלק מהשיטה - לבין תוכן עם קיטוב רגשי ושנאה כלפי קבוצת החוץ. כאשר יש קיטוב רגשי ושנאה, פתאום החברה עושה דברים מוזרים, כמו לנסות למנוע מהילדים שלה לבוא במגע עם אנשים מהצד האחר, או לארגן את שכונות המגורים כך שתהיה בהן הפרדה על בסיס אידיאולוגי".

במסגרת תוכנית ה"חיסון" צפו הנבדקים בסרטון על ההשפעות של תוכן מקטב על הדמוקרטיה ועל החברה, והחוקרים הציגו להם מאפיינים של תוכן מקטב: טיעונים לא קוהרנטיים, דיכוטומיות מזויפות (כלומר, הצגת שתי אפשרויות זו מול זו כאילו אין אפשרות לשלב ביניהן או לבחור אופציה שלישית), טענות לגופו של אדם ולא לגופו של עניין, או טענות "שעיר לעזאזל", כלומר האשמת יחידים או קבוצות בתהליכים או אירועים שלא בהכרח קשורים אליהם.

החוקרים הראו שהקבוצות שהשתתפו ב"תוכניות החיסון" בבריטניה סביב הברקזיט ובארה"ב סביב חוקי ההפלות, הפגינה פחות מעורבות בתכנים מקטבים.

בימים אלה, עורך שמחון מחקר נוסף, על השיח ברשתות אחרי 7.10. "כשחברה מאוימת כל כך מבחוץ, יש בדרך כלל התכנסות סביב ערכים משותפים. קוראים לזה Rally around the flag. אבל לאירועי 7.10 קדם שבר גדול מאוד בחברה הישראלית, שרואים אותו עד היום. אז מה יותר חזק? ההתכנסות סביב הדגל או השיח המפלג? האם ההתכנסות היא של כולנו יחד או של כל קבוצה בחברה הישראלית בתוך עצמה? אין לנו עדיין תוצאות, אבל בינתיים התרשמנו שיש עלייה גם בסולידריות וגם בעוינות בו זמנית".

צרו איתנו קשר *5988