"ההיסטוריה לא תשפוט אותנו בחביבות": נחשפו מסמכים נוספים של פייסבוק

במהלך מתוזמר של מספר עיתונאים מגופים שונים, התפרסמו מסמכים פנימיים נוספים של פייסבוק, והפעם סביב שיח שנאה ופייק ניוז • לפי המסמכים, הפרעות בקפיטול הכעיסו וזעזעו רבים בחברה • "באתי לכאן בתקווה להשפיע ולשפר את החברה, אבל כל מה שראיתי זה ניוון והתנערות מאחריות", כתב אחד מהעובדים

''באתי לכאן בתקווה להשפיע ולשפר את החברה, אבל כל מה שראיתי זה ניוון והתנערות מאחריות'', כתב אחד העובדים / צילום: Associated Press, Noah Berger
''באתי לכאן בתקווה להשפיע ולשפר את החברה, אבל כל מה שראיתי זה ניוון והתנערות מאחריות'', כתב אחד העובדים / צילום: Associated Press, Noah Berger

פייסבוק התמודדה בתקופה האחרונה עם ביקורות קשות מכיוונים שונים. מחוקקים, עיתונאים ומתחרות - כולם התייחסו למה שעבר באחרונה על החברה: עשרות אלפי מסמכים פנימיים של החברה שנחשפו בקונגרס, ב-SEC וב"וול סטריט ג'ורנל", המוכיחים כי פייסבוק ידעה על תקלות ובעיות בזירה שלה ולא פעלה כדי לשנות את זה.

עד כה פורסמו מסמכים על הפגיעה בבריאות הנפש של צעירים בגלל אינסטגרם ועוד. כעת, במהלך מתוזמר של מספר עיתונאים מגופים שונים, מתפרסמים מסמכים נוספים, והפעם סביב שיח שנאה ופייק ניוז. ה"וושינגטון פוסט", ה"ניו יורק טיימס", בלומברג ועוד - פרסמו כתבות עם מידע דומה ברובו שמציגים את המסמכים החדשים.

פרנסיס האוגן, מדליפת המסמכים הפנימיים של פייסבוק לכל הגורמים, כבר הציגה בעזרת המסמכים כיצד שינוי האלגוריתם ב-2018 הפך את הזירה ליותר אלימה ורעילה. כדי שמשתמשים ייחשפו לתכנים, הם צריכים להיות קיצוניים יותר ולהביע עמדות יותר קשות. האוגן הצביעה על הפרעות בקפיטול בתור מהלך מתבקש, כי הזירה הפכה קיצונית יותר ופייסבוק לא עשתה מספיק כדי להגן עליה.

פרנסיס האוגן מעידה בפני הסנאט / צילום: צילום מסך
 פרנסיס האוגן מעידה בפני הסנאט / צילום: צילום מסך

לדבריה, פייסבוק השביתה מהר מדי את המערכות שנועדו להגן על השיח בתקופת הבחירות - רק יום לאחר סוף הבחירות. בתחילת דצמבר פייסבוק פירקה צוות של 300 עובדים בשם Civic Integrity - האחראי על הניצול לרעה בזירה בתקופת הבחירות, אותו צוות בו האוגן עמדה בראשו. באותה תקופה, קבוצת Stop the Steal הגבירה וחיזקה את כוחה. "ההתמקדות המוקדמת בהפרות בודדות גרמה לנו לפספס את הנזק הרחב יותר ברשת", נכתב במסמך פנימי של החברה שפורסם בבלומברג.

"אנחנו לא יכולים להיות מופתעים שזה יצא מכלל שליטה"

לפי המסמכים, הפרעות בקפיטול הכעיסו וזעזעו עובדים רבים. לפי הדיווח בבלומברג, בתגובות במערכת הפנימית של פייסבוק שראו בגופי התקשורת, היו הודעות על התחושות לגבי מה שהחברה וההנהגה עשתה כדי להיאבק בזה, ובחלק בתגובות העובדים לקחו את האשמה. "אני נאבק בהתאמת הערכים שלי להמשך העסקתי כאן. באתי לכאן בתקווה להשפיע ולשפר את החברה, אבל כל מה שראיתי זה ניוון והתנערות מאחריות", כך כתב אחד העובדים. עובד אחר כתב שהשריפה הזו הודלקה לפני זמן רב כבר "ואנחנו לא יכולים להיות מופתעים שזה יצא מכלל שליטה".

הרשת החברתית הודיעה בהצהרה לבלומברג שהיא ניהלה קמפיין גדול ונקטה בצעדים כדי להגביל את התוכן שביקש לעשות דה-לגיטימציה לתוצאות בחירות, כמו השעיית חשבונו של דולנד טראמפ והסרת תוכן שהפר את מדיניותה. עוד הוסיפה כי היא השקיעה מעל לשנתיים לפני הבחירות ב-2020, עם 40 צוותים ברחבי העולם. על פי הודעת החברה, היא הסירה יותר מ-5 מיליארד חשבונות מזויפים באותה שנה.

על פי דוח פנימי שנכתב עליו ב"וושינגטון פוסט", רבע ממשתמשי פייסבוק דיווחו שראו תוכן של שיח שנאה לפני הבחירות ויותר ממחציתם דיווחו שראו תוכן שגרם להם להיזהר מלדון בנושאים פוליטיים בפומבי. "לא רק שאנחנו לא עושים משהו בנוגע למידע המוטעה סביב הבחירות, אנחנו גם מעצימים אותו ונותנים לו הפצה רחבה יותר", נכתב על ידי אחד העובדים. על פי המחקר, מידע שגוי בפייסבוק קיבל פי שישה יותר קליקים מאשר חדשות עובדתיות במהלך הבחירות 2020.

"ההיסטוריה לא תשפוט אותנו בחביבות"

אחת מהטענות שעלו נגד פייסבוק הן שהיא לא הצליחה להתמודד ביעילות נגד קבוצת "Stop The Steal" - קבוצה שטענה כי הבחירות זויפו, וכי טראמפ לא באמת הפסיד. אותם עובדים שהביעו דאגה מכך שמדיניות אכיפה לפוסטים לא מיושמת כמו שצריך, דאגה שגם עלתה במחקר שנעשה בפייסבוק מאוחר יותר.

על פי הדיווח ב"וושינגטון פוסט", אחד העובדים הפיל את האשמה על פייסבוק בגין אירוע מוקדם יותר מהפלישה לקפיטול. "לעולם לא אשכח שב-2015, טראמפ קרא לאסור על כניסת מוסלמים לארה"ב, ואנחנו קבענו שזה הפר את המדיניות שלנו ולמרות זאת לא הורדנו את הסרטון. יש קו ישיר שאפשר למתוח מאותו יום להיום, אחד הימים האפלים ביותר בהיסטוריה של הדמוקרטיה. האם זה היה עושה את ההבדל? לעולם לא נדע, אבל ההיסטוריה לא תשפוט אותנו בחביבות", כך כתב אותו עובד.

למעשה, לפי הדיווח ב"ניו יורק טיימס", אחד ממדעני הנתונים בפייסבוק כתב לקולגות שלו כי 10% מכל הצפיות בתכנים הפוליטיים בזירה בארצית-הברית, היו פוסטים שלפיהם הבחירות היו מזויפות. לפי המסמכים, פייסבוק ידעה על התנועות הללו והקבוצות הקיצוניות שהיו בזירה שניסו לקטב את הבוחרים האמריקאים.

על פי ה"ניו יורק טיימס", המסמכים לא מראים אילו החלטות התקבלו בתוך החברה. מה שכן השתקף, זה שעובדים טענו כי הרשת החברתית יכלה לעשות הרבה יותר, אך לא עשתה זאת. דובר החברה, אנדי סטון, אמר שהחברה דווקא גאה בעבודה שהיא עשתה כדי להגן על בחירות ארה"ב 2020. לדבריו, פייסבוק עבדה עם גורמי אכיפת החוק ועקבה מקרוב אחרי מה שפורסם בזירה שלה.

בפייסבוק החליטו לבחון את זה,  ולבדוק האם עובדי החברה שהזהירו כה רבות, צודקים: האם לפייסבוק יש את הכוח להשפיע על דעותיהם של משתמשים ולגרום להם להיות קיצוניים הרבה יותר? לכן, חוקרת בפייסבוק פתחה ביולי 2019 חשבון מזויף: "קרול סמית'", אמא שמרנית בצפון קרוליינה. מלכתחילה, החשבון עקב אחרי דפים כמו פוקס ניוז.

לפי המסמכים, החשבון קיבל המלצות על תיאוריות ה-QAnon, והמידע הפך להיות מקטב ורעיל. בתגובה, אמרו בפייסבוק שזו עוד דוגמה של מחקר שהחברה עושה כדי לשפר את המערכות ולדעת איך להסיר את תאוריות הקונספירציה מהזירה.

מ-BBC לסרטוני סנאף

בבלומברג אף הציגו מה קורה בשאר העולם, כלומר מחוץ לארצות הברית. בפברואר 2019, פייסבוק פתחה חשבון דומה בהודו, כדי לבחון איך האלגוריתם משפיע על התוכן. תוך שלושה שבועות הפיד היה מלא בפייק ניוז ותמונות קשות. האפיון היה כך: הדמות בת 21, מתגוררת בעיר ג'איפור שבמערב הודו. המשתמשת עקבה רק אחרי דפים או קבוצות שהומלצו על ידי פייסבוק או שנתקלה בהם בגלל ההמלצות. במסמך פנימי הוגדרו התוצאות כ-"integrity nightmare".

הניסוי התחיל בכך שהחשבון הביע עניין בדברים רגילים כמו BBC News India והעמוד של ראש הממשלה ההודי מודי. אז הייתה מתקפת טרור בקשמיר, בו נהרגו 40 אנשי ביטחון הודים ונפצעו עשרות נוספים. ממשלת הודו ייחסה את התקיפה לקבוצת טרור פקיסטני. והחשבון הניסיוני התמלא בשיח שנאה נגד פקיסטנים, כולל תמונות של עריפת ראשים ועוד. תוך שלושה שבועות הפיד היה מלא בפייק ניוז ותמונות קשות. היו תמונות של עריפת ראשים, על תקיפות אוויריות ועוד.

הסיבה שזה כה בעייתי, היא כי מחוץ לארצות הברית פייסבוק צריכה להתמודד עם שפות אחרות שהיא לא מכירה. במדינה כמו הודו, פייסבוק פנתה לחברות חיצוניות כמו Accenture, כדי לנטר את התוכן בזירה. "השקענו משמעותית בטכנולוגיה כדי למצוא שיח שנאה בשפות שונות, כולל בהינדית ובבנגלית". חשוב לציין - רבים מהפוסטים היו בהינדית, השפה הלאומית בהודו, אבל חמקו ממערכות ניהול התוכן. האלגוריתם מפספס שיח שנאה כי הוא לא מספיק "שולט" בשפות.