מחקר חדש טוען: האלגוריתם של פייסבוק תורם להפצת פייק ניוז

חוקרים מאוניברסיטאות ניו יורק וגרנובל אלפ מצאו כי מאוגוסט 2020 עד ינואר 2021, מפרסמים שידועים בפרסום מידע מוטעה גרפו יותר לייקים, שיתופים ואינטראקציות ביחס למקורות חדשות מהימנים • החוקרים האמריקאיים שהשתתפו במחקר נחסמו באוגוסט ע"י פייסבוק בגלל מחקר שנועד לבחון את השקיפות ברשת החברתית

פייסבוק. לטענת החברה, אינטראקציה היא לא מדד לצפיות / צילום: Shutterstock, Jirapong Manustrong
פייסבוק. לטענת החברה, אינטראקציה היא לא מדד לצפיות / צילום: Shutterstock, Jirapong Manustrong

מחקר חדש על התנהגות משתמשים בפייסבוק סביב הבחירות בשנת 2020 עשוי לחזק את הביקורת כי האלגוריתם של החברה מזין את התפשטות המידע השגוי על פני מקורות אמינים יותר, כך על פי דיווח בוושינגטון פוסט. אלו אותם החוקרים שנחסמו על ידי פייסבוק בחודש אוגוסט כחלק מהמחקר שלהם.

המחקר, שבוצע על ידי חוקרים מאוניברסיטת ניו יורק ומאוניברסיטת גרנובל אלפ בצרפת מצא כי מאוגוסט 2020 עד ינואר 2021, מפרסמים שידועים בפרסום מידע מוטעה קיבלו פי שישה לייקים, שיתופים ואינטראקציות בזירה על פני מקורות חדשות מהימנים - בהם גם ארגון הבריאות העולמי וגופי חדשות מהמיינסטרים.

המומחים ניסו למדוד את השפעת המידע השגוי בקרב קבוצה רחבה של מפרסמים בפייסבוק, והממצאים אכן מצביעים שהאלגוריתם תומך ומעודד את הגופים שמפרסמים מידע מוטעה.

כותבי המחקר למעשה הסתמכו על סיווגים משני ארגונים שחוקרים מידע מוטעה - NewsGuard ו-Media Bias/Fact Check. שתי הקבוצות האלו סיווגי אלפי מפרסמים בפייסבוק לפי נטיות פוליטיות ולפי מהימנותם בפרסום החדשות. לאחר מכן, הצוות החוקר לקח את 2,551 הדפים והשווה את האינטראקציות בפוסטים בדפים שמפרסמים מידע שגוי מול דפים של מו"לים עובדתיים.

החוקרים גילו שבהשוואה בין הצדדים הפוליטיים, העמודים שמפיצים מידע שגוי גם בצד הימני וגם בצד השמאלי יצרו מעורבות רבה יותר מאשר דפים עובדתיים ומהימנים, גם בצד הימני וגם בצד השמאלי. עם זאת, לפי המחקר, למפרסמים מהצד הימני יש נטייה גבוהה בהרבה לחלוק מידע מטעה מאשר מפרסמים בקטגוריות פוליטיות אחרות.

הממצא האחרון מוכיח את המסקנות של חוקרים אחרים, כמו גם את הממצאים הפנימיים של פייסבוק עצמה לקראת בחירות האמצע בשנת 2018, כך על פי הדיווח בוושינגטון פוסט.

בפייסבוק טוענים: אינטראקציה היא לא מדד לצפיות

בתגובה, פייסבוק אמרה כי הדו"ח מדד את מספר האנשים שביצעו אינטראקציה של ממש בתוכן, אבל זה לא מדד למספר האנשים שצפו בו בפועל (פייסבוק לא מפרסמת את המידע הזה כזמין לחוקרים). "כשמסתכלים על התוכן שמקבל הכי הרבה חשיפה בפייסבוק, זה לא דומה בכלל למה שהמחקר הזה מציג", כך הגיב דובר פייסבוק ג'ו אוסבורן למחקר. אוסבורן הוסיף ואמר שלחברה יש 80 שותפים כבודקי עובדות שמכסים 60 שפות שעובדים לתייג ולצמצם את הפייק ניוז.

פייסבוק חסמה בחודש אוגוסט את הגישה של קבוצת החוקרים האלו לנתונים (כמו גם את הגישה שלהם לספריית המודעות הפוליטיות בזירה). אנשי האקדמיה מאוניברסיטת ניו יורק שנחסמו בדקו את השקיפות סביב מודעות והפצת המידע השגוי ברשת החברתית. החוקרים המדוברים הם חלק מפרויקט בשם NYU Ad Observatory, מיזם שנוצר כדי לבחון את המקור ואת החשיפה של מודעות פוליטיות בפייסבוק. פייסבוק אמרה אז כי המשך מתן גישה לחוקרים עלול להפר את ההסדר שיש לה עם ה-FTC, והנציבות הבהירה שהטענה הזו לא מדויקת.

כדי לסייע במחקרם, החוקרים יצרו תוסף לדפדפן בשם Ad Observer, שאוסף נתונים באופן אוטומטי על אילו מודעות פוליטיות נחשפים המשתמשים ומדוע המודעות האלו מופנות אליהם. הפלאגין המדובר לא אוסף מידע המזהה אישית לפי החברה - כמו שם משתמש או רשימת חברים. הנתונים שנאספים על ידי התוסף הופכים זמינים לחוקרים ולעיתונאים שמשתמשים במידע הזה כדי לחשוף מגמות ובעיות בפייסבוק. לורה אדלסון, חוקרת במיזם שחשבונה נחסם, אומרת שהחברה פשוט רוצה למנוע חקירה עצמאית של הזירה שלה וחשיפת בעיות בפלטפורמה שלה.

בפייסבוק טענו אז שהקבוצה הפרה את תנאי השימוש שלה בכך שאספה נתונים על משתמשים ללא אישור. בחברה אומרים שהחוקרים הפרו את תנאי השימוש של הרשת החברתית ושהתוסף שלהם "אסף נתונים על משתמשי פייסבוק שלא התקינו או הסכימו לאיסוף" - משמע איסוף נתונים ממשתמשים פרטיים ללא הסכמה".

"במשך חודשים ניסינו לעבוד עם אוניברסיטת ניו יורק כדי לספק לשלושה מחוקריהם את הגישה המדויקת שהם ביקשו בדרך פרטית ומוגנת", נכתב בבלוג הרשת החברתית בנושא. "היום, השבתנו את החשבונות, האפליקציות והדפים המשויכים לפרויקט Ad Observatory ולמפעילים לאחר ניסיונות חוזרים ונשנים שלנו להביא את המחקר שלהם לעמידה בתנאים", הוסיפו.