אפל: מערכת חדשה תבדוק תמונות ב-iCloud מחשש להתעללות מינית בילדים

נמרוד וקס, מייסד BigID, מבקר את המהלך וטוען כי המטרה של אפל נעלה וחשובה, אך האמצעים לא חוקתיים: "אין לי בעיה שיש יכולת או סריקה מקומית של התמונות. יש לי בעיה עם זה שלוקחים את התוצאות ושולחים לגורם צד שלישי"

טים קוק, מנכ''ל אפל / צילום: Shutterstock, John Gress Media Inc
טים קוק, מנכ''ל אפל / צילום: Shutterstock, John Gress Media Inc

ענקית הטכנולוגיה אפל הודיעה כי היא בוחנת מערכת חדשה שתבדוק אוטומטית תמונות בחשבונות ה-iCloud מחשש להתעללות מינית בילדים. החברה הודיעה על המערכת הזו לצד שינויים נוספים להגברת הבטיחות של ילדים וילדות ברשת. המערכת למעשה תדע להתריע לרשויות באם ישנה הפרה.

השירות החדש יהפוך את התמונות במכשירים לפלט מוצפן (hashes) שמאוחסן במכשיר המשתמש. המחרוזות אלה יותאמו למאגרי נתונים שמספק ה-National Center for Missing and Exploited Children. לפי החברה, המכשיר למעשה ייצור "safety voucher" מוצפן ברגע שיש חשד להפרה. ברגע שיש רף של שוברים כאלה מסומנים, צוות הבדיקה של אפל יקבל התראה - יפענחו את ההצפנה, ישביתו את החשבון המסוכן ויתריעו למרכז הלאומי. מי שחושב שחשבונותיו סומנו בטעות, יכול להגיש ערעור על כך.

"במקום לסרוק תמונות בענן, המערכת מבצעת התאמה במכשיר באמצעות מסד נתונים של קבצי תמונות CSAM (ראשי-תיבות: Child Sexual Abuse Material) המסופקים על-ידי המרכז הלאומי וארגוני בטיחות אחרים. אפל הופכת את מסד הנתונים למערך מוצפן המאוחסן בצורה מאובטחת במכשירים", נכתב בהודעה של החברה.

בנוסף כתבה אפל כי הסף שהוגדר מסוגל לספק רמת דיוק גבוהה במיוחד "ומבטיח פחות מאחד טריליון סיכויים בשנה לסמן נתון לא נכון".

הכלי החדש יהיה זמין כעדכון תוכנה עתידי לפי החברה, וזה בדיוק האיזון שאפל מנסה ליצור - בטיחות המשתמשים והילדים אל מול הפרטיות של המשתמשים, ערך מקודש לאפל.

מצד אחד היו תומכים, בהם גם פוליטיקאים שמבקרים רבות את פייסבוק (כמו הסנאטור האמריקאי ריצ'רד בלומנטל שכינה את המהלך "צעד מבורך, חדשני ונועז"). במקביל, הביקורת הגיעה. ויל קת'קארט, מנהל וואטסאפ, צייץ בחשבון הטוויטר שלו וכתב: "המערכת תוכל בקלות לסרוק תוכן פרטי לכל דבר שהם או הממשלה מחליטים שהיא רוצה לשלוט בו. למדינות בהן נמכרים מכשירי אייפון יהיו הגדרות שונות לגבי מה שמקובל". עוד הוסיף כי "אנשים שאלו אם נאמץ את המערכת הזו עבור וואטסטפ. התשובה היא לא". לצד זאת, הוא טוען כי המערכת של וואטסאפ דיווחה על יותר מ-400 אלף מקרים למרכז הלאומי מבלי לשבור את ההצפנה - מהלך שאפל מוכנה לעשות.

נמרוד וקס, מייסד חברת BigID, שפיתחה פלטפורמה לניהול ואכיפה של מדיניות ופרטיות המידע ברשת, אומר כי המטרה של אפל נעלה וחשובה, אך האמצעים לא חוקתיים. "אין לי בעיה שיש יכולת או סריקה מקומית של התמונות. יש לי בעיה עם זה שלוקחים את התוצאות ושולחים לגורם צד שלישי. אני כצרכן לא נתתי אישור אמיתי לזה. זה היה לגיטימי בעיניי אם היו לוקחים את התוצאות ומיידעים אותי שיש תוכן בעייתי אצלי, או אם מצאו את זה אצל הילדים שלי ואז מעדכנים אותי. זה מרגיש כמו פלישה לתמונות האישיות שלי עם מטרה נעלה ומוצדקת, אבל האמצעי לא נכון".

בעיה נוספת לדעתו - וזה מה שמנחה את החקיקה האירופית בנושאי בינה מלאכותית - היא רמות הסיכונים בטכנולוגיה שכזו. "באיחוד האירופי יש הצעת חוק ששמה הגבלות על בינה מלאכותית. היא מגדירה רמות שונות של סיכונים. שימוש טריוויאלי שלא דורש בקרה, שימוש חלקי ושם הדרישה להיות שקופים עם המשתמשים, רמה מעל של מערכת AI קיימת ולבסוף, רמה עליונה - שהיא אסורה לשימוש בכלל. בין השימושים האסורים, זה זיהוי ביומטרי אוטומטי - מה שאפל מבקשת לעשות. אפילו ממשלה שרוצה להשתמש במידע פומבי כמו מצלמות ברחוב, היא צריכה לבקש אישור משופט. אפל רוצה לעשות חיפוש בטלפון כחלק מהמהלך הזה, וזה חייב לבוא בגיבוי של רשות שופטת ולא בסמכות מנהל מוצר בחברת אפל", חותם וקס.