בינה מלאכותית בפרקליטות? סכנה ממשית לזכויות הפרט

החובה של הפרקליטות כגוף שלטוני שנועד להגשים צדק היא להקפיא את הפרויקט בנושא עד להכנסת רגולציה מקיפה של התחום

בניגוד לדעה הרווחת, מחקרים רבים הראו כי מערכות בינה מלאכותית הן מוטות ומפלות
בניגוד לדעה הרווחת, מחקרים רבים הראו כי מערכות בינה מלאכותית הן מוטות ומפלות

הכותב הוא סטודנט לתואר שני למשפט וטכנולוגיה באוניברסיטת חיפה

בימים אלה, לפי הדיווחים בתקשורת, הפרקליטות פועלת להקמה של מערכת בינה מלאכותית שתסייע לפרקליטים לחזות את סיכויי ההצלחה בתיק. לצורך פיתוח המערכת, מוזנים בשלב זה אלפי תיקים שעבדה עליהם הפרקליטות, ומהם האלגוריתם צפוי ללמוד. כבר עכשיו יש לומר בצורה ברורה שאינה משתמעת לשתי פנים: מדובר בסכנה של ממש לאזרחים ולזכויותיהם.

בניגוד לעמדה הרווחת, לפיה אלגוריתמים ומערכות של בינה מלאכותית הם ניטרליים ואובייקטיביים, מחקרים רבים הראו כי מערכות בינה מלאכותית הן מוטות ומפלות ואף מעמיקות את הפערים החברתיים, וזאת מבלי שניתן לבקרם באופן יעיל ונכון.

לא אובייקטיביים

כך למשל, מערכת של בינה מלאכותית שנועדה לסנן קורות חיים בחברת אמזון, הדירה נשים רבות וטובות שהגישו מועמדות לתפקידים השונים, וזאת משום שהמערכת שלמדה את קורות חייהם של עובדי החברה ראתה שיש מיעוט נשי בחברה, והסיקה מכך ש"פחות נשים - יותר טוב".

בהקשר המשפטי, החשש להטיה במערכת בינה מלאכותית הוא חמור שבעתיים. לא אחת מונחים על הכף חירותם וזכויותיהם של נאשמים, ולא ניתן - בשם היעילות או בשל נתון סטטיסטי - להביא לפגיעה כה חמורה בזכויותיהם של אזרחים.

הדוגמה המובהקת לשילוב של מערכת בינה מלאכותית ומשפט היא בארצות-הברית, של מערכת בשם "COMPAS". המערכת שימשה שופטים לצורך הערכת מסוכנותם של נאשמים, כך שבטרם נשלחו למאסר, השופטים קיבלו ציון מהמערכת שמשקף עד כמה אותו נאשם הוא מסוכן. מטבע הדברים, ככל שהציון היה גבוה יותר, כך נהגו השופטים להחמיר יותר. לאחר תקופה התברר כי המערכת הפלתה נאשמים שחורים והעריכה את מסוכנותם בצורה שגויה, מה שהביא להחמרת ענישה רוחבית עם נאשמים שחורים על בסיס שיקול מקומם וחסר צדק.

למערכת זו לא נאמר בשום שלב כי עליה לשקול גזע או צבע עור, ובמערכת של אמזון לא הייתה שורת קוד שהוטמעה באלגוריתם שאמרה "רצוי להדיר נשים".

הסיבות להטיות במערכות של בינה מלאכותית יכולות להיות מגוונות. בין הסיבות הנפוצות היא הגדרה שגויה של ההצלחה, כך שהאלגוריתם לומד מנתוני העבר את ההצלחה, ובכך למעשה הוא מנציח טעויות עבר ומשמר מצב קיים, שממילא בהרבה מקרים הוא בעייתי. כך שבהקשר של הפרקליטות, יכול להיות מצב אבסורדי שבו אם הייתה הצלחה בתיקים של עבריינים רבים בשם "אמיר" שהורשעו, והתיק בעניינם התקדם בהצלחה רבה, הדבר עלול להשליך על התוצאות שיספק האלגוריתם לכל נאשם בשם "אמיר" - כי בעבר הפרקליטות הצליחה בתיקים עם פרמטר דומה. לחלופין, יכול שיהיה מצב שבאזור מסוים הפרקליטות מצליחה לנהל תיקים בהצלחה רבה למול עבריינים מיישוב מסוים, ולפתע מגיע נאשם שהוא חף מפשע - האם עובדת היותו מתגורר באותו יישוב היא שיקול להצלחת התיק?

עמימות האלגוריתם

מה שמוסיף מורכבות לשימוש במערכת שכזו היא עמימותם של האלגוריתם וקיומה של "קופסה שחורה". אחת הבעיות המדוברות במערכות של בינה מלאכותית היא שבשל מורכבות האלגוריתמים והליך עיבוד הנתונים, לא ניתן לנמק את ההחלטה של המערכת' מה השיקולים שעמדו לנגד עיניה ומה המשקל שקיבל כל שיקול בדרך להחלטה. קיומה של "קופסה שחורה" כזו לא מאפשר ביקורת יעילה ואפקטיבית על המערכת ומקשה גם על תיקונה.

בעיות אלה במערכות של בינה מלאכותית הביאו מדינות רבות לנקוט רגולציה שאוסרת על שימוש בבינה מלאכותית בתחומים מסוימים, מתוך הבנה שהסיכון הוא גדול ואינו שווה את התועלת, לפחות בשלב זה. באיחוד האירופי מנסים לקדם רגולציה חדשה שתסדיר את השימוש בכלים של בינה מלאכותית, לרבות רכבים אוטונומיים, שתחייב בדיקות מקיפות בטרם השימוש.

מכאן, החובה הבסיסית של הפרקליטות כגוף שלטוני שנועד להגשים צדק היא להקפיא את הפרויקט עד לפיתוחים טכנולוגיים שיאפשרו שימוש בבינה מלאכותית הוגנת או לפחות עד לרגולציה מקיפה של התחום במדינת ישראל. אחרת, כולנו נצטרך לשלם את המחיר.