מפלה ולא תמיד מייצגת: הבעיות בשימוש בבינה מלאכותית בתחום הפיננסי

כניסת הבינה המלאכותית לתחום הפיננסים מעלה שאלות משפטיות רבות • אחד מהאתגרים שעולים בדוח המחלקה הכלכלית בייעוץ וחקיקה במשרד המשפטים בנושא הוא הטיות במודל של הבינה המלאכותית

הבעיות בשימוש בבינה מלאכותית בתחום הפיננסי / אילוסטרציה: Shutterstock
הבעיות בשימוש בבינה מלאכותית בתחום הפיננסי / אילוסטרציה: Shutterstock

אחד הדברים שאיפשרו את התפתחות גופי הפינטק הוא הבינה המלאכותית, טכנולוגיית AI. טכנולוגיה זו יודעת לקחת את שובל הנתונים האלקטרוניים שאנחנו מפזרים על גבי הרשת, להוציא מהם תובנות לגביי ההרגלים הפיננסיים שלנו, ולהציע מוצרים בצורה יעילה ומדויקת למדי.

עם זאת, כניסת הבינה המלאכותית לתחום הפיננסים מעלה שאלות משפטיות רבות. לפני כשנה פרסמה המחלקה הכלכלית בייעוץ וחקיקה במשרד המשפטים קול קורא לעריכת מחקר שיסקור את היישומים המרכזיים של טכנולוגיות בינה מלאכותית בתחום הפיננסי. צוות בינתחומי מאוניברסיטת תל אביב נבחר להוביל את המחקר, והגיש דוח מפורט באשר לאתגרים של שילוב בינה מלאכותית בתחום והפיקוח הנכון עליו.

האתגרים בהסתמכות על בינה

אחד מהאתגרים שעולים בדוח הוא הטיות במודל של הבינה המלאכותית. כלומר, ההמלצה או התוצאה שתתקבל איננה באמת מייצגת את התוצאה האופטימלית עבור מבקש השירות, אלא נובעת מהטיות מסוימות של הבינה המלאכותית. איך זה יכול לקרות? למשל, אם מאגר המידע עליו מסתמכת הטכנולוגיה לא ייצוגי ולא כולל מגוון קבוצות באוכלוסייה. דבר זה יכול ליצור מודל המפלה קבוצות מסוימות.

בנוסף, גם כאשר מאגר המידע כולל את כל הנתונים הרלוונטיים, ייתכן שהנתונים ההיסטוריים הכלולים בו מבטאים אפליה שרווחת בשוק או שקלול של החלטות עבר שלא רלוונטית כבר כיום.

כמו כן, הטיה עלולה להיווצר מהסתמכות על נתוני פרוקסי. לדוגמה, הסתמכות על הוצאות על טיפול רפואי כאינדיקציה למצב רפואי. לבסוף, במקרים בהם יש איסור חקיקתי על התחשבות בנתונים זהותיים מסוימים, כגון מגדר או גזע, הטיה עשויה להיות תוצאה של שימוש של הבינה המלאכותית בנתונים שהם אמנם אחרים, אך הם בעלי קורלציה גבוהה לאותם מאפיינים זהותיים אסורים. למשל, שימוש בכתובות ובמיקוד במסגרת מאגר המידע, או לסוג הקניות שמופיע בכרטיס האשראי.

בדוח הוצגו גם דוגמאות לגבי הטיה בחיתום אשראי, למשל קידום בעבודה שמגדיל את יכולת ההחזר, ולא מתבטא במאגר ההיסטורי עליו מתבססים נתוני האשראי. כך גם צוינו הטיות בתחום החיתום הביטוחי, בכלל זה התבססות על נתונים שהם קורלטיביים למאפיינים זהותיים או סוציו־אקונומיים שלא בהכרח מייצגים את המבוטח.

ההמלצות: פיקוח ומניעת פיצול

מנגד, כפי שמצוין בדוח, למערכות מבוססות בינה מלאכותית מספר יתרונות על פני גורמים אנושיים, בכלל זאת יכולת לבחון באופן אמין את הפרמטרים שמשפיעים על קבלת ההחלטות.

הדוח כלל שורה של המלצות לבניית מסגרת פיקוחית לשימוש בבינה מלאכותית בפיננסים, ביניהן המלצה יהיה רגולטור אחד שיהיה אחראי על התחום בכללותו ויוכל לפקח עליו באופן מקיף, זאת מבלי לפצל את התחום בין הרגולטורים השונים.

מר שמואל בן טובים מנהל קהילת הפינטק הישראלית מסר:  ״הצלחת תעשיית הפינטק הישראלית נשענת, בין היתר על עמודי תווך מדעיים וטכנולוגיים שפותחו בישראל למטרות אחרות. לדוגמה: כריית נתונים, בניית מאגרי ידע, טכנולוגיות סייבר, עיבוד מידע או מתמטיקה ברמות הגבוהות ביותר. גם טכנולוגיות בינה מלאכותית פותחו בדרך כלל לצורך יישומים אחרים, אך חברות הפינטק מוצאות בהן פוטנציאל רב ביותר. הם ישמשו יותר ויותר בעתיד מערכות לקבלת החלטות הן בסקטור הציבורי, אבל גם בסקטור הפרטי הפיננסי, כגון מערכות תומכות החלטות על מתן אשראי. שימוש כזה בבינה מלאכותית עשוי לעורר סוגיות סבוכות בתחומי המשפט, החברה והאתיקה. על המחוקק והרגולטורים להיערך לסוגיה בכובד ראש, ולחסום פרצות מסוכנות, לפני שהסוסים יברחו מהאורווה".