"הרגולטורים והמשפטנים צריכים לנסח חוקים חדשים שיתאימו לעידן המכונות"

מה יקרה בעולם שבו מכונות ישפיעו על הזכויות שלנו, בלי שתהיה לנו יכולת לבקר אותן? • המומחית למשפט וטכנולוגיה, ד"ר תהילה שוורץ אלטשולר, מראיינת את אחיה, פרופ' שי שלו שוורץ, מנהל הטכנולוגיות הראשי של מובילאיי, על השאלות המוסריות שמעלים פיתוחי העתיד

פרופ’ שי שלו שוורץ / צילום: יח"צ
פרופ’ שי שלו שוורץ / צילום: יח"צ

ההזדמנויות שמייצרת לנו הבינה המלאכותית, הטמעת המכונות הלומדות, ואיך כל זה פוגש את עולם המשפט והרגולציה - על הדברים הללו שוחחו המומחית למשפט וטכנולוגיה, ד"ר תהילה שוורץ אלטשולר, ואחיה, פרופ' שי שלו שוורץ, מנהל הטכנולוגיות הראשי (CTO) של חברת מובילאיי, במסגרת כנס הסטארט-אפים של גלובס.

שלו שוורץ הוא פרופסור למדעי המחשב באוניברסיטה העברית, עמית בכיר באינטל וחוקר מוביל בעולם בתחום למידת המכונה. שוורץ אלטשולר היא עמיתה בכירה וראש התוכנית לדמוקרטיה בעידן המידע במכון הישראלי לדמוקרטיה, ובמרכז פדרמן למשפט בסייבר באוניברסיטה העברית. בימים אלה היא משלימה ספר חדש, שייקרא "האדם המכונה והמדינה".

ד"ר תהילה אלטשולר-שוורץ / צילום: איל יצהר, גלובס
 ד"ר תהילה אלטשולר-שוורץ / צילום: איל יצהר, גלובס

שוורץ אלטשולר: איך לדעתך ייראה העולם בעוד חמש־עשר שנים מבחינת הטמעת המכונות הלומדות?
שלו שוורץ: "הבינה המלאכותית פותחת הרבה מאוד הזדמנויות. אני מאמין שטכנולוגיית הרכבים האוטונומיים תבשיל לא רק במוניות אוטונומיות, אלא אפילו ברכבים פרטיים, כך שכל אחד מאתנו יוכל בקרוב לרכוש רכב עם יכולות אוטונומיות מתקדמות.

"בתחום אחר, אני מייעץ לחברה שמפתחת כלי בינה מלאכותית לטובת מכשירים לבעלי מוגבלויות. למשל, מכשיר חדשני שמאפשר לכבד שמיעה לשמוע רק את האדם שאתו הוא מדבר, ולא את כל רעשי הרקע שמסביב. זאת אומרת, בינה מלאכותית מצליחה לסנן מתוך גלי הקול שמסביב רק את מה שרלוונטי לצורך הדיבור.

"בחברה אחרת שבה אני מייעץ מפתחים את הדור הבא של מעבדי התמלילים ועזרי כתיבה. אדם יוכל לכתוב משפט, ולהגיד 'אני רוצה את המשפט הזה בטון יותר פורמלי' או 'בטון יותר קז'ואל', או 'ברחה לי מילה, תנחש מהי'.

"אגב, ממש לאחרונה פורסם שחברת דיפמיינד הצליחה לעשות פרדיקציות טובות של המבנה התלת-ממדי של חלבונים, וזו בעיה שעובדים עליה כבר הרבה שנים. הפיתוח שלהם יאפשר לפתח תרופות בקצב הרבה יותר מהיר".

חוקים עמומים מדי

כמי שעוסקת במדיניות, אני מסתכלת על המהפכה הקודמת, של האינטרנט, שהאתוס שלה היה "הנדס אוף". האם בפרספקטיבה של 25 שנה זה הוכיח את עצמו? האם לפלטפורמות הדיגיטל הגדולות אכן יש אחריות על המוצר שהן מספקות? מה קורה לעולם שבו ענקים טכנולוגיים רוכשים לפעמים סטארט-אפים כדי לדכא חדשנות, ולא כדי לעודד אותה? אולי לפעמים דווקא מוצדק לעכב חדשנות לטובת ערכים, או שאתה חושב שצריך לתת לשווקים להתקדם בלי שיציקו להם?
"לרגולציה יש תפקיד מאוד חשוב בשמירת האינטרס הציבורי. בעולם אוטופי היינו אומרים שהרגולטור חייב לבחון כל הזמן את הפיתוחים הטכנולוגיים, ולשמור עלינו, על החברה. בפועל, זה לא עובד. הטכנולוגיה מתקדמת מהר מאוד, והרגולטורים נשארים מאחור. הם גם עלולים לגרום לעיכוב בטכנולוגיה, וגם לפתור את בעיות העבר במקום את בעיות העתיד.

"עניין שני הוא שאי אפשר להפעיל על מכונות כלים רגולטוריים שנועדו לבני אדם. לתחושתי, המשפטנים רוצים חוקים עמומים שמשאירים הרבה מקום לאינטרפרטציה של המערכת האנושית שמתערבת בחוק. נתקלנו בזה מאוד באופן בולט כשניסינו לעשות רגולציה לרכב האוטונומי.

"כשמשתמשים בשיטות של בינה מלאכותית ולמידת מכונה, לא תמיד יודעים עד הסוף מה יקרה, אבל בנינו מודל מתמטי שאומר מה ה'קומון סנס' של להיות נהג זהיר בכביש. חשבנו לעשות לזה רגולציה, כי זה יכול להועיל גם לנהגים אנושיים, וניסינו להסביר את המודל הזה למשפטנים.

"אמרנו להם: 'בואו נגדיר מה זה אומר להתנהג בפזיזות, ומה זה אומר להתנהג בשיקול דעת הגיוני'. התגובה הראשונית שלהם הייתה: 'לא יכול להיות. בטוח יש מקרה שהמודל לא תופס'. בעיניי, חוק טוב הוא חוק שבו לא צריך שיקול דעת של שופט. חוק לא טוב הוא חוק שבו אנחנו משאירים הרבה מקום לאינטרפרטציה של השופט".

אתה בעצם אומר שהמשפטנים יצטרכו לוותר על המקום שלהם, ואני רואה פה בעיה עקרונית. יש הבדל בין קוגניציה אנושית לקוגניציה של מכונה, ויש גם שאלה מתחום המדיניות: מי קובע? החברה של הרכב האוטונומי? המחוקק? אולי צריך אמנה בינלאומית.
"זה לא שלמשפטנים אין מקום, אבל הם צריכים לעשות סוויץ' ולדבר על החלטות וקביעת חוקים מראש, ולא ברטרוספקטיבה. זה לא המקום של החברות הטכנולוגיות להחליט האם החוק צריך להיות כך או אחרת. הן אולי יכולות לתת כלים, אבל הרגולטורים והמשפטנים צריכים לקחת אותם ולנסח חוק חדש שהוא יותר מודרני ויותר מתאים לתקופה".

הגשר שאתה ואני מנסים לבנות יהיה בדיוק במקום הזה, שבו החשיבה המשפטית נעזרת בחוקים גנריים, ומוכנה לפעמים אפילו להתעלם מהקצוות. יותר להתעסק בכללי, ופחות ביוצא מן הכלל.
"במובן הזה, עניין הזהירות שדיברתי עליו הוא היוצא מן הכלל, זו לא הבעיה המוסרית המעניינת בהקשר של רכב אוטונומי. קודם כל, כי היא לא ייחודית לרכב אוטונומי, באותו אופן אנחנו יכולים להעמיד את השאלה לנהג אנושי. אם זו הייתה שאלה כה חשובה, אז למה במבחני תיאוריה שבהם נותנים רישיון לנהג אנושי לא שואלים אותו 'מה תעשה כשתגיע למצב שבו אתה יכול לדרוס שלושה אנשים או שני כלבים?'.

"הסיבה השנייה היא שמדובר בסיטואציה מאוד נדירה. יש חשיבות לעסוק גם בה, אם אנחנו פילוסופים טהורים, אבל אני יותר מעשי. בואי נדבר למשל על הבעיה המוסרית שנוגעת למתח שבין בטיחות לבין יעילות מערכת הכבישים. אם בכביש מסוים המהירות המותרת תהיה 50 קמ"ש, כנראה שימותו יותר אנשים מאשר אם היא תהיה 30 קמ"ש. מצד שני, ב-50 קמ"ש מערכת הכבישים תהיה יותר יעילה, ונגיע יותר מהר לאן שאנחנו צריכים להגיע. יש פה שאלה מוסרית, איפה אנחנו שמים את הקו בטרייד אוף שבין לחיות לבין חיי אדם.

"זו שאלה שעולה בהרבה תחומים - לגבי נהיגה, בחיסונים לקורונה, ברגולציה לתרופות ולחיסון, בשאלה האם לעשות סגר או לא, בסל התרופות. עד כמה אנחנו רוצים כחברה חיים של נוחות?".

לשנות את השיח

פעם פגשתי בכנסת את אמנון שעשוע, והוא אמר לי 'את יודעת, שי הוא קוסם'. בקסם יש כמובן משהו מאוד יפה, אבל זה גם משהו שאי אפשר לדעת איך הוא פועל. אני מאוד חוששת מעולם שבו מכונות ישפיעו על הזכויות שלנו, בלי שתהיה לנו יכולת לבקר את ההחלטות שלהן.

בספרות על אתיקה של בינה מלאכותית אנחנו רואים מילים מעורפלות כמו שקיפות, הוגנות, אחריותיות. איך פורטים אותן למעשים, ומטמיעים את העקרונות האלה בתעשייה?
"שקיפות מבטיחה מנגנונים אמיתיים של ביקורת. אם חברה משתמשת בטכנולוגיה במחשכים, וזה חלק מהקניין הרוחני שלה, מאוד קשה לדעת מה היא באמת עושה. ברגע שמפרסמים את המודלים וההנחות, מאפשרים בעצם לחוקרים נוספים ולאנשים מהציבור להביע את דעתם. מזה מקבלים ערך הרבה יותר גדול, וזה בדיוק מה שעשינו במובילאיי בהקשר של בטיחות.

"בטיחות זה לא דבר שצריך להיות עליו קניין רוחני, זה לא נכס של חברה, זה אינטרס כללי. אם תעשיית הרכב האוטונומי רוצה לחיות, היא צריכה להיות שקופה לגבי בטיחות. הדבר הכי גרוע שיכול להיות זה שלאנשים לא יהיה אמון במערכות האלה, בגלל שהן לא שקופות.

"אנחנו פרסמנו את מודל הבטיחות שלנו במאמר מדעי, ובמובן מסוים הצלחנו לשנות את השיח בהקשר של רכב אוטונומי, ולגרום גם למתחרים שלנו וגם לחברות אחרות להבין שחייבים לדבר על בטיחות בצורה יותר שקופה. יש עוד דרך לעשות, וכעת אנחנו עובדים על תקנים ועל שקיפות של המערכות הבטיחותיות של רכב אוטונומי". 

***גילוי מלא: ד"ר תהילה שוורץ-אלטשולר השתתפה בחיבור הקוד האתי של גלובס

כנס הסטארט-אפים המבטיחים של גלובס נערך בשיתוף ובחסות J.P Morgan

צרו איתנו קשר *5988