מנהל בתי המשפט, צחי עוזיאל, מינה צוות לגיבוש קוד אתי לשימוש בבינה מלאכותית על-ידי שופטים ועובדים. הצוות מונה לאחר שני פסקי דין של בית המשפט העליון, שבהם נחשפו מקרים של הגשת אסמכתאות מפוברקות תוצרת AI בידי עורכי דין. זאת, במקביל לפעילות דומה בבתי משפט בארה"ב, ובראשם מערכת בתי המשפט של קליפורניה.
● עורכת דין הסתמכה על 36 פסקי דין שכלל לא פורסמו? זה "רק קצה הקרחון"
● עורכי הדין הסתמכו על AI שהמציא פסקי דין ונתפסו על חם. בבג"ץ מנסים לעצור את התופעה
● "גל עכור": בג"ץ דחה על הסף עתירה בגלל שימוש פסול בבינה מלאכותית
עורכי דין רבים משתמשים כיום בכלי בינה מלאכותית, בעיקר לצורך איתור פסיקה קודמת וליצירת כתבי טענות. אולם בחודשים האחרונים היו מספר מקרים - החל מבתי משפט השלום, דרך בתי הדין לעבודה וכאמור עד בית המשפט העליון - שבהם התגלו טיעונים כוזבים שנוצרו תוך שימוש ב-AI, בלא בקרה מצד עורכי הדין. מדובר היה בעיקר בציטוט של פסיקה קודמת, והפברוקים התגלו תוך כדי הכנת התיקים לדיון.
השופטים גילה כנפי-שטייניץ ונעם סולברג, אשר התייחסו למקרים אלה בחודש פברואר האחרון, הזהירו בחריפות רבה כי האחריות לכך תוטל אישית על כתפי עורכי הדין שיגישו טיעונים מפוברקים. בתי המשפט יוכלו לסלק על הסף את ההליך בשל היעדר ניקיון-כפיים, בשל תשתית משפטית שאינה מספקת ובשל שימוש לרעה בהליכי משפט. ניתן גם יהיה להטיל הוצאות אישיות על עורך הדין, בשל הטעיה ובשל הצורך להשקיע משאבים מיותרים - של הצד שכנגד ושל בית המשפט.
עם זאת, עד כה לא ניתנה הדעת בצורה מסודרת לשימוש של בתי המשפט עצמם בכלי AI. בחודש מרץ, זמן קצר לאחר פסקי הדין בבית המשפט העליון, פרסמה הרשות השופטת דף מידע, שבו נכתב בין היתר: "אין להעלות מסמכים מתוך מערכת 'נט המשפט' לפלטפורמות AI פתוחות, לרבות כתבי טענות, פרוטוקולים, חוות-דעת וכיו"ב. אין להזין מידע אישי או ארגוני רגיש, ואין להעלות טיוטות של פסקי דין או החלטות, מחשש לדלף מידע".
"מידע שגוי ולא מבוסס"
עוד נכתב בדף המידע: "מערכות AI עלולות להפיק מידע שגוי או לא מבוסס ('הזיות'), תוך קושי בזיהוי מקור המידע או מהימנותו. מאגרי המידע המשפטיים אינם נגישים לרוב המערכות, ויש לבדוק בקפדנות כל תוצר. בנוסף, יש לנקוט משנה זהירות נוכח סכנת הטיות העלולות לבוא לידי ביטוי בתוצרים... נהגו באחריות בעת השימוש ב-AI, הפעילו חשיבה ביקורתית, בדקו את מקורות המידע שעליהם מבוססים התוצרים ואת מהימנותם, ובחנו אותם באופן מעמיק".
עוזיאל מצטט את דברי כנפי-שטייניץ בפסק הדין הראשון בנושא: "בכלי הבינה המלאכותית טמון פוטנציאל רב לשיפור מרחיק לכת של המלאכה המשפטית; הגברת הגישה לערכאות והנגשת הדין; העמקת המחקר המשפטי ושיפור כתבי הטענות; ייעול ההליכים וקיצור משך ההתדיינות; השגת פשרות; והפחתת העומס על מערכת המשפט. אולם ככל טכנולוגיה, גם בשימוש בכלי הבינה המלאכותית קיימים חסרונות וסיכונים, מהם כאלה המציבים אתגרים חדשים לעולם המשפט".
עוזיאל מוסיף בכתב המינוי: "בעקבות ההתפתחות המואצת של טכנולוגיות בינה מלאכותית (AI), השפעתן ההולכת וגדלה על תחומי עיסוק שונים והכוונה להטמיע שימוש בטכנולוגיות אלה בעבודת הרשות השופטת, עולה הצורך בגיבוש מסגרת אתית שתנחה את שופטי ועובדי מערכת בתי המשפט בשימוש בהן. מסגרת זו תבטיח איזון בין חתירה לשיפור היעילות לבין החובה לשמור על ערכי היסוד של המערכת, בהם - העצמאות השיפוטית, הגינות, שקיפות, שוויון בפני החוק ואמון הציבור".
"המטרה: לגבש קוד אתי"
על-פי כתב המינוי, "מטרת הצוות לגבש אפוא קוד אתי לשימוש בטכנולוגיות בינה מלאכותית לשופטים ולעובדים, לרבות עקרונות פעולה, מגבלות ואמות-מידה לשקיפות, אחריות ואתיקה מקצועית. הצוות יבחן, בין היתר, שימושים קיימים ומתוכננים של בינה מלאכותית ברשות השופטת, לרבות בניהול תיקים, הסתייעות בעוזר דיגיטלי, ניתוח מידע ועוד. עוד יידרש הצוות לאופן שבו הסדירו מערכות משפט זרות את השימוש בטכנולוגיות אלה".
בראש הצוות עומד שופט בית המשפט המחוזי מרכז, רמי חיימוביץ'. יתר החברים בו הם שופטת בית משפט השלום בכפר סבא, חגית בולמש; הרשם רונן שוורץ מהמרכז להכשרה ולהשתלמות שופטים; היועץ המשפטי להנהלת בתי המשפט, עו"ד ברק לייזר, או נציגו; סמנכ"לית חטיבת החדשנות בהנהלת בתי המשפט, עו"ד שירי לנג; ועו"ד עידן שדה, עוזרו הראשי של עוזיאל.
ובינתיים בקליפורניה
המועצה המשפטית של קליפורניה אישרה בסוף השבוע שעבר כללים לשימוש ב-AI, החלים הן על השופטים וצוותיהם והן על הדרג המינהלי. מדובר במערכת המשפט המדינתית הגדולה ביותר בארה"ב, עם 65 בתי משפט, 1,800 שופטים ו-5 מיליון תיקים בשנה (לשם השוואה: בישראל יש 800 שופטים ו-900 אלף תיקים בשנה). את הכללים גיבש כוח משימה שהקימה אשתקד נשיאת העליון של קליפורניה, פטרישיה גוארו, והם ייכנסו לתוקף ב-1 בספטמבר.
הכללים מחולקים לשניים: אלה החלים על העבודה המינהלית ואלה החלים על העבודה השיפוטית. בעיקרם הכללים זהים, למעט שוני אחד: בעוד שבתחום המינהלי קיימת חובה לחשוף שימוש ב-AI, בתחום השיפוטי הדבר נתון לשיקול-דעתו של השופט.
להלן הכללים: אין להכניס למערכות AI ציבוריות מידע חסוי, פרטי זיהוי ומידע אחר שאינו גלוי. מידע כזה יוכנס אך ורק למערכות שבשימוש בלעדי של בית המשפט. אסור להשתמש בכלי AI לצורך אפליה בלתי חוקית ולצורך השפעה פסולה בנוגע ליחידים או קבוצות בהתבסס על חברות באותה קבוצה.
המשתמשים בתוצרי AI נדרשים לנקוט צעדים סבירים להבטיח את מהימנות החומר ולתקן טעויות בו. המשתמשים חייבים לנקוט צעדים סבירים כדי להסיר תכנים מוטים, תוקפניים או פוגעניים.
חובה להציג כל שימוש ב-AI או הסתמכות עליו בגרסה הסופית של החומר המוצגת לציבור בכתב, בצורה מקוונת או בצורה קולית. כאשר מדובר בשימוש בעבודה השיפוטית, ההחלטה האם לתת גילוי נתונה בידי השופט. השימוש ב-AI כפוף לכל כללי החוק, מדיניות בתי המשפט, כללי האתיקה, כללי ההתנהגות והכללים המקצועיים הרגילים.
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.