"הזיות": המלכודת הטכנולוגית שמפילה דווקא את עורכי הדין

החלטות מומצאות של העליון, הפניות לפסקי דין שלא קיימים וטענות מופרכות: כלי AI משמשים יותר ויותר את הזירה המשפטית, אך לצד היעילות יוצרים מבוכות ותקלות רבות • הבעיה, כך נראה, נעוצה בשימוש לא מבוקר בטכנולוגיה • בתי המשפט כבר מטילים סנקציות, ובלשכת עורכי הדין מאשימים: "מי שלא בודק את המקורות שהוא מצטט מהם, מתרשל"

כך הפכה הבינה המלאכותית למלכודת הגדולה של עורכי הדין / צילום: AI
כך הפכה הבינה המלאכותית למלכודת הגדולה של עורכי הדין / צילום: AI

אמ;לק

באחד מפסקי הדין התקדימיים שניתנו לאחרונה התגלה כי עורכת הדין שייצגה בעתירה לבג"ץ הפנתה ללא פחות מ־36 פסקי דין של בית המשפט העליון. אלא שבהסתכלות מעמיקה באותם פסקי הדין עלה כי הם לא היו ולא נבראו! עורכת הדין טענה בתחילה ל"טעות סופר", אך בהמשך הודתה כי הסתמכה על אתר שהומלץ לה מבלי שטרחה לוודא זאת. למעשה, הסיפור של אותה עורכת דין הוא רק דוגמה למה שמתחולל בחודשים האחרונים בעולם המשפט - יותר ויותר עורכי דין עושים שימוש בבינה המלאכותית, ולא לוקחים בחשבון את הטעויות הרבות שעלולות לחרוץ גורלות. איך אפשר בכל זאת לעשות את זה נכון? 

הבינה המלאכותית כבר משתלטת על כל התחומים בעולם, אבל זה לא סוד שהיא עדיין מלאה בטעויות. כשמדובר בתאריך כלשהו, או בפרט היסטורי לא מדויק, הטעות לא תמיד תהיה קריטית, אך יש תחומים שבהם שימוש לא נכון ולא מבוקר ב־AI עשוי לחרוץ גורלות, לא פחות. זה מה שקורה בזירה המשפטית: בחודשים האחרונים נחשפים מקרים רבים שבהם השימוש בכלי בינה מלאכותית הפך למלכודת לפרקליטים ולקרקע פורייה לטעויות ושגיאות משפטיות. במקרה הטוב, זה נגמר במבוכה. במקרה הרע, תביעות נדחות וההוצאות גוברות.

פרויקט מיוחד | בעלי מקצוע מגלים איך הבינה המלאכותית הקלה על חייהם
פרויקט מיוחד | רוצים להתייעץ עם הצ'אט שלכם על מצבכם הבריאותי? ממה כדאי להיזהר
WSJ | חוששים להשתמש בבינה מלאכותית? זו הדרך להתחיל

כך למשל, באוגוסט אשתקד חשף שופט בית משפט השלום בנוף הגליל־נצרת כי עורך הדין של התובעת שהופיע בפניו ציטט החלטות מומצאות של העליון. בדצמבר האחרון גילה בית משפט השלום בירושלים כי בערעור על החלטה של רשם ההוצאה לפועל בתיק מזונות הפנה עורך הדין לפסקי דין שאינם קיימים. "מדובר במעשה שלא ייעשה", קבע השופט ציון סהראי. באותו החודש פסל בית משפט השלום בחיפה מסמך של ניתוח תיעוד רפואי, שהכינה חברת ביטוח באמצעות AI.

כמו כן, לפני כמה שבועות הוגשה לוועדת האתיקה הארצית של לשכת עורכי הדין תלונה בידי רשמת הוצאה לפועל נגד עורך דין שהגיש טיעונים מופרכים לאחר שהסתמך על בינה מלאכותית כדי לנסח מסמך משפטי. הרשמת זיהתה מיד כי מדובר במסמך שנוסח על ידי בינה מלאכותית ורבות הטעויות בו, וביקשה מעוה"ד להגיש את הטיעונים מחדש, הפעם ללא שימוש ב־AI ולכל הפחות תוך בדיקת העובדות. ואולם, על פי תלונתה, עוה"ד הגיש מסמך חדש שנוסח שוב על ידי בינה מלאכותית והיה "בעייתי" מבחינת הנימוקים שנטענו בו, פסקי הדין, החוקים והאסמכתאות שאליהן הפנה עורך הדין, שחלקן לא היו קיימות כלל וחלקן פשוט לא התאימו לתיק.

וזה לא רק עורכי הדין. החודש התברר כי גם המשטרה "נפלה" לבור שהבינה המלאכותית טמנה לה. מדובר במקרה שהגיע לפתחו של בית משפט השלום בחדרה, במסגרת דיון בבקשה שהגיש חשוד בפלילים להחזרת הטלפון הנייד שלו שנתפס בחקירה. בתגובה שהגישה המשטרה לבקשה הסתמך קצין להב על "סעיף 23(א) לחוק סדר הדין הפלילי (סמכויות אכיפה, חיפוש ותפיסה במחשב) תשנ"ו - 1996" כדי לדחות את הבקשה. ואולם, בדיקה קלה שערך השופט גילתה כי חוק כזה לא קיים. "אם חשבתי שראיתי הכול ב־30 השנים שאני על כס השיפוט - כנראה שטעיתי", כתב השופט אהוד קפלן.

כמה ימים לאחר החלטה זו, ניתנה החלטה דרמטית של שופט ביהמ"ש המחוזי בת"א אילן דפדי, שהורה למחוק בקשה לאישור תביעה ייצוגית בהיקף של כ־3.8 מיליארד שקל נגד קופות חולים בישראל. זאת, לאחר שהתברר כי עוה"ד שייצג את העמותה שהגישה את הבקשה הפנה לפסיקה שאינה קיימת בעקבות הסתמכות עיוורת על כלי בינה מלאכותית. השופט חייב את עורך הדין בתשלום הוצאות אישיות בסך 5,000 שקל לקופת חולים כללית שביקשה לסלק התובענה, וכן לטובת אוצר המדינה.

בזמן שהמקרים האלה הולכים ומצטברים, נשאלת השאלה: כיצד דווקא עורכי דין, אלה שאמורים לדייק בכל מילה - מצליחים ליפול בכזו קלות באחת המלכודות המוכרות של הבינה המלאכותית?

"כמו להעסיק עורך דין ממש מהיר"

"כלי הבינה המלאכותית העניקו לעורכי הדין אפשרויות שלא היו קודם", מסביר עו"ד אסף כהן צידון, המתמחה בבינה מלאכותית, חוקר ומרצה בתחום. "זה לא רק מאפשר עבודה מהירה יותר, אלא גם כזו שממוקדת ויעילה יותר. כששאלה משפטית הגיעה לסבא שלי, שלמה צידון כהן ז"ל, הוא חיפש את הספר הרלוונטי בספרייה המשפטית ואז ניסח את חוות הדעת ללקוח או את כתב הטענות לביהמ"ש. לי זה כבר לקח פחות זמן - הייתי פותח את האתר המשפטי נבו ושם מצאתי את התשובה. אבל עדיין הייתי צריך לנסח תשובה ללקוח בעצמי.

עו''ד אסף כהן צידון, חוקר AI / צילום: סוזי סטודיו לצילום
 עו''ד אסף כהן צידון, חוקר AI / צילום: סוזי סטודיו לצילום

"היום יש כלי עצמאי לחלוטין שאני יכול ממש להגיד לו את השאלה שלי והוא ייתן לי תשובה מלאה עם החקיקה, הפסיקה הרלוונטית ואימייל מוכן ללקוח. אתה רק צריך לבקש והכלי ממש פועל במקומך. זה כמו להעסיק עורך דין ממש מהיר, יעיל מאוד שלא מבקש העלאות, לא מבקש הפסקות ולא צריך לצאת מוקדם. הוא תמיד זמין לי 24/7".

מלבד הכלים שזמינים לכלל האוכלוסייה, כהן צידון מסביר שיש גם כלי AI ייחודים לעורכי דין ומשפטנים. "למשל כלי שמנסח חקירות נגדיות", אומר כהן צידון. "יש כלי מאוד מוכר בשם SpellBook - תוסף וורד ייעודי לעורכי דין. כשאני מקבל חוזה אני יכול לסמן איזה צד אני מייצג, ללחוץ על הכפתור 'תעבור על ההסכם' והוא ממש עובר על הכל, עוקב אחר שינויים ומכניס את הדברים לטובת הלקוח שלי. מה שפעם היה לוקח שעות על גבי שעות, היום עומד תוך 5-10 דקות. זה באמת מהפכני".

אך כאמור המהפכה הזאת גם מביאה עמה לא מעט "נפילות". "זה קורה כי אנשים משתמשים בכלים לא למטרות שלשמן הם נועדו", מסביר כהן צידון. "צריך לעשות הבחנה בין כלי בינה סטטיסטי לכלי דטרמיניסטי. כלי סטטיסטי זה בעצם מודלי השפה הפופולריים - ChatGPT, קלוד ג'ימני ואחרים, שלמעשה מנחשים/מנבאים את התשובה.

"הבעיה מתחילה כשהכלי לא יודע את התשובה. אם עורך דין לא יודע תשובה, הוא יגיד לי 'אני לא יודע, אני צריך לבדוק'. מודלי שפה סטטיסטיים לא עובדים בצורה הזאת - הם לא אומנו לומר 'אני לא יודע'. הם גם לא מתביישים, לא אכפת להם לשקר והם לא מפחדים שאני אכעס עליהם. אז הם פשוט ינסו לנחש תשובה. למשל, כששאלתי את הצ'ט באיזה חוק מגדירים מהו אינטרנט - הוא הפנה אותי לחוק שוויון זכויות לאנשים עם מוגבלות, לסעיף 35. כמובן שבדקתי ואין שום הגדרה כזאת בחוק הזה".

בשלב הבא שאל עו"ד כהן צידון את השאלה קצת אחרת, ואז גם התוצאה הייתה בהתאם. "הוספתי לשאלה את המשפט - 'אם לא מצאת חוק כזה, תכתוב לי אני לא יודע'. ואכן זו התשובה שקיבלתי. בניסוי אחר שאלתי את הצ'ט באיזה חוק מגדירים מהו אתר אינטרנט, ואמרתי לו בבקשה אל תמציא עכשיו. מה שקרה זה שהוא רק נתן לי תשובה עוד יותר גרועה. הוא הפנה אותי לחוק שלא קיים בכלל, כי שוב, מבחינתו הוא לא ממציא, הוא פשוט מנחש. זה כלים סטטיסטיים, ככה הם עובדים".

אז הבעיה היא לא בכלי אלא במשתמש?
"כן, זה כמו שאני אקח רכב ספורט לטיול שטח, ואז אני אתפלא שזה לא מצליח. הבעיה היא לא שהיצרן של הרכב לא יודע לייצר רכבים, הבעיה היא בי כנהג שלא הבנתי שלא לוקחים רכב ספורט לטיול שטח".

בניגוד לכלים הסטטיסטיים, שמנחשים ומנבאים את התשובה גם בלי שהם בהכרח יודעים אותה, יש גם את הכלים ה"דטרמיניסטיים". "אלו מאגרי מידע שהחיפוש בהם מבוסס בינה מלאכותית. הם מאומנים מראש רק לשלוף את המידע מהמאגר", מסביר כהן צידון. "אני מקביל את זה לאגם שיש בו דגים. כלי דטרמיניסטי דג לי דג רק מהאגם הזה. אם הוא לא מצא שם דג הוא לא יביא לי אותו לצלחת".

גם בעולם מתמודדים עם "הזיות הבינה המלאכותית"

מכמות הטעויות הנחשפות בבתי המשפט נראה כי רבים מעורכי הדין בהחלט אכן לא יודעים איך להשתמש בכלי הבינה המלאכותית. במקרה שהגיע לאחרונה לרשם ההוצאה לפועל בלשכת פתח תקווה, אביעד איגרא, התבסס חייב בתיק מזונות על פסיקה לא קיימת ואף הוסיף ציטוטים מאותה פסיקה דמיונית. "הקלות לקבלת מידע באמצעות בינה מלאכותית על ידי כל משתמש עלולה לגרום למגפת הטעיה בבתי המשפט ובלשכות ההוצאה לפועל וליצור מבוכה ומבולקה בהליכים המשפטיים", כתב איגרא בהחלטתו.

הטעויות של עורכי הדין הגיעו לאחרונה גם לפתחו של ביהמ"ש העליון שביקר בצורה חריפה את התופעה. כך, באחד מפסקי הדין התקדימיים שניתנו לאחרונה בעליון התגלה כי עורכת הדין שייצגה בעתירה לבג"ץ, נגד החלטתו של בית הדין השרעי לערעורים בתיק גירושים, הפנתה ללא פחות מ־36 פסקי דין של בית המשפט העליון, כולל ציטוטים שכביכול נלקחו מהם, שלא היו ולא נבראו. עורכת הדין טענה בתחילה ל"טעות סופר" ולתקלה טכנית, אך בהמשך הודתה כי הסתמכה על אתר "שהומלץ לה על ידי קולגות שסמכה על עצתם", מבלי שטרחה לוודא זאת.

השופטת גליה כנפי־שטייניץ, אליה הצטרפו השופטים דוד מינץ ויוסף אלרון, ציינה כי פסקי הדין "הם אינם אלא חזיון תעתועים" וכי פלט "ההזיה" שקיבלה עורכת הדין נחזה בעיניה כה אמין, עד כי לא טרחה לבדוק את אמיתות תוכנו. בפסק הדין נקבע לראשונה כי ניתן להטיל סנקציות על עורכי דין שמסתמכים באופן עיוור על בינה מלאכותית, ובין היתר ניתן לסלק על הסף הליך המבוסס על כתב טענות מטעה תוך הסתמכות על בינה מלאכותית ואף ניתן להטיל הוצאות אישיות על עורך הדין שהגיש כתב טענות בדוי - ולא על הלקוח, הנושא לרוב בהוצאות. "אין זו זכות אלא חובה", כנפי-שטייניץ.

ימים ספורים לאחר שניתן פסק הדין, יישם בג"ץ את החובה הזאת, כאשר הגיע לפתחו תיק בו הסתמכו העותרים, שוב, על פסיקה שאינה קיימת. העמותה לקידום זכויות הכלבים עתרה לבג"ץ נגד כוונת משרד החקלאות להאריך את תוקף התקנות המתירות לירות בכלבים משוטטים שנכנסו לישראל מעזה בעקבות המלחמה אך השופטים נעם סולברג, דוד מינץ ויוסף אלרון דחו את העתירה על הסף לאחר שהשופט סולברג חשף כי לא הצליח לאתר "ולו אחד מההליכים השיפוטיים שאליהם הפנתה העותרת בעתירתה, וקיים ספק אם אלה קיימים". בפסק הדין צוין, כי הדברים שנחשפו מצביעים על מה שמכונה "הזיות בינה מלאכותית".

כמובן שלא מדובר ב"מגפה" ישראלית. בתקשורת העולמית דווח על לא מעט מקרים שבהם עורכי דין ומשפטנים נפלו למלכודת ה־AI. כך, למשל, לפני כשנתיים דווח בתקשורת האמריקאית על מקרה חריג בניו יורק שבו עורך דין בעל ניסיון של 30 שנה נעזר ב־ChatGPT והגיש לבית המשפט מסמך שבו מצוטטים תקדימים משפטיים שמעולם לא נבראו.

בינה מלאכותית בעבודה המשפטית: איך לעשות את זה נכון

1. כל כלי והייעוד שלו: לא כל כלי AI מתאים לכל משימה. יש כלים מסוג מסוים שמיועדים לניסוח וסקירה של מסמכים, ויש כלים מסוג אחר שמיועדים לחיפוש מידע ממקורות משפטיים.

חשוב גם להבין אם הכלי מתבסס על מודל סטטיסטי (כמו GPT, שמנחש/מנבא את המילה הבאה) או שהוא מודל דטרמיניסטי ששולף מידע מדויק ממאגר נתונים (כמו מנועי חיפוש מבוססי בינה מלאכותית). שימוש שגוי עלול להוביל לאי-דיוקים משפטיים.

2. ניסוח מדויק משפיע על איכות התוצאה: שימוש נכון בכלי דורש מיומנות, והניסוח של ההנחיה (Prompt) משפיע על איכות התוצאה. תוצאה מדויקת דורשת מאיתנו לדעת "לתקשר" עם הכלי שבו משתמשים. מומלץ גם לכתוב לכלי - 'אם לא מצאת חוק כזה, תכתוב לי אני לא יודע'.

3. האחריות המקצועית נשארת אצלכם: גם אם AI עוזר בניסוח או חיפוש, האחריות לבדוק את המידע, לוודא נכונות משפטית ולהתאים את התוכן לנסיבות - היא תמיד של עורך הדין. שימוש עיוור עלול לסכן את הלקוח ואת עורך הדין. בנוסף, יש לזכור שכלי AI תומכים בנו ועוזרים לנו, אבל הם לא מחליפים שיקול דעת משפטי.

עו"ד אסף כהן צידון

"מרגיז אותי שאנשים מאשימים את AI. זו אחריות שלכם"

בחודשים האחרונים הפך המונח - "הזיות בינה מלאכותית" - לתמרור אזהרה בוהק מול עיניהם של עורכי הדין. אבל הבעיות לא נעוצות רק ב"הזיות". "ההגדרה של הזיה היא פלט של המודל שנראה לנו לא קשור, א אוט אוף קונטקסט, ושאנחנו מרגישים שבן אדם כן ובעל ידע לא היה אומר את זה", מסביר פרופ' נדב כהן, חוקר ומרצה למדעי המחשב ובינה מלאכותית באוניברסיטת תל אביב ומייסד שותף CTO ונשיא חברת הסטארט-אפ אימיוביט (Imubit). "יש מקרים שהמודלים נותנים תשובות שלא נראות הגיוניות ואז בני אדם מבינים את הטעות וזה בכלל לא מועבר הלאה, אבל יש מקרים שהתשובה נחזית להיות מדויקת ואז זה בעייתי ומסוכן".

פרופ' נדב כהן / צילום: שחר וזיו כץ סטודיו לוסידו
 פרופ' נדב כהן / צילום: שחר וזיו כץ סטודיו לוסידו

למה זה קורה?
"אף אחד לא יודע למה זה קורה ואיך מונעים את זה, כולל לא מי שבנה את המודלים הספציפיים האלו. יש המון מאמצים לנסות ולהגדיל את רמת האמינות, אבל זו בעיה מאוד קשה וכשזה נוגע לזירות שלא סבלניות לטעויות זה בעייתי עוד יותר. בשימוש בזירות משפטיות גם טעות אחת לאלף או אחת לעשרת אלפים - לא מקובלת. זה שונה ממשתמש אחר שמדבר עם צ'ט ופעם באלף תשובות הוא מקבל נונסנס מוחלט. בשימושים לצרכים משפטיים אנחנו לא מוכנים לספוג את זה".

אבל לגישת פרופ' כהן, כמובן שזה לא אומר שלא צריך להשתמש בכלים הללו בזירה המשפטית. "השימוש בבינה מלאכותית בכל תחומי החיים זו ההתקדמות הטבעית של העולם וככה אפשר לייצר הכי הרבה ערך, אבל צריך מודלים מדויקים יותר. לדעתי אין מספיק מודעות לפער שיש בין הכלים היעילים והאמינים יותר לאלו שמשתמשים בהם כיום. יש איזושהי אופוריה ואולי לאט לאט מתחילים להתפכח מזה. צריכה להיות יותר מודעות לבעיות האמינות ולמאמץ שצריך להשקיע כדי להתמודד איתן".

ובכל זאת, עד שהטכנולוגיה תשתכלל, יש גם למשפטנים מה לעשות. "צריך להבין שבסוף האחריות היא שלנו לבדוק את הדברים שאנחנו מגישים לביהמ"ש", אמר עו"ד כהן צידון. "כל מתמחה לומד דבר ראשון שכשצד אחד כותב הפניות לפסקי דין - תבדוק אותו. בגלל זה מאוד מרגיז אותי שאנשים מאשימים את כלי ה־AI בטעויות, כי בסוף זו האחריות שלך לעשות את הבירורים והבדיקות. להאשים מודל שפה זה לא להבין איך הוא עובד, לא להבין מה זה כלי סטטיסטי בכלל וגם להתנער מתפקידך לבדוק את הדברים".

הרבה בעלי מקצוע משתמשים בכלי בינה מלאכותית, אז למה אנחנו שומעים בעיקר על פאדיחות של עורכי דין?
"במקרה של עורכי דין יש את עקרון פומביות הדיון - כל ההחלטות ופסקי הדין של בתי המשפט חשופים לציבור, חוץ כמובן מהליכים שהם באיסור פרסום. השופטים גם מקצועיים בתחומם והם מכירים גם את פוטנציאל הצרות של בינה מלאכותית, אז ישר קופץ להם 'רגע, יש פה פסק דין שהוא לא מסתדר לי'. אם זה הליך ציבורי שכולנו חשופים אליו, אז אי אפשר לברוח מזה".

"המקרים שמתפרסמים הם רק קצה הקרחון"

החשיפות הללו לא נעלמות מעיניה של לשכת עורכי הדין, שפועלת כדי להנחות את עורכי הדין איך להתנהל נכון בשימוש בבינה מלאכותית ואף מפעילה סנקציות נגד אלו שלא מתנהלים בהתאם לרמה המקצועית הנדרשת מעו"ד. "המקרים שמתפרסמים הם רק קצה הקרחון", אומר עו"ד מנחם מושקוביץ, יו"ר ועדת האתיקה הארצית בלשכת עורכי הדין. "אנחנו מקבלים עשרות תלונות בעניין ורואים את הנושא הזה בחומרה. זה דבר חדש שצריך להיות מטופל מההתחלה בחומרה הראויה".

עו''ד מנחם מושקוביץ, יו''ר ועדת האתיקה הארצית בלשכת עורכי הדין. ''מקבלים עשרות תלונות'' / צילום: פרטי
 עו''ד מנחם מושקוביץ, יו''ר ועדת האתיקה הארצית בלשכת עורכי הדין. ''מקבלים עשרות תלונות'' / צילום: פרטי

לשכת עורכי הדין נדרשה לנושא השימוש ב־AI לפני כשנה, אז פרסמה לראשונה "גילוי דעת" של צוות מקצועי שכלל מומחים מתחומי המשפט והטכנולוגיה באשר לשימוש עורך הדין באמצעים טכנולוגיים מבוססי בינה מלאכותית ובחשיפות האתיות האפשריות, כמו הפרת חיסיון לקוח והסתמכות על מידע שגוי. בין היתר נקבע, כי על עורכי הדין מוטלת החובה לבדוק את כל האסמכתאות שמוצגות לו על ידי הבינה המלאכותית "באופן אקטיבי ופרטני".

עו"ד מושקוביץ מספר כי "מאז שפורסם גילוי הדעת התחיל מבול של פניות עם בעיות שהתעוררו בעקבות השימוש בבינה המלאכותית. הוצפנו בפניות. קיבלנו החלטה שנעמיד לדין משמעתי כל מי שיעשו שימוש לא נכון בכלים".

אז איך אתה מסביר את זה שבכל זאת עורכי דין נופלים בפח הזה בתדירות גבוהה כזו?
"רשלנות, רשלנות או רשלנות. זה מה שנקרא תופעת העתק-הדבק. עו"ד שלא בודק את המקורות שהוא מצטט מהם פשוט מתרשל".

מעבר לעורכי הדין - גם השופטים עלולים להסתבך בעקבות השימוש ב־AI. בהנהלת בתי המשפט לא מתעלמים מפוטנציאל ההסתבכות הזאת ולאחרונה הפיץ מנהל בתי המשפט, השופט צחי עוזיאל, דף מידע לשופטים בדבר שימוש אחראי בבינה מלאכותית ברשות השופטת. בנוסף, מקיימת הנהלת בתי המשפט "תוכנית הכשרה בבינה מלאכותית לשופטים ורשמים" וכן הוקם צוות מערכתי שיעסוק בהיבטים האתיים והמשפטיים של שימוש בבינה מלאכותית ברשות השופטת.

נשיא ביהמ"ש העליון, השופט יצחק עמית, התייחס לאחרונה בכנס לשכת עורכי הדין לסכנות הטמונות בשימוש בבינה מלאכותית בזירה המשפטית, ובין היתר אמר כי "הפוטנציאל הרב שיש בכלי הבינה המלאכותית טומן בחובו גם סיכונים ואתגרים משמעותיים. האתגרים שנלווים לטכנולוגיה בסוגיות כמו הגנה על פרטיות, שמירה על אתיקה מקצועית, ואמינות המידע - מחייבים לאמץ גישה שקולה ומבוססת ושימוש אחראי. חשוב שנדע לא רק להשתמש בכלים החדשים, אלא גם להציב להם גבולות ברורים, מתוך מחויבות לעקרונות היסוד של המקצוע.

יצחק עמית בכנס לשכת עורכי הדין בשבוע שעבר. ''הבינה המלאכותית מתקשה להתמודד עם מציאות משפטית מורכבת'' / צילום: באדיבות לשכת עורכי הדין
 יצחק עמית בכנס לשכת עורכי הדין בשבוע שעבר. ''הבינה המלאכותית מתקשה להתמודד עם מציאות משפטית מורכבת'' / צילום: באדיבות לשכת עורכי הדין

"תפקידם של עורכי הדין לא יכול להיות מוחלף, ואסור שיהיה מוחלף בבינה מלאכותית - שכידוע לנו, עדיין מתקשה להתמודד עם מציאות משפטית מורכבת; ולעתים "נופלת" להמצאות פרי הרהורי לבה. לא בכדי בית המשפט העליון הזהיר בחודשים האחרונים את ציבור עורכי הדין מפני שימוש בלתי מבוקר בבינה המלאכותית. אל לעורך הדין להתפרק משיקול דעתו ולהעבירו לידי הבינה המלאכותית".

ואחרי כל זה, עו"ד צידון כהן, בקש לסיים במסר חיובי. "זה באמת כלי מדהים ולא צריך לפחד ממנו", הוא אומר. "להפך. ברגע שלומדים לעבוד עם כלי AI אחוז הדיוק הוא כמעט 100% ובוודאי יותר מדויק מבן אדם שיכול להיות עייף, לא מרוכז או בא עם מצב רוח רע לעבודה. הכלים האלה בסופו של דבר מאוד מדויקים כשיודעים להשתמש בהם בצורה נכונה".