טכנולוגיה במקום ראש אמ"ן: האם זה מה שהיה יכול למנוע את הטבח של חמאס?

גופי המודיעין לא הצליחו להזהיר מפני 7 באוקטובר, וההנחה שהטכנולוגיה היא שעיוורה אותם הפכה לתפיסה רווחת • אך יש מי שדווקא סבור שאם AI הייתה גורם משמעותי בשולחן מקבלי ההחלטות, הדברים היו נראים אחרת: "אנחנו מדברים על כלי שאפשר לעשות איתו התייעצות אסטרטגית, לא רק תבניות דאטה" • איך המהפכה עדיין לא הגיעה לצה"ל?

האם ChatGPT היה מתריע מפני מתקפת הפתע של חמאס? / צילום: Shutterstock
האם ChatGPT היה מתריע מפני מתקפת הפתע של חמאס? / צילום: Shutterstock

אמ;לק

ככל שעוברים השבועות אנחנו נחשפים לעוד ועוד חומרים המעידים על המידע שהיה למודיעין הישראלי ערב 7 באוקטובר. המוח האנושי אומנם פספס ולא הצליח להשתחרר מהקונספציה ולחבר את הנקודות, אבל בימים שבהם הבינה המלאכותית משתלטת על העולם, שווה לבדוק מה היא הייתה אומרת אם רק היו שואלים אותה.

המסקנה ברורה: ב"יום שאחרי" צה"ל יצטרך לבחון כיצד לשלב את מערכות ה-AI בשולחן מקבלי ההחלטות.

ב-6 ביולי שלחה נגדת ב-8200 מייל שכותרתו "מוות בקיבוץ, ובכל מחיר". בו היא פירטה, כפי שנחשף בתוכנית "עובדה", על "אימון מטורף של שתי פלוגות נוח'בה". המידע היה נראה ערכי מאוד, עד שאחד הקצינים הבכירים הגיב: "התרגיל משוגע לגמרי… אך הוא דמיוני לחלוטין".

מלונות יוקרה, צוות הפקה וחומוס בדרכים: איך נראים ביקורי התמיכה של הסלבס בארץ
אוניברסיטת העילית שפיצחה את המורכבות של 7 באוקטובר
אנטישמיות, גניבה ספרותית והתפטרות: מי את קלודין גיי?

התכתבות זו בצירוף עדות התצפיתניות מנחל עוז שהתריעו על אירועים חריגים בקרבת הגבול מעלות את השאלה שלא מניחה את הדעת - האם המודיעין הישראלי היה יכול להתריע על אירועי 7 באוקטובר? האם, אילולא היינו שבויים בקונספציות, ניתן היה למנוע את הטבח המזוויע שביצע חמאס?

קשה לחשוב כיצד המוח האנושי יכול לשבור תפיסות מקובעות, אך בעולם כל כך מתקדם חייבים לשאול אם זה בדיוק המקום של הטכנולוגיה. רק כמה חודשים לפני המלחמה, במאי האחרון, כתבו תא"ל (מיל') איתי ברון וד"ר תהילה שוורץ־אלטשולר מחקר ראשוני בדיוק בנושא זה - "מקום ליד השולחן: האם ChatGPT יכול לשבור את הקונספציה?". במחקר, שנכתב עבור המרכז למורשת מודיעין והמכון לחקר המתודולוגיה של המודיעין, הם ניסו לבחון את המקום של הבינה המלאכותית הגרנטיבית במאמץ הצה"לי.

ד''ר תהילה שוורץ אלטשולר, המכון הישראלי לדמוקרטיה / צילום: איל יצהר
 ד''ר תהילה שוורץ אלטשולר, המכון הישראלי לדמוקרטיה / צילום: איל יצהר

"בערב יום הכיפורים מתכנסת הצמרת המדינית־ביטחונית של ישראל לדיון חירום סביב שולחנה של ראש הממשלה", נכתב במחקר. "ראש אמ"ן מציג את המידע ההתרעתי שהגיע בימים האחרונים. הוא פותח במידע ובהערכות שהעביר המלך חוסיין לראש הממשלה וממשיך בניתוח שורה של סימנים מטרידים נוספים. בסיום הסקירה שואלת ראש הממשלה (גולדה מאיר - נ"ט): האם תהיה מלחמה מחר? את התשובה שהשיב ראש אמ"ן ב־5 באוקטובר 1973 אנחנו מכירים היטב".

אלא שברון ושוורץ־אלטשולר החליטו לאתגר את הקונספציה - והחליפו את ראש אמ"ן דאז ב-ChatGPT של חברת OpenAI. ראש אמ"ן הזה חשב קצת אחרת וסיפק את התשובה: "יש היתכנות למלחמה בטווח הזמן הקרוב והסבירות למלחמה גבוהה יותר מזו של השלום".

בינה מלאכותית לצד קצינים

מלבד תרחיש יום כיפור, המחקר ערך שתי סימולציות נוספות. האחת עסקה במתקפה היפנית על פרל הארבור, שוב, באספקת מידע מודיעיני רלוונטי. השני עסק באירוע דמיוני של שיגור טיל קרקע־קרקע לעבר ישראל מסוריה בשנת 2014, כולל הזרמת ידיעות מודיעיניות בדיוניות. הם לא נתנו את כלל המידע "במכה", אלא ניהלו שיח עם המערכת, כפי שנעשה סביב שולחן הדיונים.

התזה העיקרית שעולה מהמחקר ברורה: המכונה לא יכולה להחליף באמת את אנשי המודיעין, אבל היא בהחלט צריכה לשבת סביב השולחן בשל ההבנות השונות שלה ובשל היכולת להצביע על הקונספציה. "אין לבינה המלאכותית את אותה התנגדות עיקשת", נכתב. "ההשערה שעולה מהסימולציות היא שהקונספציה נתפסת בידי ה-GPT כפרט מידע נוסף ולא ככזה שיש לו עדיפות על פרטי המידע האחרים. זאת, ככל הנראה, משום שדרך הניתוח שלו שונה מזו של חוקרים אנושיים שנזקקים למסגרת תפיסתית (קונספציה) כדי לברר את המציאות ולהבין אותה".

ככל שהתקדמו הניסיונות צמד החוקרים הבינו כי למערכת הבינה המלאכותית יש סגולות ויכולות חשיבה גבוהות. מובן שיש לה ליקויים, הטיות ואפילו מגבלות קשות בכל הקשור לתיאור של מציאות עדכנית. אך לדבריהם, זה לא השפיע על הסימולציות, מכיוון שלא נעשה שימוש ביכולת חיפוש המידע - אלא החוקרים סיפקו בעצמם את נתוני היסוד.

בשורה התחתונה, כאמור, החוקרים מציעים של-GPT יהיה מקום בשולחן לצד קציני צה"ל הבכירים. הם לא מתכוונים שזה יחליף את אמ"ן או את החוקרים בחטיבת המחקר, אלא שהקצינים יעשו בו שימוש להעשרת תהליך החשיבה שלהם. "בסופו של דבר, אם רוצים כלי לחשיבה אסטרטגית - המערכת לא יכולה להחליף לגמרי את האדם. אבל היא יכולה לעזור לנו לחשוב על העתיד", אומרת לגלובס שוורץ־אלטשולר, עמיתה בכירה במכון הישראלי לדמוקרטיה. "עם זאת, צריך לומר שבמקביל יש לתקן את תהליך קבלת ההחלטות האנושיות. המכונה לא תוכל לסייע אם לא יקשיבו לה".

​"צריך לזכור שהמידע המודיעיני שלנו הוא לא רק טקסט או ידיעות שאוספות התצפיתניות", מסבירה בראיון לגלובס ד"ר ענתבי, מנהלת תוכנית טכנולוגיות מתקדמות במכון למחקרי ביטחון לאומי (INSS). "מידע מודיעיני הוא הרבה יותר מורכב. אנחנו מדברים על איסוף המון שעות של שיחות, קשר, ויזואליות ועוד. צוואר הבקבוק כיום הוא עיבוד החומר הרלוונטי. תמיד צריך מקבל החלטות בקצה שמחליט אילו חומרים נכנסים למערכת, אז יש מצב שגם אם הייתה לנו מערכת כזו, הממצאים החשובים לא היו נכנסים אליה בזמן אמת. לאדם יש את הפוטנציאל שיכול לגרום למערכת כזו להצליח או להיכשל".

בינתיים בצה"ל ובגופי ביטחון רבים אחרים הבינה המלאכותית כבר מהווה יכולת משמעותית מאוד שמייחסים לה חשיבות רבה. צה"ל אוסף כמויות רבות של מידע, ונדרשת הדרך הטובה ביותר לעבד אותו. לכן בשנת 2022 הקימו בצה"ל לראשונה את מחלקת מידע ובינה מלאכותית באגף התקשוב, זאת מתוך הבנה של הגורמים הביטחוניים שיש צורך בגורם שידע לתכלל את החומרים ולבנות מפעלי כוח.

ולמרות זאת, שוורץ־אלטשולר מציינת שהבינה המלאכותית היוצרת היא צעד אחד קדימה. "אנחנו מדברים על מערכת שאפשר לעשות איתה התייעצות אסטרטגית. זה הרבה יותר מאשר תבניות בתוך הדאטה".

"לבינה מלאכותית קשה מאוד להסביר למה היא פלטה את המידע שהיא פלטה, ולכן נכנס כאן אלמנט שנקרא explainable AI, בינה מלאכותית שיודעת לנמק איך היא הגיעה לתוצאה שהיא הגיעה אליה", מסביר לגלובס אל"מ (במיל') יריב חסר, מנה"ל הפעילות בפאגאיה ישראל. חסר שירת בצה"ל 25 שנה בתפקידים שונים, שהאחרון שבהם היה רמ"ח מערכות בחיל האוויר. במסגרת תפקידו היה אחראי על הנדסת וארכיטקטורת מערכות, תקשורת, מערכות מידע בבור של החיל והטמעת טכנולוגיות בחיל.

יריב חסר, מנהל פעילות פאגאיה ישראל / צילום: שלומי יוסף
 יריב חסר, מנהל פעילות פאגאיה ישראל / צילום: שלומי יוסף

"נניח שהמערכת הייתה פולטת שיש סבירות של 80% שתהיה לחימה בעת הזאת. בכירי צה"ל היו יכולים לשאול מדוע היא חושבת ככה. ואז היא הייתה מנמקת: יש כאן אירוע ברמה של חטיבה, אחרי תקופה של שקט נוצר אירוע חריג ועוד. זה יכול להביא סט יכולות שלא קיים עד היום".

הטכנולוגיה עיוורה את צה"ל?

מלבד שאלת הבינה המלאכותית, שעוד נחזור אליה בהמשך, אחד הוויכוחים הציבוריים שתפסו נפח בישראל סביב מתקפת הפתע הרצחנית של מחבלי ארגון הטרור חמאס הייתה שאלת הטכנולוגיה בכלל. יש הטוענים כי הטכנולוגיה, החדשנות והקדמה דווקא עיוורו את צה"ל. כך לדוגמה, מרוב ההצלחה של כיפת ברזל - בצה"ל שכחו להרים את המשקפת או את העיניים ולראות מה קורה במציאות.

מנגד, יש הטוענים שמדינת ישראל לא הסתמכה מספיק על הטכנולוגיה. או במילים אחרות - צה"ל, בהיותו אחד מהצבאות המתקדמים ביותר בתחום הטכנולוגיה והחדשנות, יכול היה לייחס חשיבות אחרת לחלוטין לטכנולוגיה ולשנות את התפיסה הקיימת בפנים. כך, לא מעט מומחים מציעים להשתמש בבינה המלאכותית הגנרטיבית בדיוק בשביל זה.

"אני חושבת שטענת 'הטכנולוגיה עיוורה אותנו' היא בין המנותקת מהמציאות להזויה", מסבירה ד"ר לירן ענתבי. "זה ידוע שהיה פה מחדל ותקלה גדולים מאוד. אבל להאשים את הטכנולוגיה? כל תפיסת הביטחון של ישראל מאז הקמתה מבוססת על טכנולוגיה, זה משרת אותנו נאמנה. להאשים את הטכנולוגיה זה להסיר את האחריות מבני האדם".

"מה שכשל ב־7 באוקטובר הוא לא הסנסורים כשלעצמם - אלא תהליך קבלת ההחלטות והעיבוד", מסביר חסר. "יכולנו לסמוך יותר על טכנולוגיה. בעוד הצבא משקיע המון אנרגיה, משאבים ויכולות בצד של הסנסורים והטכנולוגיה כמו מכ"מים, יש מקום לשילוב רחב יותר של טכנולוגיה בעיבוד ובקבלת ההחלטות.

"הדוגמה הטובה ביותר היא בבינה המלאכותית - בעולמות הפיננסים אפשר להעריך את סיכוני האשראי בצורה טובה יותר מבני אדם. הבינה המלאכותית לא פועלת בצורה מוטה".

הטמעת המערכות תיקח עשור

ואחרי הכול, מתי נזכה לראות את הבינה המלאכותית היוצרת בצה"ל? חסר מסביר שתהליכי האימוץ של טכנולוגיות בצה"ל לוקחים זמן. "יש פה כמה שלבים. ראשית, אנחנו צריכים להראות את האפקטיביות של המערכת. לאחר מכן, צריך לשלב אותה בתוך צה"ל ולוודא שכל עושר המידע שיש בצבא יכול להתחבר למערכות האלו. לאחר מכן צריך לייצר ממנה תורת לחימה וגם להכשיר את החומר האנושי שיידע לתפעל אותה.

"מקצה לקצה, שילוב טכנולוגיה זה תהליך שיכול לקחת עשור, תלוי כמה היא מהפכנית. לדוגמה, F35 הגיע לישראל בדצמבר 2016, אחרי שהוא טס בארה"ב ארבע־חמש שנים והיה בפיתוח לפני כן במשך עשר שנים. פה בישראל לקח לנו עוד כשנה לאמץ אותו. יש פה אחריות מאוד גדולה, ואנחנו לא רוצים לאמץ משהו באופן שגוי, לכן צריך להיות זהירים באימוץ של טכנולוגיה. אנחנו רק בתחילתה של המהפכה".

ד"ר שוורץ־אלטשולר חוששת שבמקרה הזה תהיה ריצה עיוורת לעבר פיתוח הכלי. "לא צריך לפתח כלים בלב המלחמה, זה לא יעזור. אנשים מוצפים מאוד גם ככה. בשביל להכניס יכולת כזו של ממשק מאוד רגיש בין אנשים ומכונות, צריך הכשרה לאנשים ומכונות. מה שנדרש כאן הוא הטמעה של מערכת יחסים בין מכונה לאדם.

"אחת הבעיות שיש לצבא היא ההתמכרות לטכנולוגיה, משמע לאמץ טכנולוגיה כי היא טכנולוגיה. צריך לשאול מה ההקשר התרבותי בו אנו מאמצים את הטכנולוגיה, איך מלמדים אנשים להשתמש בטכנולוגיה".

מדובר צה"ל לא נמסרה תגובה.