איך הבינה המלאכותית עובדת? גם המדענים לא תמיד יודעים

ד"ר נדב כהן מאוניברסיטת תל אביב מסביר איך קורה שגם המדענים שתכתנו את הבינה המאכותית לא יודעים להגיד איך היא פועלת ואילו סכנות נובעות מכך, ומצהיר: "עד שלא תהיה לנו הבנה יסודית של מה שקורה שם, לא נוכל לתת לחייהם של אנשים להיות תלויים ב–AI" ● כתבה חמישית בסדרה

קרן צוריאל-הררי | 30.09.2023

הקופסה השחורה של ה–AI / צילום: Shutterstock

הקופסה השחורה של ה–AI / צילום: Shutterstock

אודות הפרויקט "בחזית ה-AI"

כולם מדברים על בינה מלאכותית, אבל כמה מאתנו באמת אימצו אותה לחייהם? בשבועות האחרונים יצאנו למסע בין כמה מהמוחות החריפים והמובילים בתחום, וביקשנו מהם לסייע לנו להרים את מכסה המנוע של הטכנולוגיה המהפכנית.

אנחנו שמחים להגיש לכם מסע בן עשרה פרקים אל רזי ה-AI, שבו נחקור את התופעה ובעיקר נמפה את ההיבטים היישומיים שלה. בכל שבוע נביא לכם פרק שעומד בפני עצמו, אך יש משמעות גדולה גם לאפקט המצטבר. בואו, יוצאים לדרך. 

אמ;לק

גם מי שבונים מערכות בינה מלאכותית לא מצליחים כרגע לצפות את התוצאות שלהן. ד"ר נדב כהן מביה"ס למדעי המחשב באוניברסיטת תל אביב מסביר כי גם אם יש הבנה של תהליכים בודדים ונפרדים, כרגע אין לנו הבנה כוללת והוליסטית של פעולת המכונות הללו. הוא בין החוקרים הבולטים שמנסים לפתור זאת, והתקווה היא שכאשר תושג הבנה כזו יהיה גם ניתן להבטיח שהמערכות האלה בטוחות יותר. עד אז הוא אומר, האימוץ של בינה מלאכותית יהיה בעיקר בתחומי צרכנות ופנאי, בהם מחיר הטעות אינו גבוה. ביישומים שחיי אדם תלויים זה עוד ייקח זמן, מרפואה ועד נהיגה אוטונומית.

208,168,199,381,979,984,699,478,633
,344,862,770,286,522,453,884,530,548,425,639,456
,820,927,419,612,738,015,378,525,648,451,698,519
,643,907,259,916,015,628,128,546,089,888,314,427, 129,715,319,317,557,736,620,397,247,064,840,935

זהו מספר המהלכים האפשריים בגו (Go), משחק סיני עתיק בן כ־4,000 שנה שבמרכזו לוח ועליו רשת של 19X19 קווים. את הכלים מניחים בהצטלבויות של הקווים - כך שישנם 361 מיקומים אפשריים לעומת 64 משבצות בלבד בלוח שחמט. שחקן אחד מקבל 180 אבנים לבנות, השני מקבל 181 אבנים שחורות (השחור תמיד מתחיל), והם מציבים אותן על הלוח במטרה להקיף וללכוד אחד את האבנים של השני. אבן שמונחת לא תוכל לזוז ממקומה. זהו משחק אסטרטגי שבו הכללים פשוטים ובדיוק בגלל זה יש כל כך הרבה אופציות משחק: 10170 במשחק גו, לעומת 10123 במשחק שחמט.

עוד בסדרהלכל הכתבות

הצג עוד

משחקי אסטרטגיה כמו גו ושחמט תמיד עניינו את מפתחי הבינה המלאכותית (AI) אבל לרוב התוכנות שפיתחו היו ברמה של שחקן בינוני. הן התבססו בדרך כלל על עצי החלטה, שהתקשו להכיל כל כך הרבה אופציות משחק מורכבות או לנבא מהלכים עתידיים. אלא שבעשור האחרון הגיע ילד חדש לשכונת ה-AI, רשתות נוירוניות עמוקות (Deep neural networks), שאיפשר לתקוף את אתגר משחקי האסטרטגיה ממקום חדש. רשתות נוירוניות ממודלות כמו המוח האנושי, והן מסוגלות ללמוד לזהות דברים שונים, וליישם את מה שלמדו על מידע חדש שהן פוגשות.

DeepMind, מעבדת פיתוח שהוקמה בלונדון ב-2010, השתמשה ברשתות נוירוניות כאלה כדי לאמן את המודל שלה ללמוד מהלכי גו. תחילה אימנו את התוכנה שלהם, שכונתה AlphaGo, על משחקים שאנשים שיחקו בעבר. לאחר מכן השתמשו בטכנולוגיות למידה נוספות כדי שהמכונה תשחק מול עצמה ותשתפר עוד, ולבסוף היא התאמנה גם במשחק מול השחקנים הטובים בעולם, כמו פאן חוּי, שחקן צרפתי־סיני שהיה אלוף אירופה שלוש פעמים.

במרץ 2016, במלון ארבע העונות בסיאול, AlphaGo שיחקה מול אלוף העולם 18 פעמים, לי סדול הדרום קוריאני בן ה-33. רוב רשתות הטלוויזיה הקוריאניות שידרו את המשחק, בו צפו גם 60 מיליון סינים. בנוסף DeepMind שידרה את המשחק בשידור חי ביוטיוב ל-100 אלף צופים בעולם דובר האנגלית. בחדרים הסמוכים לחדר בו שיחקו סדול ו-AlphaGo ישבו מאות עיתונאים ומומחים לגו וניתחו את המשחק.

לי סדול במשחק גו מול התוכנה AlphaGo. מהלך לא צפוי שהוביל לניצחון / צילום: Associated Press, Lee Jin-man

 לי סדול במשחק גו מול התוכנה AlphaGo. מהלך לא צפוי שהוביל לניצחון / צילום: Associated Press, Lee Jin-man

התחרות כללה חמישה משחקים. במשחק השני AlphaGo בחר במהלך 37 לעשות פעולה לא צפויה, מהלך שהיה לו סיכוי של 1 ל־10,000 להצליח. "זה מהלך מאוד מוזר", "חשבתי שזו טעות", אמרו הפרשנים. כולם היו בהלם, כולל לי סדול. הוא עזב את החדר לרבע שעה, מתלבט כיצד להגיב. אף אחד לא הבין מה פתאום AlphaGo עושה את המהלך הזה; מדובר במהלך לא הגיוני, לא מוכר והתוכנה לא תוכנתה לבצע אותו. במילים אחרות, AlphaGo ניתחה את מצב הלוח והחליטה שהמהלך החריג יהיה מהלך מנצח - וצדקה. AlphaGo ניצחה את אלוף העולם בארבעה מתוך חמשת המשחקים. "הופתעתי", אמר לי סדול לתקשורת. "אין לי מילים. חשבתי שזו רק מכונה שמבוססת על חישובי הסתברות. כשראיתי את המהלך הזה שיניתי את דעתי. אין ספק, AlphaGo יצירתית".

האירוע הזה הראה שבינה מלאכותית יכולה להביס את המומחים הגדולים בתחומם, אך בדרך נחשפה גם חולשה שלה: היא מחוללת 'קסם' שאף אחד לא יודע להסביר. בסופו של דבר, אף אחד לא יודע איך רשתות נוירונים באמת עובדות. המדענים שתכנתו ולימדו אותן צופים בהן כעת, מופתעים מהיכולות שהן פיתחו ומנסים להסביר בדיעבד מה קורה בקופסה השחורה של הבינה המלאכותית.

 

בונים אך לא באמת מבינים

ד"ר נדב כהן מביה"ס למדעי המחשב באוניברסיטת תל אביב הוא אחד האנשים הבולטים שמנסים לפתור את החידה הזו ולהבין כיצד פועלת הבינה המלאכותית. הוא בעל תארים ראשונים בהנדסת חשמל ומתמטיקה בהצטיינות מהטכניון, אחריהם עשה מסלול ישיר לדוקטורט באוניברסיטה העברית, בהנחיית אמנון שעשוע - פרופ' למדעי המחשב, והמייסד של מספר חברות שנשענות בכבדות על בינה מלאכותית (מובילאיי, AI21 Labs והבנק הדיגיטלי one zero). משם כהן המשיך לפוסט דוקטורט בביה"ס למתמטיקה של אוניברסיטת סטנפורד, המדורג בצמרת העולמית בתחום. על מחקריו זכה בכמה מלגות ופרסים תחרותיים יוקרתיים, ובהם מענק המחקר של רוטשילד, מענק מחקר של גוגל ופרס מחקרי מטעם החברה. במקביל יש לו רגל בתעשייה כמייסד-שותף בחברת אימיוביט (Imubit), שמשתמשת בבינה מלאכותית כדי לתפעל באופן אוטומטי מפעלי ענק ובכך לייעל אותם ולצמצם את הזיהום בעד 40%. החברה מעסיקה כ־150 עובדים בישראל, ארה"ב ואירופה ולקוחותיה הם חברות גלובליות מתחומי התעשייה, זיקוק, נפט ומוצריהם.

תעודת זהות: ד"ר נדב כהן (39)

אישי: נשוי + 2, גר ביבנה
מקצועי: חבר סגל בכיר בבית הספר למדעי המחשב באוניברסיטת תל אביב ומדען ראשי (מייסד־שותף) בחברת אימיוביט
עוד משהו: אחד מחמישה אחים, כולם עוסקים בבינה מלאכותית ובהייטק

קבוצת המחקר שבראשה עומד כעת כהן שואפת להבין את היסודות התיאורטיים והאלגוריתמיים של למידה עמוקה. "אני מפתח הסברים מתמטיים שיסבירו למה זה עובד, וכתוצאה מזה, על בסיס התיאוריה, נוכל לפתח יכולות ושיטות חדשות או להבטיח שהיכולות הקיימות יהיו בטוחות וצפויות יותר", הוא מסביר. זהו מחקר על הלא-ידוע, כמו מהלך 37 של AlphaGo; על משהו שמדענים פיתחו ועושה פעולות חסרות תקדים באופן מרשים (בינה מלאכותית מכינה מצגות; מסכמת מסמכים; בונה תוכניות עסקיות; מייצרת דוחות כספיים; והופכת מילים לתמונות, אם לציין רק חלק) - אבל איש לא באמת יודע למה הדבר הזה עובד כשהוא עובד, איך אפשר לשלוט בו או להשתמש בו בצורה בטוחה ומפוקחת בעתיד.

ד''ר נדב כהן / צילום: שחר וזיו כץ סטודיו לוסידו

 ד''ר נדב כהן / צילום: שחר וזיו כץ סטודיו לוסידו

כהן משווה זאת לידע שיש לנו על תעופה. "תעופה זו טכנולוגיה קריטית. מיליוני אנשים טסים כל יום, החיים שלהם תלויים בזה, ויש לנו תיאוריה מאוד ריגורוזית (מדוקדקת) מאחורי זה. זה לא המצב ב־AI ועד שלא תהיה לנו הבנה יסודית של מה שקורה שם, לא נוכל לתת לחייהם של אנשים להיות תלויים בה".

כלומר הבינה המלאכותית עושה משהו שאנחנו לא מבינים ב־100%.
"נכון, חוץ מזה שאת יכולה להקטין את ה-100%, אנחנו לא מבינים גם הרבה פחות. יש המון שאנחנו לא מבינים. לפני עשר שנים הייתי אומר שאנחנו לא מבינים כמעט שום דבר אבל בעשור האחרון, עם טכנולוגיות הלמידה העמוקה (Deep learning) הייתה התקדמות גדולה, אז היום אנחנו מבינים מהן השאלות הגדולות, יודעים לענות עליהן באופן מופשט ולהדגים את הממצאים. הייתה התקדמות, אבל יש עדיין דרך לעשות".

סליחה, אבל זה לא כל כך ברור. איך ייתכן שאדם בנה משהו והוא לא מבין איך זה עובד? זה כאילו שתבנה טרקטור ולא תבין איך הוא נוסע.
"זו שאלה טובה, והשאלה היא בעצם מה זה אומר 'להבין'. מה המשמעות של הבנה. יש לנו יכולת לבנות AI, אז אם זו הבנה - אנחנו כן מבינים. אני מגדיר הבנה כיכולת לצפות תוצאות של ניסויים. ושם כרגע כמעט כל מה שאנחנו יודעים מבוסס על ניסוי וטעייה, אינטואיציה וחוכמת המונים.

רכב אוטונומי. ''לא בנוי לקבל תאונות של אלגוריתם'' / צילום: Associated Press, Terry Chea

 רכב אוטונומי. ''לא בנוי לקבל תאונות של אלגוריתם'' / צילום: Associated Press, Terry Chea

"נניח שאני אבנה איזושהי מכונה אלקטרונית גדולה מאוד על ידי חיבור של יחידות אלקטרוניות קטנות. אחרי שאני מחבר אותן אני לוקח צעד אחורה ואני רואה שיש לי איזו מן מכונה ענקית שמורכבת ממיליארד יחידות קטנות. את התנהגות המיקרו של כל חלק קטן אני מבין, אבל את התנהגות המאקרו של כל המכונה? לא בהכרח. זה כמו שאני יכול להבין אטומים ואת התא בגוף. האם זה אומר שאני מבין את הגוף כולו? לא. הבנה של בינה מלאכותית היא ברובה הבנה סטטיסטית, כלומר כשמסתכלים על המכלול, על התהליך כולו, רוצים לאפיין אותו באופן סטטיסטי ולהבין אותו כמקשה אחת הוליסטית. כמו שנרצה להבין את גוף האדם".

לזהות חוקים ולצפות תוצאות

לחוקרי בינה מלאכותית יש שתי דאגות גדולות. הראשונה היא שהם לא מבינים מה היא עושה, במובן העמוק. אם נרים את מכסה המנוע הווירטואלי של ChatGPT, למשל, נראה מיליוני מספרים מסתובבים במהירות, אבל אין לנו מושג מה המשמעות של זה. לא נוכל לזהות את החוקים שמנמקים ומסבירים את הפעולות שהוא מבצע וההחלטות שהוא מקבל. מדענים בנו אותו, אימנו אותו, אבל לא יודעים מה הוא עושה. השנייה נובעת מהראשונה, מכיוון שהם לא יודעים מה הוא עושה, הם לא מסוגלים לשלוט בו או לנווט אותו. כרגע הם עושים זאת בעיקר באמצעות ניסוי וטעייה.

המחקר של כהן עשוי לענות לדאגות הללו. הוא משתמש בכלים מתמטיים על מנת לפתח תיאוריה שתאפשר להסביר את תוצאות העבר של AI ולצפות תוצאות בעתיד. ברגע שתהיה תיאוריה כזו - מודל שאפשר להשתמש בו ולדעת שאם יתנו לו הוראה מסוימת הוא יגיב באופן מסוים - אפשר יהיה להשתמש ב-AI גם לתחומים שיש בהם יותר סיכונים וגם יותר סיכויים. כהן משתמש בשני כללי אצבע כדי להגדיר את התחומים שבהם AI תפרוץ קודם: הראשון - מדובר בתחום עשיר בדאטה, והשני - זהו תחום שבו מחיר הטעות לא נורא ואיום. בבריאות, למשל, יש הרבה דאטה ויש צורך בתרופות, ידע ושירותים מצילי חיים, אבל טעות עלולה לעלות בחיי אדם. לכן, הוא צופה שהכניסה של AI לבריאות תהיה איטית יותר.

ונהיגה אוטונומית?
"יש כאלה שטוענים שבטכנולוגיה הנוכחית נהג אוטונומי עושה פי מאה פחות תאונות מבני אדם. כלומר יהיו פחות תאונות אבל עדיין יהיו תאונות שייגרמו על ידי אלגוריתם ואנחנו לא בנויים לקבל את זה. זה מחסום. לכן יש תחומים שייקח ל-AI יותר זמן להיכנס אליהם ותידרש יותר עבודה קשה. מצד שני, בעולמות צרכניים, בדברים שהם פנאי וכיף, ומחיר הטעות בהם לא מאוד גבוה, AI תיכנס מהר יותר. אי אפשר להשוות את זה לאלגוריתם שמנתח בן אדם או מוכר לו תרופות".

מה זה אומר על היכולת שלנו להבין את ChatGPT?
"שאנחנו לא מבינים איך הוא מתכנן את התשובה שלו. אנחנו מבינים את החישובים שהוא עושה ואת הפרמטרים שהוא משתמש בהם. אבל יש 100 מיליארד פרמטרים שנקבעים על פי האינטרנט ואין לנו הבנה שתאפשר לנו לצפות את התוצאות".

זה מרגש וגם קצת מפחיד.
"כן, זה מרגש כי זו טכנולוגיה מאוד חזקה - למרות שקצת מגזימים בהתייחסות אליה. כרגע יש כאלה שטוענים ש-AI יכולה לעשות הכול, כל דבר שבני אדם עושים, ובלי להיכנס לשאלה אם זה נכון תיאורטית, מבחינה פרקטית זה נראה קצת יותר מדי אופטימי. ועם זאת, הפוטנציאל מדהים. AI כבר תורמת באופן מאוד משמעותי לעולם והפוטנציאל קדימה גדול הרבה יותר. אז חד משמעית, מה שקורה עכשיו עם מודלי השפה (שמאפשרים טכנולוגיות כמו ChatGPT, בארד, קלוד וכו', ק"צ) זו פריצת דרך והפוטנציאל עצום. יש סיכוי לא קטן שנסתכל על זה כמו על המהפכה התעשייתית".

למה?
"עד לאחרונה חשבנו שצריך בני אדם תבוניים בשביל לבצע משימות כאלה. זה כמו שאם האדם הקדמון היה רואה מכונה שמזיזה משהו זה היה נראה לו מטורף לגמרי, כי הוא היה מזיז הכול בעצמו. בעתיד נחווה אותו דבר ביחס למשימות קוגניטיביות".

אתה מצפה למצוא תיאוריה אחת גדולה שתסביר את התנהגות ה־AI, או תיאוריות שונות, שכל אחת תהיה רלבנטית ליישום אחר?
"זו שאלה טובה. במדידה חישובית קלאסית הייתה תיאוריה אחת גדולה הוליסטית של הכול, טופ-דאון, וזה לא בדיוק המצב בלמידה עמוקה. פה מתפתחות תיאוריות ספציפיות ולאט לאט, עם הזמן, אפשר לראות מוטיבים חוזרים בהרבה מהתיאוריות האלו. זה נותן תחושה שאלו תופעות כלליות. אז אנחנו פחות מחפשים היום מן תיאוריה של הכול".

ומה המרחק מפיתוח תיאוריה כזו לדעתך?
"הבעיה היא שזו מטרה נעה בגלל שההתפתחויות בשטח מאוד מהירות וכמות המשימות הולכת וגדלה. יש הישגים, אבל באיזשהו מקום הפער רק הולך וגדל".

משוק העבודה ועד תרחיש יום הדין: הסיכונים בבינה מלאכותית

התקווה היא שכאשר חוקרים יבינו איך בינה מלאכותית עובדת הם גם יוכלו לנטרל את הסיכונים שלה. עוד נקדיש כתבה מלאה לסיכונים, אבל בינתיים נבין מהם הסיכונים שמטרידים את ד"ר נדב כהן כמתמטיקאי. בגדול, הוא מזהה שלוש קבוצות של סיכונים. הראשונה הכי פחות מטרידה אותו. זו ה'עקירה הכלכלית' של אנשים שהבינה המלאכותית תייתר אותם כשתאייש במקומם את המקצוע שלהם ותיאלץ אותם להמציא את עצמם מחדש. "לאורך זמן הטכנולוגיה הזו גם תייצר מקצועות חדשים. יכול להיות שיהיה קצת כאב בתקופת המעבר אבל הסיכון הזה הוא לא סיבה לעצור התקדמות - אחרת היינו עדיין בתקופת האבן", הוא מסביר.

הסיכון השני הוא הפוטנציאל לשימוש עוין בטכנולוגיה, כאשר במאמץ קטן נגרם נזק עצום. "היום פצצה אטומית אחת יכולה לעשות נזק שבעבר נדרשו לו עשרת אלפים פצצות או יותר, אז ייתכן מצב שבו האקר או שניים יעשו נזק של 100 אלף האקרים".

הסיכון השלישי, שהכי מטריד אותו, הוא מה יקרה אם בינה מלאכותית תצא משליטה, לרבות השליטה של מי שהפעיל אותה. "זה כמו שריפה - ברגע שיש שריפה לא משנה אם היא התחילה מזדון או משטות כי למישהו נפל גחל של נרגילה. ויש סיכוי שמתישהו מישהו ידליק גפרור".

אתה חושב שאלה סיכונים ממשיים?
"הראשון כבר מציאותי ולשניים האחרונים עוד ייקח זמן. מצד שני, זה לא שיגיע טרמינייטור ויהרוג את כולנו. זה לא המצב. יש פער בין העולם הפיזי לעולם הווירטואלי והסיכונים עלולים להתממש בעולם הווירטואלי - כמו תוכנה זדונית שמשתוללת באינטרנט ואי אפשר לעצור אותה באמצעים הרגילים. אז נצטרך לנוע על הספקטרום שבין אפקטיביות מצד אחד, ולא להיות יותר מידי דיסרפטיביים מצד שני".

צרו איתנו קשר *5988