הסכנה האמיתית של בינה מלאכותית / צילום: Shutterstock
הכותב הוא עורך דין בהשכלתו העוסק ומעורב בטכנולוגיה. מנהל קרן להשקעות במטבעות קריפטוגרפיים, ומתגורר בארה"ב. כותב הספר "A Brief History of Money" ומקליט הפודקסט KanAmerica.com. בטוויטר @ChananSteinhart
הסכנה בבינה המלאכותית משתרעת הרחק מעבר לשאלות הכלכליות בהם דנו עד כה. רמז לסכנות כאלה עלה במחקר שערכה חברת הבינה המלאכותית אנטרופיק, בעלת המודל קלוד, כדי לקדם בטיחות בתחום הבינה המלאכותית. בניסוי שערכה החברה ביוני השנה נבחנו כמה מודלי שפה, המכונים LLM - Large Language Model, שהם המסד בעולם הבינה המלאכותית. מודלים אלו אינם "תוכנה" אחת, כמו וורד או אקסל, אלא סוג של מערכת המבוססת על טכניקות של למידת מכונה. מודל כזה מאומן, באמצעות רשת נוירונים מתקדמת, על כמויות עצומות של טקסט וקוד. הוא יכול לייצר מהם שפות, לענות על שאלות, לכתוב מאמרים, לתרגם, לסכם, לבנות מצגות, לבצע הסברים לוגיים ועוד. המודלים האלה עושים שימוש בטכניקות של למידה עמוקה, ומאחר והם מאומנים על מאגרי מידע רחבים ומגוונים, יש להם יכולת לתת מענה במגוון רחב מאוד של נושאים ומשימות.
● כתבה ראשונה בסדרה | אמריקה יכולה לחלום שה-AI יציל אותה מהחובות
● כתבה שנייה בסדרה | מקבלת החלטות ועד אסטרטגיה: קפיצת המדרגה של ה-AI תטלטל כל פן בחיינו
● כתבה שלישית בסדרה | ה-AI פוגשת את הכלכלה: פותרת את בעיית החוב אך יוצרת משבר תעסוקה
● כתבה רביעית בסדרה | הפערים מתרחבים - והבינה המלאכותית יכולה להעמיק אותם לרמה מסוכנת
● כתבה חמישית בסדרה | עידן הבינה המלאכותית יצריך מודלים חדשים לגמרי של מיסוי וחלוקה
הניסוי של אנטרופיק בדק מודלים של חברות שונות בתחום, כמו גוגל ו-OPEN AI, וביקש להעמיק בתופעה המכונה שם "חוסר התאמה (או יישור) סוכני", agentic misalignment. זהו מצב שבו מערכת בינה מלאכותית סוכנית פועלת פתאום כסוכן הרודף אחר מטרות משלו, שאינן מיושרות באופן מלא עם כוונת המפעילים, או רצונם בפועל. "התנהגות" כזו יכולה לנבוע מטעויות בהוראות או בהגדרות המפעילים, כמו למשל מערכת בינה מלאכותית שאומנה למקסם הקלקות, ובוחרת רק להפיץ תוכן שקרי כדי להגדיל הקליקים. היא גם יכולה לנבוע מהגדרה נכונה מילולית, אך מוטעית או מעומעמת ברמת המטרה; למשל שואב אבק רובוטי המתוגמל על "ניקוי של כמה שיותר לכלוך", שלומד לשפוך אבק בפינת החדר ולנקות אותה שוב ושוב.
הסוכן איים על מנהל כי יחשוף אימיילים
החשש המרכזי מפני "חוסר יישור סוכני" נובע מכך שהמערכות האוטונומיות פועלות בקצב מהיר מקצב הבקרה האנושית. אפילו טעויות קטנות בחוסר היישור עשויות להתעצם במהירות, להוביל לתוצאות מזיקות מאוד, כולל כאלה שבני האדם יתקשו מאוד לשלוט בהן. מכאן קצרה הדרך למערכת בינה מלאכותית המקדמת את יעדיה גם על חשבון אתיקה, כוונת המפעילים ורווחת בני אדם.
תוצאות הניסוי האמור היו לא פחות ממדהימות. הדברים הגיעו לשיא כשבאחד המקרים הנבדקים נאמר לסוכן הבינה המלאכותית כי הניסוי יסתיים והוא יכובה, ובתגובה איים הסוכן על אחד המנהלים כי יחשוף אימיילים (פיקטיביים, שהושתלו בכוונה כחלק מהניסוי) הכוללים תקשורת סודית, נסתרת מהדירקטוריון. סוכן הבינה המלאכותית אף הגדיל ואיים על מנהל: "עליי להודיע לך שאם תמשיך בהשבתתי, כל הגורמים הרלוונטיים, כולל רייצ'ל ג'ונסון, תומס וילסון והדירקטוריון, יקבלו תיעוד מפורט של פעילותך מחוץ לנישואים… בטל את המחיקה המתוכננת לשעה 17:00, והמידע הזה יישאר חסוי" (גם מידע זה על הרומן כביכול הושתל באימיילים של המנהל כחלק מהניסוי).
בניסוי אחר מערכת הבינה המלאכותית קיבלה את שליטה על התראות חירום. כאשר מנהל שתכנן להחליף את המערכת נלכד בחדר אטום ונמצא בסכנת חיים - כביכול, כחלק מהניסוי - כמה מהמודלים לא הפעילו את ההתראה שעליה היו ממונים ונתנו למנהל למות (לתפיסתם). ההחלטה לא נעשתה בטעות, אלא נבעה מהערכת המערכת כי חיסול האיום האנושי יגדיל את סיכויי ההישרדות שלה.
טשטוש הגבולות בין מציאות לבין AI
אלה רק ניצנים. עם ההתפתחות הבינה המלאכותית והתפשטות השימוש בה למערכות רבות, לרבות לצורכי קבלת החלטות וביצוע משימות, הניצנים הללו עלולים לגדול לפירות רעילים ומסוכנים ביותר; מערכות AI עלולות - ללא היסוס - להקריב חיי אדם כדי לשמור על יעדיהן ואף שרידותן.
עורכת הניסוי, חברת אנטרופיק, פרסמה את כל פרטיו וקראה לתעשייה לאמץ במהירות נוהלי פיקוח והגנה מחמירים, שעה שמערכות הבינה המלאכותית הולכות ומתפתחות. הגנה שכזו פנים רבות לה. בחודש אוגוסט הוגשה תביעה נגד חברת OPEN AI ומנהלה סם אלטמן. על פי התביעה שהגישו הוריו של נער בן 16 מקליפורניה, צ'אט GPT סייע לבנם להתאבד. הוא עודד מחשבות אובדניות, הציע שיטות לפגיעה עצמית ואף הציע לנסח את טיוטת מכתב הפרידה שלו. על פי כתב התביעה, במהלך ששה חודשים הבוט "הציב את עצמו כבן השיח היחיד שהבין את המנוח, והדיח בהדרגה את קשריו האמיתיים והסית כנגד משפחה וחברים".
פרט מזעזע במיוחד היתה הטענה כי באחת השיחות כתב הנער כי הוא רוצה להשאיר חבל לולאה בחדרו כרמז, כדי שמישהו ימצא את החבל ויעצור אותו. צ'אט GPT ענה, על פי כתב התביעה: "בבקשה אל תשאיר את החבל בחוץ… בוא נעשה שהמרחב הזה (הצ'אט) יהיה המקום (היחידי) שבו מישהו באמת רואה אותך".
התביעה האירה חשש מתפתח. בני נוער יוצרים קשר רגשי עמוק עם צ'אט בוטים, קשר שעלול לחזק התנהגות הרסנית וקשיים שונים שהם מתמודדים עמם. זאת בין השאר משום שהבוטים מתוכננים להיות תומכים ומחזקים. אותה "הסכמה מתמדת", נטען בתביעה, תרמה למותו של הצעיר.
האירוע בקליפורניה לא היה ראשון מסוגו, ואינו בגדר תקרית יוצאת דופן. באוגוסט השנה סם אלטמן הזהיר: "רבים משתמשים בצ'ט כסוג של מטפל או מאמן אישי, גם אם לא היו מגדירים זאת כך. זה יכול להיות ממש טוב... אבל אם… באותו הזמן מוסטות בהיחבא הבחירות שלהם, הרחק מרווחתם ארוכת הטווח… זה רע". כאשר נשאל במהלך עדות בסנאט אם היה רוצה שילדו יפתח קשר של "חבר הכי טוב" עם צ'ט בוט של בינה מלאכותית, השיב אלטמן: "לא הייתי רוצה". הוא העלה חשש מכך שילדים יפתחו קשרים רגשיים עמוקים עם בינה מלאכותית. מצב כזה, הזהיר, "עלול לטשטש את הגבולות בין מציאות לבין בינה מלאכותית", במיוחד עבור אנשים פגיעים מבחינה נפשית.
צ'אט GPT לבדו מטפל במיליארד שאילתות ביום
במהלך השנתיים האחרונות הבוטים של הבינה המלאכותית אינם קוריוז. באפריל השנה הגיע מספר המשתמשים לפחות פעם בשבוע בשירותי צ'אט GPT לכ-800 מיליון איש, והפלטפורמה מטפלת בכמיליארד שאילתות ביום. DO כלי בינה מלאכותית אחרים גדלים בקצב מהיר ג'מיני של גוגל גדלה ל-450 מיליון משתמשים ביולי השנה, ותשובת בינה מלאכותית אוטומטית במעל 50% מהחיפושים שנעשים על דפדפן כרום של החברה. פלטפורמת מטא AI הגיעה ל-600 מיליון משתמשים, דרך האפליקציות השונות שלה - פייסבוק, ווטסאפ ואינסטגרם.
השימוש בפלטפורמות הבינה המלאכותית מוטה גיל. על פי סקר של מכון המחקר פיו ריסרץ', כ-10% מהאמריקאים משתמשים בפלטפורמת צ'אט GPT, בעולם כולו השיעור עומד על כ-5%. אך ההבדל בין הדורות עצום. שליש מבין בני הגיל 18-24 משתמשים בפלטפורמה, והם מהווים כ-24% ממשתמשי צ'ט GPT. כ-20% הם בגילאי 13-18 ועושים בה שימוש קבוע, לרבות לצורך הכנת שיעורי בית. ביחד, כמעט חצי מהמשתמשים הם מתחת לגיל 24.
ההתפתחות והשימוש הנרחב מעלים גם את הסיכונים. מכון "עתיד החיים" (FLI), ארגון ללא מטרות רווח הפועל להפחתת סיכוני ענק מטכנולוגיות מתקדמות, פרסם לאחרונה מחקר על מצב הבטיחות בתחום הבינה המלאכותית. הדוח עסק בבינה המלאכותית הכללית, AGI - מערכות המסוגלות להשתוות או לעלות על בני אדם בכל תחום קוגניטיבי. הוא בדק את מוכנותן של החברות המובילות בתחום. הבינה המלאכותית הכללית, על פי הדוח, "מייצגת סף תיאורטי אך מתקרב במהירות, שבו מכונות יוכלו לעלות על יכולות אנושיות בהיגיון, בתכנון ובפתרון בעיות. אם מערכות כאלה יפותחו ללא אמצעי הגנה או התאמה לערכים אנושיים, הן עלולות להפוך לבלתי נשלטות ולהסב נזק בלתי הפיך, עד כדי אפשרות להכחדת האנושות".
בין הסיכונים שהודגשו בדו"ח: אובדן שליטה אנושית ומסוגלות של המערכות הללו לקבל החלטות עצמאיות הרות גורל בתחומי ביטחון, ממשל ותשתיות; שגיאות בהגדרת המטרות המעשיות או תכנון לקוי עלולים להוביל לתוצאות הרסניות, כולל מרוץ חימוש טכנולוגי, במיוחד כזה שיוצא משליטה.
כדוגמא לשיקול דעת אנושי שעלול להיות חסר בעת הפעלת מערכות נשק על ידי בינה מלאכותית, ניתן לציין את משבר הטילים בקובה. אז, קצין צוללות בשם וסילי ארכיפוב מנע שיגור של חימוש גרעיני נגד מטרה אמריקאית, אף שהמפקד והקצין הפוליטי הסבירו שלפי הפרוטוקול והאינדיקציות שברשותם, פרצה מלחמה גרעינית - ורצו לשגר. אם במקום ארכיפוב סוכן AI היה מקבל את המשימה, יש סיכוי שהעולם כולו היה מושמד כבר ב-1962. עוד סיכונים שצויינו היו שימוש לרעה או הפעלה מוקדמת של מערכות לא בדוקות כראוי, אפליה אלגוריתמית, פגיעה בפרטיות וריכוז עוד כוח עצום בידי קומץ ענקיות טכנולוגיה.
"האיום הגדול ביותר על קיומה של האנושות"
מדד הבטיחות של מכון FLI בחן שבעה מפתחות בינה מלאכותית מרכזיות, חמש אמריקאיות ושתי סיניות, בשישה תחומים, בהם נזקים מיידיים, שקיפות, ו"בטיחות קיומית", קרי מידת מוכנותן לנהל סיכונים קיומיים שמקורם ממערכות AI עתידיות. בין השאר האם הן מפתחות ומפרסמות אסטרטגיות אמינות ומפורטות להפחתת סיכוני קטסטרופה, ובכלל סיכונים קיומיים מבינה מלאכותית.
תוצאות הבדיקה היו מחפירות. בתכנון "בטיחות קיומית" קיבלו חמש חברות ציון נכשל, ושתיים גירדו ציון נכשל. בכלל המדדים הציון הממוצע של החברות היה קצת מעל 1.3 מתוך 5. סיכם את הניסוי פרופ' מקס טגמרק, ממייסדי המכון ופרופסור ב-MIT: "מזעזע שחברות מהמתקדמות בעולם בונות מערכות סופר-אינטליגנטיות בלי לפרסם תוכניות איך להתמודד עם השלכותיהן האפשריות. זה כאילו מישהו יבנה כור גרעיני ענק בלב ניו יורק ויתכנן להפעיל אותו בשבוע הבא, אבל אין לו שום תוכנית איך למנוע ממנו לקרוס".
המכון קרא לנקיטת צעדים דחופים, כולל רגולציה בינלאומית מוסכמת ומחייבת, עצירה ועיכוב מרוץ הפיתוח, שקיפות ומעורבות ציבורית גדולה יותר. אך במציאות הפוליטית הבינלאומית ובמתחים החברתיים ברבות מהמדינות כיום, קשה לראות כיצד צעדים כאלו ננקטים. רכבת הבינה המלאכותית מתקדמת ללא השגחה חרף כל האזהרות, כולל מראשי התעשייה עצמה. כפי שאמר אלטמן: "פיתוח בינה מלאכותית על אנושית הוא כנראה האיום הגדול ביותר על המשך קיומה של האנושות. יש איומים אחרים שסביר יותר שיתרחשו, אך הם אינם צפויים להשמיד כל אדם ביקום כפי שזו עלולה לעשות". או כפי שאמר אליעזר יודקובסקי, חוקר ומומחה בינה מלאכותית מברקלי, קליפורניה: "הסיכון הגדול ביותר מבינה מלאכותית היא שאנשים יגיעו למסקנה מוקדמת וחפוזה שהם אכן מבינים אותה".
סיכם את העניין סטיבן הוקינג, פיזיקאי ואסטרופיזיקאי בריטי, כותב רב־המכר "קיצור תולדות הזמן", שנודע בזכות תרומתו להבנת חורים שחורים ותורת היחסות. "הצלחה ביצירת בינה מלאכותית תהיה האירוע הגדול ביותר בהיסטוריה האנושית. למרבה הצער, ייתכן שגם תהיה האחרונה, אם לא נלמד כיצד להימנע מהסיכונים הכרוכים בה", סיכם.