האם המרוץ לבינה מלאכותית יכול לסכן את המין האנושי? אילון מאסק וכ-1,000 אנשי מפתח בתעשיית הטכנולוגיה מודאגים וחתמו על מכתב שמפציר להשהות את 'המרוץ המסוכן' לפיתוח בינה מלאכותית. "מערכות בינה מלאכותית עם אינטליגנציה אנושית-תחרותית יכולות להוות סיכונים עמוקים לחברה ולאנושות", נכתב שם.
● כך ניסה מאסק להשתלט על חברת הבינה המלאכותית הצומחת, ונכשל
● מרוץ הבינה המלאכותית: מיקרוסופט וגוגל יכינו לכם את המצגות ויענו למיילים
● אילון מאסק יוצא נגד ChatGPT: "יש לטכנולוגיה יכולות רבות - אבל גם סכנה רבה"
המכתב, שנשלח מטעם "מכון עתיד החיים" ומלבד מאסק חתום עליו גם המייסד שותף של אפל סטיב ווזניאק לצד בכירים רבים אחרים, קורא לכל מעבדות הבינה המלאכותית "להשהות מיידית ולמשך 6 חודשים לפחות את האימון של מערכות בינה מלאכותיות חזקות יותר מ-GPT-4" - הגרסה העדכנית ביותר של תוכנת מודל השפה שפותחה על ידי הסטארט-אפ האמריקאי OpenAI.
'מכון עתיד החיים' הוא ארגון ללא מטרות רווח שבסיסו בקיימברידג', מסצ'וסטס, העוסק בהסברה לצורך פיתוח אחראי ואתי של בינה מלאכותית. מייסדיו כוללים את החוקר מ-MIT מקס טגמרק ומייסד סקייפ, ג'אן טאלין. המכון הוביל לכך שבעבר מאסק ומעבדת הבינה המלאכותית דיפמיינד (DeepMind) שבבעלות גוגל הבטיחו לעולם לא לפתח מערכות נשק אוטונומיות קטלניות.
צ'טבוט הבינה המלאכותית הוויראלי, ChatGPT, הדהים את החוקרים ואת העולם ביכולתו לייצר תגובות כמו-אנושיות להנחיות המשתמש, וחולל מהפכה באופן שבו אנשים מתקשרים עם טכנולוגיה. עד ינואר, חודשיים בלבד מאז ההשקה, ChatGPT כבר היו לפלטפורמה עם 100 מיליון משתמשים פעילים חודשיים, מה שהפך אותה לאפליקציה הצרכנית הצומחת ביותר בהיסטוריה.
עם יכולות עיבוד השפה הטבעית המתקדמות שלו, ChatGPT מנצח על כמויות אדירות של נתונים מהאינטרנט, ויכול להבין ולהגיב לשאילתות מורכבות באופן שמרגיש אנושי ממש. GPT-4, ששוחרר בתחילת החודש, נחשב להרבה יותר מתקדם מקודמו GPT-3.
לדברי החתומים, מעבדות בינה מלאכותית "נתונות כרגע במרוץ שיצא משליטה לפיתוח של מוחות דיגיטליים חזקים יותר ויותר שאף אחד - אפילו לא היוצרים שלהם - לא יכול להבין, לחזות או לשלוט בצורה מהימנה". ומפצירים: "עלינו לשאול את עצמנו: האם עלינו לתת למכונות להציף את ערוצי המידע שלנו בתעמולה ואי-אמת? האם עלינו לפתח מוחות לא-אנושיים שעלולים לגבור עלינו במספר, בתחכום, בחדשנות, ובסופו של דבר להחליף אותנו? האם עלינו להסתכן באובדן שליטה על הציוויליזציה שלנו?".
וסיכמו: "אסור להשאיר החלטות כאלה למנהיגי טכנולוגיה לא נבחרים".
כבר מ-2008: חשש מאפוקליפסת בינה מלאכותית
כמי שידוע בחיבתו לאתגר טכנולוגי הופכי עולמות, מנכ"ל טסלה ו-SpaceX הוא גם אחד המייסדים המשותפים של OpenAI, אם כי הוא עזב את מועצת המנהלים שלה ב-2018 ואינו עוד בעל אינטרסים בחברה.
עוד ב-2014 צייץ מאסק: "שווה לקרוא את הספר בינת-העל של ניק בוסטרום. אנחנו חייבים להיות זהירים מאוד לגבי בינה מלאכותית. היא עלולה להיות מסוכנת יותר מנשק גרעיני". מאז הספיק מאסק למתוח ביקורת על OpenAI מספר פעמים, ולאחרונה אמר כי הוא מאמין שהוא חורג ממטרתו המקורית.
גם סטיבן הוקינג מאוניברסיטת קיימברידג התריע כבר לפני כמעט עשור בריאיון ל-BBC כי "פיתוח בינה מלאכותי מלאה עלול להמיט על המין האנושי את סופו". ביל גייטס, ממייסדי מיקרוסופט, הזהיר אף הוא: "אני נמנה עם המחנה המודאג מבינת־על."
מדען המחשבים אליעזר יודקובסקי תיאר כיצד אפוקליפסה של בינה מלאכותית עלולה להתרחש. במאמר מ-2008 שהתפרסם בספר סיכונים קטסטרופליים עולמיים, כתב: "עד כמה סביר הדבר שהבינה המלאכותית תחצה את כל הפער הרחב המשתרע מאמבה ועד לשוטה הכפר, ואז תעצור ברמה של גאון אנושי?". יודקובסקי סבור שאם לא נרד לעומקם של הדברים האלה מהר, זה יהיה מאוחר מדי: "הבינה המלאכותית נעה בציר זמן שונה משלנו; בזמן שתאי העצב שלנו משלימים לחשוב את המילים ‘עלי לעשות משהו’, כבר הפסדנו במערכה."
ככל שטכנולוגיית הבינה המלאכותית ממשיכה להתפתח ולהיות נפוצה יותר, גם הרגולטורים ברחבי העולם מתלבטים כיצד לפקח על השימוש בה בצורה הטובה ביותר. רבים מודאגים מסיכונים פוטנציאליים, כולל הפרות של פרטיות הנתונים, הטיה אלגוריתמית והפוטנציאל של AI לשבש תעשיות שלמות.
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.