איך חברה שבנתה לעצמה תדמית של מעבדת AI אחראית וזהירה מצאה את עצמה בעימות ישיר עם הפנטגון ועם הבית הלבן ואף מגישה תביעה נגדם? בשבועות האחרונים אנתרופיק היא לא רק עוד מתחרה של OpenAI, אלא חברה שהפכה לשדה קרב רעיוני, מסחרי ופוליטי.
תחילת הסיפור דווקא בשיתוף פעולה. בשנה שעברה פנה הפנטגון לחברות הבינה המלאכותית המובילות וביקש לבחון כיצד ניתן לשלב את הטכנולוגיה שלהן במערכות הביטחון. גוגל, OpenAI, xAI ואנתרופיק נענו לקריאה, אך דווקא אנתרופיק בלטה במהירות. היא עבדה לצד חברת הדאטה פלנטיר, השתלבה היטב במערכות קיימות והייתה בין החברות היחידות שקיבלו אישור לעבוד בסביבות מסווגות.
● עושה וורן באפט: המיליארדר הפרו-ישראלי נערך להנפקת ענק
● התעשייה המפתיעה שעשויה להשתבש בשל המחסור בגז הקטארי
עבור מערכת הביטחון האמריקאית זו הייתה הוכחה לכך שגם חברה שמדגישה בטיחות ואתיקה יכולה להיות שימושית מאוד בשדה המבצעי. לפי הדיווחים, מודלי הבינה המלאכותית שלה סייעו לניתוח מודיעין, לעיבוד כמויות עצומות של מידע, לסיכום שיחות ולזיהוי דפוסים בתוך מאגרי נתונים גדולים. במילים אחרות, הצבא האמריקאי מצא ערך מיידי בדיוק במקום שבו AI מצטיין - עיבוד מהיר של מידע וזיהוי קשרים נסתרים.
מחקר: המקצועות שלא ישרדו את מהפכת ה־AI והסימן המדאיג לצעירים
במקביל לעימות עם הממשל , אנתרופיק פרסמה מחקר שמנסה לענות על שאלה אחרת לגמרי: אילו מקצועות כבר מושפעים וימשיכו להיות מושפעים מהבינה המלאכותית. המחקר מציג הבחנה בין היכולת התיאורטית של מודלים לבצע משימות לבין השימוש בהם בפועל במקומות עבודה. למשל, בתחום המחשבים והמתמטיקה מודלי AI מסוגלים תאורטית לבצע כ־94% מהמשימות, אך השימוש בהם עומד כיום על כשליש בלבד. הפער הזה נובע ממגבלות רבות: רגולציה, צורך בבקרה אנושית, קשיי שילוב בתוכנות קיימות וגם קצב אימוץ איטי של ארגונים.
לפי המחקר, המקצועות החשופים ביותר להשפעת AI כיום כוללים מתכנתים, נציגי שירות לקוחות ותמיכה טכנית, מקלידי נתונים, מומחי רשומות רפואיות, אנליסטים, אנשי מכירות ובודקי תוכנה. אלו מקצועות שבהם חלק גדול מהעבודה מבוסס על טקסט, מחקר וניתוח מידע.
לעומת זאת, כשליש מהעובדים בארה"ב מועסקים במקצועות שכמעט ואינם חשופים ל־AI, בעיקר עבודות פיזיות או כאלה המבוססות על אינטראקציה אנושית ישירה, כמו טבחים, מכונאים או מצילים.
המשכילים ייפגעו קודם
אחד הממצאים המעניינים יותר הוא שלא נרשמה עדיין עדות ברורה לכך ש-AI הגדיל את האבטלה הכללית. עם זאת, עלה סימן מוקדם מדאיג יותר בקצה הצעיר של השוק. לפי המחקר, עובדים בני 22-25 נכנסים כיום פחות למקצועות שחשופים להשפעת ה־AI, עם ירידה של כ14% בשיעורי הכניסה בהשוואה ל־2022. החוקרים עצמם נזהרים מפרשנות חותכת, משום שהדבר עשוי לנבוע גם מתהליכים אחרים בשוק העבודה או במערכת ההשכלה. ובכל זאת, זהו רמז ראשון לכך שהשינוי אולי לא מתבטא עדיין בגלי פיטורים, אלא בכניסה למקצועות מסוימים.
לפי המחקר, העובדים במקצועות החשופים ביותר ל־AI משכילים יותר ובעלי סיכוי גבוה להחזיק בתארים מתקדמים, וכן מרוויחים יותר. זהו ממצא חשוב משום שהוא מערער את ההנחה האינטואיטיבית שאוטומציה פוגעת קודם בעבודות חלשות, פיזיות ושוחקות.
הנהלת אנתרופיק מצידה הציגה גישה לפיה בינה מלאכותית יכולה לחזק את ביטחון ארה"ב ולסייע לה להתמודד עם יריבות כמו סין, רוסיה ואיראן. אך שיתוף פעולה כזה צריך להתקיים תחת מגבלות ברורות. כלומר - השאלה לא היתה אם לעבוד עם הממשלה, אלא באילו תנאים.
נקודת השבר ביחסים
נקודת המפנה הגיעה בתחילת ינואר האחרון. שר ההגנה האמריקאי, פיט הגסת', פרסם מזכר שהבהיר כי הבינה המלאכותית תהפוך לתשתית מרכזית בלחימה העתידית. המסר היה ברור: אם ארה"ב רוצה להישאר תחרותית מול יריבותיה, עליה לשלב AI בכל שכבות המערכת הצבאית, החל מניתוח מידע ועד מערכות נשק אוטונומיות.
בעקבות ההצהרה החלו מגעים לחוזים חדשים בין הפנטגון לחברות הטכנולוגיה, ואז גם הופיעו חילוקי הדעות. לפי הדיווחים, אנתרופיק ביקשה לעגן בחוזה שני קווים אדומים: שהטכנולוגיה שלה לא תשמש למעקב המוני אחרי אזרחים אמריקאים, ושלא תשמש לנשק אוטונומי קטלני ללא פיקוח אנושי.
מבחינת החברה, לא מדובר היה רק בשאלת תדמית. היא חששה גם מהסיכון הטכנולוגי עצמו. מודלי בינה מלאכותית עדיין טועים בשיעור מסוים. טעות של אחוז או שניים בסיכום מסמך היא לא דרמטית, אבל טעות דומה בבחירת יעד לתקיפה עלולה להיות קטלנית. בנוסף, החברה חששה מהשלכות ציבוריות ומשפטיות במקרה שבו המודל שלה יהיה קשור לפגיעה שגויה.

מייסד אנתרופיק, דריו אמודיי / צילום: ap, Markus Schreiber
בפנטגון ראו זאת אחרת. בכירי מערכת הביטחון האמריקאית סברו שחברה פרטית אינה יכולה להכתיב לצבא כיצד להשתמש בטכנולוגיה. מבחינתם, שאלת הכשירות והחוקיות של מערכות נשק היא עניין למדינה ולמערכת הביטחון, לא לחברת טכנולוגיה מעמק הסיליקון.
האולטימטום והמשבר
המתח החריף לאחר פרסומים שלפיהם מודל קלוד של אנתרופיק היה מעורב, או לפחות נקשר, במבצע מודיעיני הקשור לעצירת נשיא ונצואלה ניקולס מדורו.
המגעים הפכו טעונים. בשלב מסוים זומן מנכ"ל החברה, דריו אמודיי, לפגישה עם שר ההגנה. לפי הדיווחים, הוא קיבל אולטימטום להגיע לפשרה עד יום שישי בשעה חמש אחר הצהריים. כאשר הדדליין חלף ולא הושגה פשרה, הגיעה ההסלמה. אנתרופיק הוגדרה כסיכון בשרשרת האספקה, צעד שמקשה לספקים לעבוד איתה, ונשיא ארה"ב דונלד טראמפ אף תקף אותה בפומבי וכינה אותה "חברה ווקית" (Woke). החברה הגיבה בתביעה נגד הממשל, בטענה שההחלטה להחרים אותה אינה חוקית. ועלולה לגרום לה לנזק של עד 5 מיליארד דולר בהכנסות אבודות.
OpenAI נכנסת לתמונה
ברגע שאנתרופיק יצאה מהמסלול, OpenAI נכנסה אליו. לפי הדיווחים, סם אלטמן ניהל במקביל מגעים עם הפנטגון והצליח להגיע להסכם משלו. גם OpenAI הציגה קווים אדומים בנושאי מעקב פנימי ונשק אוטונומי, אך בחרה בגישה אחרת: במקום לכתוב את המגבלות בחוזה, היא טענה שניתן להטמיע אותן ישירות בקוד של המערכת.
מבחינת הפנטגון, לעומת זאת, הפתרון של OpenAI נוח יותר, משום שהוא משאיר את השליטה בידי המדינה. אך גם OpenAI לא יצאה מהפרשה ללא מחיר. בעקבות החוזה לפחות שני עובדים בכירים עזבו. אחד מהם אף הצטרף לאנתרופיק.
הפרשה גם חיזקה את תדמיתה של אנתרופיק בקרב קהילת המפתחים, כאשר הצ'אטבוט קלוד זינק לראש רשימת ההורדות בחנות האפליקציות של אפל, ובסן פרנסיסקו הופיעו שלטי תמיכה בחברה.
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.