האקרים כבר מנצלים את הבינה המלאכותית ובהייטק מתקשים להדביק את הקצב

בענף ההייטק מתחילה לצמוח תעשייה שמטרתה לבלום את השימוש הבעייתי בבינה המלאכותית, אבל הפיתוחים בשוק עוד לא חסינים למניפולציות של ChatGPT • בינתיים, במחקר שפרסמה צ'ק פוינט כבר מזהים סימנים לשימוש זדוני של האקרים בצ'אט הבינה המלאכותית

האקרים כבר מנצלים את הבינה המלאכותית / צילום: Unsplash, Jackson Simmer
האקרים כבר מנצלים את הבינה המלאכותית / צילום: Unsplash, Jackson Simmer

מהפכת הבינה המלאכותית

הבינה המלאכותית היוצרת (Generative AI) מסתמנת כמהפכה הטכנולוגית החשובה ביותר של השנים האחרונות, כשהיא עשויה לשנות מהיסוד את הדרך שבה אנחנו עובדים, לומדים, יוצרים וצורכים תוכן. גלובס צולל לענף הבינה המלאכותית בסדרת כתבות על הטכנולוגיה שעד לא מזמן נשמעה עתידנית: היכן יוכלו האלגוריתמים ובני האדם לשתף פעולה, מה תהיה ההשפעה של ה-AI על הכלכלה וחיי היומיום ומהן הסכנות שכדאי להתגונן מפניהן

בשבוע שעבר הודיעה מחלקת החינוך בעיריית ניו יורק שתאסור את השימוש ב־ChatGPT, הכלי החדש של חברת הבינה המלאכותית OpenAI, בבתי הספר בעיר. החשש במערכת החינוך העירונית הוא שתלמידים יוכלו להשתמש בכלי החדש - שמסוגל לכתוב טקסטים שנראים כאילו נכתבו על ידי אדם - ולרמות בלימודים.

להכפיל את הכסף או להפסיד את רובו ביום: אצל החברות האלו, הכול תלוי בניסוי אחד  | ניתוח
איש העסקים היהודי-אמריקאי שרוכש את קרקעות הכנסייה בי-ם 

דוגמאות שונות שהועלו לרשת הציגו כיצד הצ'אט החדש כותב בתוך שניות טקסטים שנראים אקדמים, פותר ומסביר בעיות במתמטיקה, משכתב טקסטים, ואפילו כותב שורות קוד מורכבות. גם מחוזות מסוימים בלוס אנג'לס ובפילדפיה הכריזו שיגבילו את הגישה לכלי החדש, זאת למרות שעדיין לא ברור בכלל האם סטודנטים ותלמידים משתמשים בצ'אט, ובאיזה היקף.

עוד בסדרהלכל הכתבות

הצג עוד

הסבר מתבקש הוא, שלא כל כך פשוט לגרום לצ'אט לכתוב טקסט ברמה גבוהה מספיק, הרבה פעמים נדרשות בקשות חוזרות ונשנות מהצ'אט, ולעתים אפילו שכתוב של בני אדם. בחלק מהמקרים הצ'אט טועה באופן ברור (החברה מזהירה מפני כך בהוראות השימוש - י"מ), ולעתים גם מצטט מאמרים שמעולם לא נכתבו.

מתוך המחקר של צ'ק פוינט. תיעוד של יצירת אתר מחתרתי ב''dark web'' / צילום: צ'ק פוינט
 מתוך המחקר של צ'ק פוינט. תיעוד של יצירת אתר מחתרתי ב''dark web'' / צילום: צ'ק פוינט

"אמרו את אותם הדברים כשהתחיל האינטרנט וכשויקיפדיה החלה להיות פופולרית", אומר ד"ר יהונתן שלר, ראש בית הספר למדעי מחשב ב-HIT המכון הטכנולוגי בחולון. "אבל החשיבה הביקורתית חייבת להיות שם, גם אם משתמשים בצ'אט. הכלי החדש הזה יוכל לחסוך לנו הרבה מאוד זמן, במיוחד באקדמיה, כשאנשים אימצו כלים טכנולוגיים חדשים זה מאפשר להגיע לתובנות רחבות יותר, אני חושב שבסוף זה משהו שנתברך ממנו".

החברות שמנסות לייצר פתרונות לתחום

סטארט־אפים רבים מיהרו להבין את הפוטנציאל של הבעיות בצא'ט החדש והשיקו בשבועות האחרונים מוצרים שנועדו לזהות מתי טקסטים נכתבו על ידי תוכנות בינה מלאכותית. עם זאת, ישנם שני מוצרים שנחשבים היום כמוצלחים ביותר בזיהוי טקסטים כאלו. הראשון, באופן לא מפתיע פותח גם הוא על ידי OpenAI.

כלי נוסף פותח על ידי הסטודנט אדוארד טיאן, בן ה־22 מאוניברסיטת פרינסטון. טיאן, שלומד מדעי המחשב ועיתונות, פיתח כלי שבוחן את מורכבות המשפטים ואורכם. לטענתו, לאחר שפרסם את הכלי החדש, מרצים מהאוניברסיטה שהשתמשו בכלי דיווחו על תוצאות מוצלחות.

חברות נוספות, שרובן עסקו עד כה בפיתוח בוטים דומים, ניצלו את היכולות הטכנולוגיות שכבר פיתחו על מנת להציג כלים שמזהים טקסטים שנוצרו על ידי בינה מלאכותית. אבל נראה שבינתיים כולם נופלים באותו מכשול ואף אחד מהם לא מסוגל לספק תשובה חד משמעית לשאלה האם הטקסט נכתב על ידי תוכנה. חלק מהכלים מספקים הערכה באחוזים, אבל גם אותן ניתן לעקוף בפשטות.

המכשול של כולם והפתרון של OpenAI

האתגר של הפיתוחים החדשים נובע מהאופן בו מאמנים מודלים שונים של AI - מודל מוצלח הוא מודל שיודע להערים על הכלים שמנסים לאתר אותו. כלומר, כבר בתהליך הפיתוח הבינה המלאכותית לומדת לעקוף את הטכנולוגיות שמגבילות אותה.

בחודש שעבר פורסם ש-OpenAI פועלת על מנת להוסיף מעין Watermark לטקסטים שלה (סימון נסתר שיאפשר לזהות את מקור הטקסט, כפי שנהוג לעשות בתמונות). אם הדבר ייצא לפועל, הוא אמור למנוע, או לכל הפחות להקשות על שימוש בטקסטים שנוצרו על ידי הטקסט של החברה ולתת להם חזות כאילו נכתבו על ידי בן אדם.

 

"אנחנו רוצים שיהיה הרבה יותר קשה לקחת תוצר של תוכנת בינה מלאכותית ולגרום לה להיראות כאילו נכתבה על ידי בן אדם", אמר מהנדס של החברה בהרצאה בפני סטודנטים באוניברסיטה בטקסס, כחודש לאחר פרסום הצ'אט החדש. "זה יכול להיות יעיל במניעת העתקות באקדמיה, באופן מובן, אבל גם - למשל - במניעת הפצת תעמולה בקנה מידה גדול, או התחזות לאדם אחר אחר על ידי שימוש בסגנון כתיבה דומה לשלו".

"האקרים מייצרים בצ'אט כלי תקיפה"

בינתיים האקרים וקבוצות פריצה כבר משתמשים ככל הנראה בכלי של OpenAI ומנצלים על הוואקום שנוצר בזיהוי הטכנולוגיה. חודש לאחר פתיחת השימוש בצ'אט לקהל הרחב, פרסמה חברת אבטחת המידע צ'ק פוינט דוגמה כיצד הכלי מסוגל לכתוב בתוך שניות מייל "פישינג" אמין במיוחד, ואפילו תוכנות זדוניות פשוטות.

במחקר שפרסמה החברה בשבוע שעבר כבר נמצאו סימנים לכך שהאקרים מתנסים ומשתמשים בכלי החדש על מנת ליצור תוכנות זדוניות. במקרה נוסף שמתואר בדוח, בפורומים מחתרתיים פורסמו אף תיאורים שמאפשרים ליצור כלי הצפנה.

"כמו רבים אחרים, גם האקרים רואים ב־ChatGPT פלטפורמה אטרקטיבית, ואנו רואים שגם הם מתחילים להשתמש בטכנולוגיה הזו כדי לייצר את כלי התקיפה שלהם במהירות ובקלות", אמר סרגיי שיקביץ', מנהל מחקר מודיעין סייבר בצ'ק פוינט. "זה רק עניין של זמן עד שבתחכום לא רב אפשר יהיה לייצר כלי תקיפה משמעותיים יותר באמצעות בינה מלאכותית".

דוד ורשבסקי, סמנכ"ל Enterprise Security בחברת סיגניה, המתמחה בתחום התגובה לאירועי סייבר, התייחס לשינוי נוסף שמתרחש בעולם מתקפות הסייבר. "מתקפות כופרה, זו דוגמה מצוינת", טען. "יש מעין שרשרת אספקה בה יש את האנשים שממש פורצים לארגונים ומשיגים את הגישה, ואז נעזרים בחבריהם על מנת להשיג את הכופר עצמו והם משלמים להם אחוז מסוים. כעת, התוקפים מורידים את התלות שלהם בשרשרת האספקה הזו".

ורשבסקי סקפטי בנוגע ליכולת להטיל רגולציה על הכלים המתקדמים הללו "הדרישות בכל הנוגע לחומרה הן אדירות ויש בעיה לגופים פרטיים וסטאטראפים קטנים לפתח את הטכנולוגיה הזאת", הוא אמר. "יש עדיין יכולת מאוד מתקדמת שמרוכזת בידי מספר מצומצם של שחקנים, זה לא יישאר ככה, אבל בינתיים זה המצב. אם החברות ירצו, הן יכולות להגביל את השימושים האפשריים".