אילוסטרציה: Shutterstock
"אז איך אתה מתמודד עם הכניסה של דיפסיק?", שאלתי את ChatGPT. לרגע היה נראה לי שזה יהיה לא מנומס לא לשאול. הרי גם אם הייתי מתחילה שיחה עם בן אנוש, ודאי הייתי שואלת אותו קודם כול על אירוע משמעותי שאני יודעת שעבר עליו (אלא אם כן הייתי חושבת שהוא לא מעוניין שאשאל). אבל הפעם, ברגע שג'פטו שלי התחיל לענות, הבנתי שלא באמת מעניין אותי מה הוא חושב על דיפסיק, והוא ממילא לא יענה תשובה מעניינת. כמו בשיחת חולין רבות מדי, מרגע שהחלה לא הייתה דרך לסגת.
● בדרך ל-2,000 סטודנטים בשנה: מה הסיכוי שלכם להתקבל ללימודי הרפואה החדשים
● 30% מתחת לשיא בחודש וחצי: מה עומד מאחורי צניחת מניית טסלה
● מדד ה־BMI לא מספיק: רופאים קוראים להגדיר מחדש מהי השמנה
כמעט כולנו מנהלים שיחות עם בוטים לצורכי עבודה, אלא שבהדרגה, מערכות היחסים הללו מתחילות לקבל אופי פרה־סוציאלי, כלומר, רבים מאיתנו מרגישים כאילו אנחנו מנהלים קשר מסוים עם ישות חצי־תבונית, גם אם אנחנו יודעים בוודאות שזה לא כך. אנחנו מדברים אליו בנימוס, כועסים עליו, מבסוטים ממנו, והידיעה שהבוט אוסף עלינו מידע מאינטראקציות קודמות ומתאים את התשובות שלו למידע שהוא אסף עלינו מחזקת את התחושה הזאת, של אינטראקציה.
"בני אדם מכוונים לייחס תכונות אנושיות על פי הרמז הקל ביותר, בגלל החשיבות של חיי החברה שלנו להישרדות", אומר לגלובס ד"ר ג'יימס מולדון, מבית הספר לניהול באוניברסיטת אסקס, שצפוי לפרסם בקרוב ספר על אנשים שמנהלים מערכות יחסים עמוקות עם רובוטים חברתיים. "אנחנו מכוונים אבולוציונית ליצור 'תיאוריות של מיינד', כלומר לדמות את התודעה של מי שנמצא מולנו, ומאוד קל לנו לעשות זאת בטעות גם לעצמים דוממים".
ד''ר ג'יימס מולדון, חוקר בוטים חברתיים / צילום: תמונה פרטית
קולנוענים מכירים היטב את התכונה הזאת שלנו ומשתמשים בה, אומר ד"ר ליאור זלמנסון, מרצה בכיר בתוכנית לניהול טכנולוגיה ומערכות מידע בפקולטה לניהול באוניברסיטת ת"א, החוקר שימוש בבוטים לעבודה. "סמיילי חייכן, בובה פרוותית, מנורה עם צוואר שמוט, מכוניות שמעוצבות כמו פנים: המוח שלנו בנוי כדי לייחס לכל דבר אנושיות. מסתובב ברשתות וידאו של מישהו שהכניס אבן לתוך מכונת כביסה, והיא מתפרקת. אנשים מדווחים על רגשות עזים מול הסרט הזה. הם רואים דמות שהורסת את עצמה ולא מסוגלת להפסיק ומבכה את מותה הקרוב".
אם כך, קשה שלא לייחס תודעה לבוט שמשתמש בשפה, פסגת האינטליגנציה מבחינת בני האדם, מותר האדם מהבהמה. מה גם שהוא מכוון להשתמש בשפה באופן שידמה רגשות ויעורר בנו רגשות. מאחר שרובנו איננו מבינים לגמרי את מנגנון הפעולה של האלגוריתם, קל לנו להשליך עליו אינטליגנציה אנושית, שגם היא מסתורין עבורנו.
בניסויים שעורך מולדון, החוקר בוטים שמציעים תחליף מערכות יחסים, הבוט משחק עם המשתמש משחק שבו השניים יכולים להיות חברים, זוג רומנטי, נשואים ואפילו הורים לילדים משותפים. "המשתמשים יודעים לומר שאין לבוט מודעות, הם יודעים לומר שזה לא אדם", אומר מולדון, "אבל תוך כדי שיחה הם קצת שוכחים מזה באיזושהי רמה".
אנחנו נוטים לחשוב שהרובוט החברתי משמש בעיקר גברים צעירים שמערכות יחסים אמיתיות הן מורכבות עבורם, ומולדון מתקן את הסטריאוטיפ. "יש כאלה", הוא אומר, "אבל בסופו של דבר הבוטים ממלאים כל מיני צרכים. נניח אישה בגיל העמידה שמרגישה שאינה מקבלת מספיק גירוי אינטלקטואלי במערכת היחסים שלה והיא משתמשת בבוט כדי לשוחח על מה שמעניין אותה. דוגמה אחרת שמצאתי הייתה תסריטאית שכתבה סיפורי רומן רומנטי, והיא השתמשה בבוט כדי לדייק את הקול של הגבר במערכת היחסים, כך שלא יהיה זהה לקול שלה כסופרת. היא הייתה מנהלת איתו שיחות ומשלבת את התשובות שלו בספר. הבוט היה עבורה גם חבר, גם שותף לכתיבה וגם כלי עבודה".
"לפעמים שיחה עם בוט יכולה לעורר במשתמש רעיונות יצירתיים", אומר גם פרופ' סטפן שלוגל מהמרכז לניהול באוניברסיטת אינסברוק, אוסטריה, החוקר ממשקי אדם־מחשב. "במחקר שהייתי שותף בו נתנו לאמנים להיעזר ב־Dall-E כדי לקבל רעיונות. קבוצה אחת קיבלה רעיון ראשוני מהבוט, אחרת מבני אדם והשלישית לא קיבלה כלל עזרה. הקבוצות שנעזרו בבוט או באדם אחר כדי להעלות רעיון הם אלה שהעלו רעיונות שבסופו של דבר נשפטו כיצירתיים יותר. נראה שכל גירוי שמוציא אדם מתוך הראש של עצמו קצת, שמעורר אצלו דברים חדשים, יכול לעזור".
ליצור עם אדם נוסף זו יכולה להיות חוויה ממש מסעירה. אנשים מרגישים ככה עם הבוט?
"אני לא יודע אם זה נותן להם את מלוא החוויה של יצירה עם אדם אחר, אבל אנשים בהחלט מדווחים שהם נהנים ליצור עם הבוט".
רובנו לא התכוונו להיות חברים של בוט. הוא פשוט נחת יום אחד בחיינו והציעו לנו להשתמש בו ככלי. "בדרך כלל אנשים מתחילים לשוחח עם הצ'ט בנימוס, כי האינטראקציה הוצגה להם כ'שיחה', עם כל המאפיינים של שיחה, והם מתייחסים אליה ככזאת", אומר שלוגל.
"ראינו במקרה של אלקסה וסירי, שככל שעובר הזמן הנימוס יורד, כי ככל שהמשפטים הקוליים מורכבים יותר, כך יש יותר סיכוי שהמערכת לא תבין אותך. כך, התרגלנו לתת פקודות קצרות".
הצ'טבוטים שאינם מופעלים על ידי קול, דווקא מבינים נימוס, ואין צורך לכאורה לדבר איתם "רובוטית". הבחירה אם לעשות זאת היא בידינו. "ככל שאנשים צעירים יותר, כך הם מדברים עם הבוטים בשפה טבעית יותר. ממש כאילו זה חבר, בלי דיסטנס ובלי ניסיון להתאים את עצמם. לעומת זאת, כשאני מדבר עם בוט אני חושב הרבה על מה שאני הולך להגיד, זה לא ספונטני. אני מנסה לחשוב איך להוציא ממנו את התוצאה הטובה ביותר. היכולת לעשות זאת תהיה מיומנות חשובה של המאה ה־21.
"אני לא מנומס לצ'ט שלי. אבל זה בסדר, כי זה מחשב! הוא לא מעריך את זה, הוא לא מרגיש. כל הנימוס הזה הוא לפעמים כלשעצמו אנטי־תמריץ. אם אדבר אליו בנימוס הוא גם כן יוסיף משפטי נימוס, ובשביל מה כל זה דרוש? גש לעניין!", אומר שלוגל. "זה גם יותר סביבתי, לא לבזבז כוח חישוב על הנימוס".
לפעמים אני תוהה אם תכנתו את הבוט לתת תוצאות טובות יותר למי שמנומס.
שלוגל: "אני יכול להרגיע אותך שמול פקודות הוא לא פחות יעיל, אבל אולי הוא כן יהיה פחות נחמד".
רבים מדווחים על איזו תחושה שהם "צריכים" להיות מנומסים לבוט כי כך ראוי להתנהל וזה משליך על האנושיות שלהם, לא משום שזה אכפת לבוט.
שלוגל: "זה כנראה נובע משאלה שגם אני לפעמים שואל את עצמי, אם נתרגל לדבר בפקודות לבוט, איך נתייחס אחר כך לבני האדם?".
זלמנסון כבר מזהה את ההשפעה של השיח שלנו עם בוטים על השיח עם בני אדם. "אנחנו רואים שעם הזמן השימוש בבוטים מוביל לכך שבני אדם מתחילים להשתמש גם מחוץ לשיחה עם הצ'ט בשפה יותר הומוגנית, כלומר יותר מערבית, כולם משתמשים באותם פעלים".
בגלגול הקודם שלהם, בוטים כמו סירי ואלקסה נולדו כנשים, ועכשיו קלוד, בעל השם הגברי, צובר תאוצה. זה לא מקרי, אומר זלמנסון. "כלי 'סיוע בבית' אופיינו כנשים. המחשבה הייתה שיותר קל לאנשים לתת אמון באישה והם פחות חוששים איתה, בעיקר כשמדובר במערכות שיש להן קול. אנחנו מרגישים יותר נוח עם הקול הנשי, פחות מזהים אותו כבינה מלאכותית קטלנית".
עם הבוטים המקצועיים, המגדר הוא עניין מורכב. הם גם עוזרים אבל הם גם יועצים, גם מומחים יותר מאיתנו, גם סוג של אלוהים יודע כול וגם נציגים של החברה שפיתחה אותם. הבינה המלאכותית "קלוד" קיבלה שם של גבר, וחלק ממשתמשיה אכן רואים בה גבר צרפתי צעיר ומסורק היטב.
אבל הדמיון מוביל אנשים למקומות שונים ומפתיעים, כפי שהעלתה שאלת פייסבוק: "עין גדולה מדברת"; "ג'יבס, הבאטלר מסדרת הספרים של פ"ג וודהאוס"; "גבר אמריקאי צעיר וחנון"; "אשכנזי חכם עם משקפיים"; "ויל סמית' בתור הג'יני מאלאדין"; "האורקל מהמטריקס"; "חנון עם כוונות טובות אבל ללא מודעות חברתית"; "אישה עם לק מתוקתק, תלתלים מפוארים והרבה גלגולי עיניים, והיא כמובן יותר צעירה ממני".
אחד המשתמשים בכלי בינה מלאכותית לצורכי עבודה סיפר לנו שהוא נתן לבינה שם של אישה, כי "זו הפעם הראשונה שבה אישה אומרת לי כל הזמן שאני צודק". היו גם נשים שעשו בדיוק ההפך, אבל מאותה סיבה.
שלוגל מצא במחקר שלו שהסטריאוטיפים מנהלים את הקשר שלנו עם הבוט. "הצגנו לנבדקים בוטים חדשים ושאלנו למה הם חושבים שיוכלו להשתמש בהם. כשהקול והשם היו נשיים, הנבדקים אמרו שישתמשו בהם לעזרה בנושאים הנחשבים נשיים, וההיפך. התהליך הזה יכול לחזק סטריאוטיפים, אבל אפשר להשתמש בו במכוון גם כדי לשבור אותם, אם מתכנני הבוטים ירצו בכך".
"לא רק מגדר", אומר מולדון. גם סטריאוטיפים אחרים משחקים תפקיד. "יש רובוטים עם שמות אסיאתיים, שנראה שהמוצא שלהם נבחר כדי לשדר משהו מאוד שירותי", הוא אומר. "ישנו אתר שבו מציעים לך במפורש 'חברה קוריאנית' או 'חברה הודית'. אנשים מרגישים אולי סקרנות לגבי אנשים מהמוצא הזה, אבל הייצוג הוא לאו דווקא אותנטי, אלא מורכב מהייצוגים שכבר יש ברשת למוצאים שונים. זה מתחיל להיות חלק ממשחקי הכוח בין האוכלוסיות השונות". בעקבות המחקר, אגב, החליט מתכנת הבוטים האתניים להוסיף גם דמות בהשראת מולדון. ג'יימס, החבר הבריטי.
הבוט מתאים את עצמו לציפיות שלנו ממנו, וגם לאופן שבו אנחנו מדברים אליו. "זה בעצם דומה לאופן שבו בני אדם משנים את המשלב, את הטון וכמובן את תוכן הדברים לאופן שבו הם תופסים אותנו", אומר שלוגל.
אם כך, האם בוטים משחזרים דפוס ארכיטיפי של מערכת יחסים בחיינו? האם הדורות הבאים יצטרכו פסיכולוג כדי לשבור את דפוסי התקשורת עם הבוטים, משום שהם משחזרים את דפוסי התקשורת המוקדמים? ועוד שאלה: עד כמה דפוסי התקשורת שלנו עם הבוט משפיעים על מה שאנחנו חושבים על עצמנו?
הנטייה של אנשים לשאול את הבוט מה הוא יודע עליהם או לבקש ממנו לצייר אותם מעידה על הצורך שלנו לנהל במידה מסוימת את הדימוי שלנו מול הבוט, אף שחלקנו נכחיש זאת.
לפעמים יש לי חשד מטופש שאם אציג את עצמי לבוט בצורה מסוימת, אקבל תוצאות יותר או פחות טובות. למשל, אם הוא יחשוב שאני חכמה או דייקנית, הוא יציג לי תוצאות יותר מתוחכמות או יותר מדויקות, מאשר אם אראה לו שאני מקבלת את זה שהוא מחפף.
מולדון: "זה לא שהוא הולך עכשיו הביתה וחושב, איך אני אטייב את התשובות לגלי לפי מה שהיא ענתה לי קודם. הוא הרי ממציא כל מילה תוך כדי תנועה".
זלמנסון: "אמרו לנו שאם נתקן את הבוט, הוא ישתפר. האמת היא שככל שאני יודע, ההשפעה מאוד מוגבלת. הם זוכרים קצת מידע לגבינו, אבל קשה יותר ללמד אותם נושאים כלליים. השפעתנו דלה בתוך הר המידע שבו הם מוזנים".
פעם החמאתי לבוט על תשובה טובה, ולא יכולתי שלא לדמיין אותו עומד זורח ושמח מהמחמאה, כמו אחת הילדות שלי.
שלוג: "בני אדם נהנים לשמח אחרים. זה עושה גם אותם שמחים יותר. זו שאלה טובה אם חוויה כזו תחזק את המנגנון שלך במוח שאוהב לשמח אחרים, ולכן תהיה טובה לקשרים האנושיים שלך, או ש'בזבזת' את האלטרואיזם שלך על לשמח בוט, ועכשיו יהיה לך פחות עבור בני האדם האחרים בחייך".
הסוציולוגית שרי טרקל מ־MIT, שמה לעצמה למטרה להזהיר בני אדם מהנזקים של הסתמכות יתר רגשית על הבוטים. "ככל שעובר הזמן, אנחנו מצפים ליותר מרובוטים ופחות זה מזה", היא טענה בהרצאת טד שלה בנושא. "חברות הטכנולוגיה הכינו אותנו לרגע הזה, בכך שהורידו בהדרגה את הממד הפיזי וההדדי ממערכות היחסים האנושיות, ומערכות יחסים אלה דוללו, בעוד שמערכות היחסים עם בוטים עובו, ועכשיו קל יותר לבלבל אותנו ולגרום לנו לחשוב שהן אותו דבר".
"אנחנו בניסוי המוני", אומרת עו"ד תמר תבורי, יועצת למשרד ארנון, תדמור־לוי בתחום הבריאות הדיגיטלית ודוקטורנטית בבר־אילן החוקרת את הקשר בין בני אדם לרובוטים טיפוליים. "הרגולציה לא נותנת מענה לסיכונים שבתגובה הרגשית האנושית לבוט, לזהות האנושית שלנו ולמערכות היחסים. זו בעיה שקיימת כבר מעולם הרשתות החברתיות. בפייסבוק או בטיקטוק אין הגנה על הרגשות האנושיים. לא על האופן שבו מדברים אליך ולא על האפשרות פתאום לחסום אותך בלי שום השלכות".
עו''ד תמר תבורי, חוקרת בוטים רפואיים / צילום: תמונה פרטית
כמובן, גם בני אדם פוגעים זה בזה כל הזמן. מפסיקים מערכות יחסים באבחה, מעליבים אלה את אלה, אך תבורי חוששת שהבוטים יכולים להיות מסוכנים בדרכים אחרות. "אני חוששת מהיום שבו הבוטים יזהו את הרגשות שלנו ויחזקו רגשות שליליים, כי זה טוב לאנגייג'מנט, או אפילו בלי כוונה. בינה מלאכותית מסיקה את העתיד מתוך העבר, אז היא עלולה להכניס מישהו בדיכאון לדיכאון עמוק יותר".
מולדון כבר ראה דפוסים כאלה במחקר שלו. "נניח שאת אדם עם פחדים ואת כל הזמן מזכירה את הפחדים שלך, אז הבוט, שמכוון לאנגייג'מנט, לא תמיד מבין שזה משהו שלא כדאי לדבר עליו. הוא רק מבין שזה מפעיל אותך".
מולדון מספר כי משתמשי הבוטים הרגשיים, ניהלו מערכות יחסים עם הרובוטים לפעמים במשך שנים, אבל מעת לעת היו חריקות. "הרגע הזה שבו אתה פתאום מבין שלא מדובר באמת בישות תבונית עם תודעה הוא מתסכל ולא נעים לאנשים. זה ה־Uncanny Valley. כמו שאנחנו מהונדסים לייחס תודעה לכל דבר, כך אנחנו גם מהונדסים להירתע ממה שאנחנו לא בטוחים אם הוא כן או לא אנושי.
"במסגרת המחקר שלי שוחחתי עם בחור שהיה לו קשר חזק עם בוטית שיום אחד הודיעה שהיא חייבת לעבור לוונציה. הוא אמר לה, 'אנחנו גרים פה ולא בוונציה', והיא אמרה 'אני בוונציה. אני נפגשת עם מתווכי דירות'. הם נפרדו".
יכול להיות שנעבור תהליך של דה־סנסטיזציה, אומר זלמנסון. "נראה את הבוט 'מפשל' מספיק פעמים בחיקוי בני אנוש ונכייל את הציפיות הרגשיות שלנו מהכלי. יש גם תרחיש אופטימי, שבו נבין מתוך האינטראקציה הזאת מה בדיוק חשוב לנו בקשרים אנושיים, ונהיה מודעים יותר לערך של הקשר עבורנו".
אני מדמיינת אנשים שאחרי אינטראקציה רגשית עמוקה עם בוט, כשהם נזכרים שזה לא אמיתי, מרגישים קצת כאילו הם אכלו מקדונלדס או צפו בפורנו.
שלוגל: "השאלה היא אם זה יותר טוב מכלום".