מיצוקו שניהלה איתי את השיחה הזאת היא צ'טבוט, רובוט מדבר שיצר מפיק מוזיקת טראנס ודאנס מאנגליה והקדיש לה אתר שבו גולשים מוזמנים לשוחח עם הרובוטית. מיצוקו (Mitsuku) וזיכה אותו בפרס לובנר על היותו הרובוט המדבר האנושי ביותר בעולם לשנת 2016. אם אמנם מיצוקו היא הצ'טבוט האנושי בעולם, נראה שהבינה המלאכותית עדיין לא ממש מאיימת על האנושות, אבל נסייג ונאמר שככל הנראה יש בוטים מתקדמים בהרבה שלא ניגשים לפרס הזה, ובעתיד הקרוב מאוד צפוי שינוי דרמטי בתחום. רוב מומחי הטרנדים כבר הכריזו שצ'טבוטים (או בקיצור, בוטים) הם המגמה הטכנולוגית המובילה של השנים הקרובות.
על פי העיתון "וול סטריט ג'ורנל", מאז אפריל 2016 השיקו כל פלטפורמות האינטרנט המובילות (פייסבוק, אפל, גוגל, מיקרוסופט, אמזון ואחרות) פרויקטים משלהם בתחום. על פי דיווח של פייסבוק, מאפריל עד נובמבר 2016 נוצרו 30 אלף בוטים שמתכתבים עם הפלטפורמה של החברה, ומאז, מן הסתם, המספר רק עלה. אבל אם היום הבוטים מוצלחים בביצוע משימות מסוימות, כמו הזמנת כרטיס טיסה או קביעת תור לרופא, הדרך עוד ארוכה עד היום שבו יוכלו להתמודד עם שאלות פתוחות ולנהל שיחות שהן מובנות פחות.
פריצת הדרך שערערה תיאוריות בלשניות
הרעיון שמחשב ידבר עם בני אדם קיים משחר ימיו של המחשב. "מבחן טיורינג", שבו אדם צריך לשפוט אם הוא משוחח עם מחשב או עם אדם אחר הוצע על ידי המתמטיקאי אלן טיורינג, מחלוצי מדעי המחשב, כבר ב-1950. אבל המחשבים עצמם נכשלו שוב ושוב במבחן. "לשפה טבעית יש המון ממדים. היא מורכבת מהמילים, ממבנה המשפט, מההקשר, מהאופן שבו המילים מתייחסות למצב בעולם האמיתי ואפילו מהרגש שבו נאמרים הדברים, וכבר בממדים הכי בסיסיים יש רב-משמעות", אומרת ד"ר רעות צרפתי, חוקרת שפה טבעית בפקולטה למתמטיקה ומדעי המחשב של האוניברסיטה הפתוחה, הבונה אלגוריתמים שמאפשרים למחשבים לנתח משפטים בשפה טבעית (מחקריה כבר הוטמעו בצ'טבוטים, במנועי החיפוש ובמנועי התרגום של החברות הגדולות).
ד"ר צרפתי מדגימה: "נניח שאני אומרת בשיחה עם בוט את המילה 'את'. הוא לא יכול לדעת מרצף הצלילים לבדו אם התכוונתי למילת קישור, את חפירה, עט לכתיבה, עת במובן זמן או שמדובר בשם חיבה לבחורה בשם אתי. בני אדם מבינים זאת מההקשר של הדברים. בלי ההקשר, ניכשל אפילו בפענוח המילה הבודדת. כתיבת אלגוריתם שיאפשר לו להבין את ההקשר שבו נאמרת כל מילה זו משימה קשה מאוד".
הדרישה מהמחשב היא מורכבת: עליו לקלוט טקסט טבעי וגם להגיב אליו בהתאם - תגובה בכתב במקרה של צ'טבוט, ביצוע פעולה במקרה של העוזרת הקולית סירי ודומותיה, או תרגום במקרה של גוגל טרנסלייט.
בשנים האחרונות חל שיפור משמעותי בביצועי המערכות הללו, בעיקר מערכות החיפוש והתרגום. מה הייתה ההתקדמות הטכנולוגיה העיקרית שאפשרה זאת?
"הסיבה המובילה לשיפור היא המעבר ממודל עיבוד מבוסס חוקים למודל סטטיסטי, מה שנקרא היום 'מכונות לומדות' (Machine Learning או Deep Learning). כבר בשנות ה-60 של המאה הקודמת פותח מחשב מצ'וטט בשם אליזה, שנועד להיות 'הפסיכולוג הממוחשב'. המחשב הזה ידע להגיב באופן אוטומטי למילים שהופיעו בטקסט. לדוגמה, אם שאלת 'מה שלומך?', הוא ידע לענות 'בסדר'. אם הזכרת את אמא שלך, הוא אמר 'ספרי לי עוד על אמא שלך'. אם אמרת משהו שלא הייתה לו תגובה מוכנה אליו, הוא אמר 'זה ממש מעניין'. לפסיכולוג זו אולי התנהגות הגיונית. עבור בוט של שירות לקוחות - פחות.
"בשלב הזה, חוקרים ניסו לכתוב חוקים שיאפשרו למחשב להבין את סט המילים בשפה. בלשנים ניתחו את המילים, המשפטים וההקשרים כדי להבין את המבנה הבסיסי שלהם ואז ללמד את המחשב להבינו. כלומר, לימדנו את המחשבים מורפולוגיה, מבנה של מילים, וגם תחביר. פריצת הדרך הייתה עם מהפיכת הביג דאטה, כשמחשבים החלו לעבד כמויות אדירות של מידע. עם יכולת כזאת, על פניו אין לנו בכלל צורך ללמד את המחשב להבין מילה או להבין משפט, כי הוא פשוט יחפש את המשפט שהצגנו לו בכל המידע שבני אדם מייצרים בכל יום ויראה כיצד מגיבים בני אדם אמיתיים למשפט כזה".
היום, אומרת ד"ר צרפתי, הגישה היא מעורבת - בתחילת הדרך מלמדים את המחשב מספר מסוים של משפטים, לדוגמה 5,000 משפטים עיבד וניתח ברמה הבלשנית. אחרי כן, כשמציגים למחשב מידע חדש הוא ישתמש גם בסטטיסטיקה וגם בחוקי הלשון והדקדוק כדי ליצור משפט חדש, ויקבל על כך פידבק.
- איזו מהגישות דומה יותר לאופן שבו בני אדם לומדים שפה?
"השאלה הזאת מחזירה אותנו לוויכוח הישן אם היכולת ללמוד שפה היא מולדת או נלמדת. פרופ' נועם חומסקי מ-MIT התפרסם כאשר אמר ששפה היא חלק מהביולוגיה שלנו. הוא הראה במחקריו קווי דמיון בין כל השפות בעולם וטען שזוהי עדות לכך שהיכולת להבין שפה מוטמעת במוחנו בבסיס. תומכיו טענו שבלתי אפשרי להבין שפה ללא היכולת המולדת הזאת. אולם בשנים האחרונות היו פריצות דרך בתחום המחשבים הלומדים מחשיפה סטטיסטית בלבד, בלי שבלשן לימד אותם תחילה כיצד לנתח משפט, והטענה היא שאם הדבר אפשרי למחשב, הוא ודאי אפשרי למוח האנושי. המוח הוא למעשה מערכת עם רגישות מאוד גבוהה לדברים שסטטיסטית מופיעים יחד. הביקורת מצד תומכי חומסקי הייתה שמודל סטטיסטי כלל לא יכול להכליל ברמה כזאת, והנה - הוא יכול. לדעתי, האמת נמצאת כנראה באמצע. בבני האדם כנראה מוטמעת מלידה איזושהי פרה-דיספוזיציה לרכישת שפה באמצעות למידה סטטיסטית".
- ומדוע זה עורר כל כך הרבה הדים ונחשב אחד מוויכוחי היסוד בבלשנות?
"אולי משום שאם כל מודל סטטיסטי יכול ללמוד שפה, אז מהו מותר האדם מהבהמה או מהמחשב? השאלה הזאת שבה ועולה גם אצל חוקרים שמנסים ללמוד את שירי הציפורים, או את שפת הסימנים של הקופים, כדי לראות אם מופיעים בהם כללים הדומים לאלה שבבסיס השפה שלנו".
- גם למחשב שיודע להרכיב משפט הולם עדיין אין קוגניציה אנושית.
"בהחלט לא. כרגע, המודלים הסטטיסטיים מנבאים מה תהיה התגובה של 'אדם סביר' לטקסט מסוים. למשל, אם אמרת לרובוט 'תביא את הכיסא האדום', הוא יודע שהבאת הכיסא האדום היא התגובה הנכונה לפקודה שלך. היום סירי יודעת שאם שואלים אותה 'האם צריך לקחת מעיל' עליה לענות תשובה מעולם מזג האוויר, אבל זה רק כי מישהו תכנת אותה כך. אין לה מושג מהו מעיל. לעומת זאת, אם תאמרי לילד שלומד את השפה 'האם לדעתך צריך לקחת מעיל?' הוא ילמד בהדרגה מהו מעיל ומדוע את מתלבטת אם לקחת אותו, ומה הקשר בין זה לבין מזג האוויר.
"אנחנו כבר משתמשים בתובנה לגבי ההבדל הזה כדי לשפר את ביצועי המחשב, באמצעות משהו שאנחנו קוראים לו Grounding. הכוונה היא לכך שאנחנו מלמדים את המחשב לא רק להבין את מבנה המשפט ולאחזר תשובה ממאגר המידע, אלא גם מכוונים אותו ליצור מודל שמייחס את מה שנאמר לעולם האמיתי. לדוגמה, אם מדובר בצ'טבוט שנועד להזמין טיסות והזנו אותו במשפט כגון: 'אני צריך בבקשה טיסה לאמסטרדם בפחות מ-300 דולר אבל לא דרך טורקיה', בזכות ה-Grounding המערכת תבנה גם תמונה מנטלית המדמה את מסלול הטיסה המבוקש ותבחן אם הבקשה סבירה".
הבוט כטוקבקיסט
לדברי ד"ר צרפתי, למרות הקפיצה ביכולות של הבוטים, הם עדיין מתקשים להבין מילים כמו "אולי", "צריך", זמנים ומשפטי תנאי. "למשל, אם אני אומרת לסירי 'שימי לי שעון מעורר לשעה שבע', היא תבין את זה מצוין, כי מבנה המשפט ברור לה, אבל אגיד לה 'בין 22:00 ל-7:00 אל תעבירי לי שיחות, אלא אם כן זו שיחה מאמא שלי או מהבן שלי', זה כבר קשה לה, אף שעל פניו מחשב אמור להבין פקודה כזאת. המחשב עדיין מוצלח בעיקר במיפוי של משפט אחד לפקודה אחת".
- אז כרגע בוטים של שירות לקוחות הם לא יותר טובים מאשר תפריט?
"כרגע הם בגדר שדרוג של ממשק המשתמש, כי לחלק מהאנשים קל יותר להקליד את הפקודה בצורה של משפט. מעבר לכך, התשובה יכולה להעביר איזשהו סטייל של החברה, למשל בסגנון הדיבור, אולי אפילו סוג מסוים של הומור".
- איך נזהה שאנחנו מדברים עם בוט?
"בפרויקט שיזם אחד הסטודנטים שלי לכתיבת טוקבקים ממוחשבים, הצלחנו לבודד כמו גורמים שמבדילים בין בוט שנשמע אנושי לזה שמזוהה כבוט. לדוגמה, כאשר כותב הטוקבק חושף ידע נוסף על העולם - לדוגמה הוא כותב במאמר על סמסונג 'אבל זה לא טוב כמו אפל', אף שאפל לא הוזכרה בטקסט - הוא נתפס כאנושי יותר. אם הסנטימנט החיובי מאוד חזק, עולה הסבירות שקורא יחשוב שמדובר ברובוט או בטוקבקיסט בתשלום, בגלל האג'נדה".
- חברות מסחריות כבר פנו אלייך כדי לרכוש את הבוט הטוקבקיסט?
"יש לנו שיתוף פעולה עם IBM, שמנסה לבנות היום את הרובוט המתווכח. זהו רובוט ייחודי שאמור להיות מסוגל לנהל דיון בנושא מסוים ולתמוך בו בטיעונים שונים".
- מה ההבדל העיקרי בין הבוט המתווכח לבוט הטוקבקיסט שלכם, שגם הוא מגיב תגובות שמונעות מאג'נדה מסוימת?
"המערכת שלהם יודעת לאתר משפטים בעולם האמיתי ולזהות אותם כטיעונים בוויכוח מסוים, וגם לקטלג אותם כבעד ונגד. היא מאוד חזקה בסיווג. אנחנו עושים משהו אחר לגמרי - מבנים משפטים חדשים, שלא היו קיימים קודם לכן, ומתאימים אותם בכל זאת להקשר של המאמר".
- מתעוררות אצלכם שאלות אתיות כשאתם מביאים לעולם טוקבקיסט רובוט?
"השאלה האתית היא הדבר הראשון שעלה כאשר הסטודנט שלי הציע לי את הפרויקט הזה. הדבר שגרם לי לבסוף להרגיש בנוח הוא ההבנה שכשאנחנו חוקרים מה הופך בוט לאנושי, אנחנו כמו האנטי-האקר - אנחנו חוקרים גם כיצד אפשר לחלשוף אותו, ואכן, בכמה דפים של פוליטיקאים, מצאנו טוקבקים שמקורם ברובוטים בוודאות.
"אם כבר מדברים על בעיה אתית, הבעיה הכי גדולה שלי היא עם האלגוריתמים שמנסים לקרוא את הפיד שלך ברשת החברתית ולהבין את תחומי העניין שלך כדי להעניק לך עוד מאותו דבר. התוצאה היא סגירה של אנשים בגטו של דיעות ותחומי עניין, באופן שגורם גם להקצנה של דיעות. בעיניי, האחריות היא שלנו, מפתחי האלגוריתמים, להכניס לתוכם גם גיוון. התעשייה כנראה לא תעשה זאת".
- הבוט המטקבק שלכם לא עלול ללמוד מטוקבקיסטים אחרים להגיד גם דברים לא כל כך סימפטיים?
"האלגוריתם שלנו ספציפית לא מחקה טוקבקים קיימים כמו שהם אלא בונה משפטים חדשים, אבל כן, טכנולוגיות שלומדות מבני אדם ילמדו את מה שבני אדם מציגים להם. כאשר החברה מקולקלת, אין מנוס מלתקן את החברה ולא את האלגוריתם. בינתיים, עדיין מותר האדם, והוא יקבע את הטון לעצמו ולאלגוריתם, ולא להיפך".
בוטים שמדברים עברית
ד"ר צרפתי מצביעה על דילמה אתית נוספת, הנוגעת לפריווילגיה של השפות הנפוצות. "היום מקובל להסתכל על העולם בפרספקטיבה של פריווילגיות, ובעולם השפות זה אותו דבר. יש שפות פריווילגיות כמו אנגלית, שיש עבורן בוטים ואלגוריתמים מדהימים, ויש שפות שפחות עובדים עבורן, כמו עברית או מלזית או נבאחו.
"שפות הן שונות זו מזו, ומודל שעובד באנגלית לא בהכרח יהיה קל לעשות לו אדפטציה לעברית. למשל המילה 'בצלם', שבעברית יש להבין אותה מההקשר של המשפט - באנגלית כמעט שאין בעיה כזאת, כי המילה נשמרת גם כשהיא מקבלת תחיליות וסופיות.
"מילה בעברית כמו 'כשבבית' מיתרגמת לארבע מילים שונות באנגלית. לכן האלגוריתם של העברית ידרוש חיבור יותר ברור בין רמת המילה לרמת המשפט. זה מאוד בולט באלגוריתמים של תרגום. אחת התרומות הראשונות של המחקר שלי, כדוברת עברית, לתחום הזה הייתה פיתוח מודל משולב של ניתוח מילה ומשפט. הרעיון הזה חלחל מאז גם לחברות כמו גוגל והיום הם נותנים מענה הרבה יותר טוב לעברית מבעבר".
- מה ההבדל בעינייך בין שפה לבינה?
"נהוג להבדיל בין בינה מלאכותית חזקה לבינה מלאכותית חלשה. לדוגמה, לגבי שאלת ההומור - בינה מלאכותית חלשה תוגדר כרגע שבו הרובוט לומד לצחוק במקומות הנכונים ואולי אף לייצר כמה בדיחות מצחיקות בעצמו. בינה מלאכותית חזקה תיחשב כאשר הרובוט 'באמת יבין' מדוע הוא צוחק. אולם, איך נדע שהמחשב באמת מבין אם לא על פי התגובה שלו? כיצד אנחנו בטוחים שכל המוחות האנושיים באמת מבינים הומור באותו אופן?
"לגבי הבינה המלאכותית החלשה, לדעתי אנחנו כבר שם. לגבי הבינה החזקה, קשה לומר אם אנחנו מתקרבים לכך. בני אדם הם לא רכיב אחד שניתן לחקות אלא מכלול - גם יצירתיות וגם שפה טבעית וגם רגש אמיתי וגם אפשרות לרפלקסיה על מצבם".
- מה הדבר הבא שאתם כבר עובדים עליו?
"אנחנו עובדים כרגע על תכנות בשפה טבעית, כך שבסופו של דבר כל אחד יוכל לתכנת את המחשב, גם אם הוא אינו יודע דבר על מדעי המחשב. זה נשמע כמו מדע בדיוני, אבל אין בעצם שום סיבה שלא נגיע לזה יום אחד".
רוצים לחשוף את הבוט? תשאלו אותו שאלות פתוחות
באתר Talkspace פרסמו לאחרונה רשימת שיטות "להוציא מהארון" בוטים שמתחפשים לבני אדם אמיתיים במטרה להוציא מהמצ'וטט מידע, למשל באתרי היכרויות. האתר מכוון את המצ'וטטים לשים לב לאזכורים חוזרים של מוצר או שירות, בעיקר כאלה שלא עולים באופן טבעי בשיחה; לאנשים ששולחים לינקים בלי שהתבקשו; לשאלות מוגזמות על פרטים אישיים, בעיקר בכל הנוגע לחשבונות ולסיסמאות; לאנשים שלוקחים את השיחה לכיוון המיני במהירות ומציעים לשלוח לכם תמונות עירום; למי שעונה במהירות חשודה למה ששאלתם; למי שמדבר בשפה תקנית מידי או במשפטים מובנים מדי - או להיפך, משלב יותר מדי סלנג ואמוג'י במקומות קבועים. כל אלה סימנים לכך שאתם מדברים עם בוט. לפעמים הבוט ינסה לטשטש את הגליצ'ים הללו בשפה בטענה שהוא שהוא אינו דובר את השפה היטב. זה הרי לא כל כך מנומס לקרוא למישהו רובוט כשבעצם הוא רק עולה חדש, והרובוטים מסתמכים על האי-נעימות הזאת.
דרך טובה אחרת לחשוף את הבוטים היא לשאול אותם שאלות פתוחות. "גילינו שרובוטים לא יודעים לענות על השאלות שהכי קל לאדם לענות עליהן, כמו 'אם אתה מסתכל למטה, מה אתה רואה?'", אומרת ד"ר צרפתי, "הרבה יותר קל להם עם שאלות שקשות לבני אדם, כמו "תן לי רשימה של כל הערים בעולם הצמודות לגבול".