עתיד הבינה המלאכותית בישראל / צילום: Shutterstock
מאבק חריף מתנהל בימים אלה בין משרד האוצר והתעשייה הישראלית ובין רשות הגנת הפרטיות, סביב עתיד השימוש בבינה מלאכותית בישראל. רשות הפרטיות מבקשת להחיל הנחיות חדשות שיגבילו משמעותית את האופן שבו חברות ישראליות יטמיעו יכולות בינה מלאכותית בשירותים שלהם עבור לקוחות. טיוטת ההנחיות מעוררות סערה בקרב האוצר, ענף ההייטק והתעשייה, שטוענים כי מדובר ברגולציה מחמירה יותר מזו האירופית, אשר עלולה לפגוע קשות בכלכלה הישראלית ולהרחיק חברות בינלאומיות מהארץ.
● בלעדי | המדינה שתשקיע עשרות מיליונים בישראל, למרות המלחמה
● החברות שישבתו עם משפחות החטופים, אלו שלא ומי עדיין על הגדר
במשרד האוצר מתנגדים להנחיות, בטענה כי מדובר בהוראות בעלות השפעה משקית משמעותית שלא נבחנה כראוי.
לפי מכתב ששיגר האוצר לרשות להגנת הפרטיות, ושהגיע לידי גלובס, עצם הפרסום של הטיוטה "יש בו כדי לשלוח איתות שלילי משמעותי לשוק, לרבות לחברות בינלאומיות שיש לממשלה התקשרות עימן או ששוקלות התקשרות".
זאת, "באופן שעשוי לפגוע בתועלת שיכולה הממשלה להפיק מהתקשרויות כאמור לטובת קידום האינטרס הציבורי". מכתב האוצר חתום על ידי הלשכה המשפטית במשרד, על דעת לשכת המנכ"ל, החשב הכללי ואגף תקציבים.
מעבר להבעת התנגדות, האם בעצם יש למשרד האוצר כוח לבלום את הנחיות הרשות? לרשות הפרטיות יש סמכות לפרסם את ההנחיות עצמאית חרף התנגדויות הנרחבות. אבל באוצר יכולים לשנות אותן בחקיקה בדיעבד, במסגרת חוק ההסדרים הקרוב. זהו הכלי המרכזי של האוצר לרכז שינויים מבניים, ובמשרד כבר שוקלים צעד שכזה, אם ברשות לא ירככו את ההנחיות עד אז. בינתיים, העבודה באוצר על חוק ההסדרים תקועה יחד עם תקציב המדינה לשנת 2026 - שהעבודה עליו עדיין בשלבים ראשוניים למרות לוח הזמנים הדוחק.

כל גוף יצטרך הסכמה מפורשת מהמשתמשים
לפי ההנחיות שפרסמה רשות הגנת הפרטיות, שנחשפו לראשונה בגלובס באפריל האחרון, חוק הגנת הפרטיות יחול גם על מודלי בינה מלאכותית שאוספים ומנתחים מידע אישי בהיקפים גדולים. הרשות קובעת כי מערכות אלה "לומדות" מהמידע, ולכן הסיכון לפרטיות גדל. המשמעות היא שכל גוף או חברה שעושה שימוש בבינה מלאכותית לטובת עיבוד מידע של לקוחות - כמו בנקים, קופות חולים ועוד - יחויב לקבל הסכמה מדעת מפורשת מצד המשתמשים. החברה תידרש להציג למשתמש את המטרה שלשמה הוא נאסף, ואת אופן השימוש בו.
נקודת מחלוקת מרכזית היא האיסור על "סקרייפינג" - כריית מידע אוטומטית מרשת האינטרנט לצורך אימון מודלים של בינה מלאכותית. ההנחיות קובעות איסור מוחלט על פעולה זו ללא הסכמה מפורשת של בעלי המידע - מרשתות חברתיות, מאתרי חדשות ומפורומים.
אלא שכאן האחריות מוטלת גם על בעלי אתרי האינטרנט, שכלל אינם מבצעים את הסקרייפינג, והוא נערך על האתר שלהם על ידי גורמים חיצוניים.
אם ייכרה מידע מהאתר שלהם, חלה עליהם חובת דיווח לרשות הגנת הפרטיות. הרשות מקבלת סמכות להטיל קנסות של עד מיליוני שקלים על חברות שיפרו את החוק.
לפי האוצר, "מדובר בקביעה מרחיקת לכת. כאשר אדם נותן הסכמתו למסירת מידע באינטרנט, למשל ברשתות חברתיות, הוא מסכים לפרסומו ברבים, כך שלא תהיה לו עוד שליטה לגביו. "במשרד טוענים כי הפרשנות של הרשות תוביל לתוצאה אבסורדית: מצד אחד, אדם לא יחזק את הפרטיות על המידע שלו, ומנגד תתחזק היכולת הכלכלית של חברות מסחריות להחזיק במידע אישי ולהפיק ממנו רווח, תוך מניעה מרשויות המדינה להשתמש במידע כדי לקדם את האינטרס הציבורי.

"שינוי הפרשנות יוביל לביטול התקשרויות"
באוצר מלינים על כך שנקבעו בהנחיות נורמות מחמירות יותר מהמקבילות בעולם, ובפרט מאלה של האיחוד האירופי, הידוע ברגולציה נוקשה בתחום הפרטיות. הם מציינים את גילוי הדעת של ה-European Data Protection Board מדצמבר 2024, שדווקא מאפשר כריית מידע במקרים מסוימים גם ללא הסכמה מפורשת, כשמדובר ב"אינטרס לגיטימי".
באוצר מזהירים כי קביעת הוראות מחמירות יותר בישראל עלולה להוביל לפגיעה בשוק הישראלי - שכן חברות רב-לאומיות יקטינו את הפעילות שלהן - או לפגיעה בחברות מקומיות שעוסקות בבינה מלאכותית.
באוצר חוששים גם מפגיעה ביכולת הממשלה עצמה לספק שירותים מתקדמים לאזרחים. "כבר כיום יש לממשלה התקשרויות רבות עם חברות רב-לאומיות למתן שירותי בינה מלאכותית", הסבירו.
"שינוי הפרשנות על ידי רשות הגנת הפרטיות עשויה להוביל לביטול התקשרויות קיימות, להפחית מהרצון של חברות לספק שירותים נדרשים בישראל, או להטיל עלויות משמעותיות להתאמה לפרשנות החדשה".
התנגדות חריפה מצד המגזר העסקי
במיוחד מדאיגה הפגיעה הצפויה במעגל הרחב של הישראלים המשתמשים באופן פרטי במודלים כמו ChatGPT או קלוד: "השפה העברית היא שפה מעוטת דוברים. הדרך היחידה לוודא שטכנולוגיות בינה מלאכותית ייתנו מענה טוב לאזרחי המדינה היא באמצעות אימון מודלים על נתונים מקומיים. הגבלת הגישה לנתונים תפגע בקיומם של מודלים לא מוטים של בינה מלאכותית בשפה העברית", כתבו באוצר לרשות.
התנגדות חריפה להנחיות באה גם מהמגזר העסקי. רון תומר, נשיא התאחדות התעשיינים, הזהיר במכתב לשר המשפטים יריב לוין, כי "טיוטת ההנחיה הנוכחית מעלה חשש אמיתי ליכולת ההייטק והתעשייה המקומית לאמץ ולפתח טכנולוגיות AI".

על פי תומר, דרישות המדינה בטיוטה "חורגות מהמקובל בעולם ומרחיבות את תחולת החוק באופן שיוצר חוסר ודאות משפטית ונחיתות תחרותית".
הוא ציין כי תחום הבינה המלאכותית הוא "מנוע צמיחה אסטרטגי וחיוני לעתיד הכלכלה בישראל", ולפי סקר שביצעה ההתאחדות, 58% מהמפעלים בישראל מצויים בשלבי גיבוש אסטרטגיה של שימוש בכלי בינה מלאכותית.
בענף ההייטק הישראלי, כ-60% מחברות הסטארט-אפ משתמשות בבינה מלאכותית, כ-25% מסך החברות בהייטק עוסקות בתחום, וכ-50% מהשקעות ההון בישראל ב-2023 הוקדשו לטכנולוגיות AI.
גם פורום חברות הצמיחה, הכולל כ-25 חברות הייטק מובילות, יוצא כנגד ההנחיות החדשות. מנהלת הפורום, מיכל שריג כדורי, כתבה לרשות כי "המציאות הטכנולוגית אינה סטטית, ונזקקת להכרה בכך שעולם הנגישות למידע ולשירותים משתנה במהירות".
בפורום טוענים, כי נוסח ההנחיות "מנסה לכפות על טכנולוגיה חדשה את ההיגיון של רגולציה שנולדה מתוך עולם של מאגרי מידע ישנים".
פיקוח על בינה מלאכותית ברמה המשקית
הוויכוח הנוכחי הוא למעשה קרב על עתידה של ישראל כמובילת טכנולוגיה עולמית. עד היום לא חוקקה במדינת ישראל חקיקה שעוסקת בבינה המלאכותית. בניגוד לאיחוד האירופי, שאסדר את התחום בעזרת ה-AI Act, במדינת ישראל בחרו לפקח על שוק הבינה המלאכותית ברמה המשקית - לתת לכל משרד ממשלתי או רגולטור לאסדר את השימוש אצלו, מתוך התפיסה שהוא מכיר הכי טוב את האתגרים בשטח.
כך, נוצר מצב שבו יד ימין של הממשלה אינה יודעת מה עושה יד שמאל. דווקא בשעה שבממשלה מקדמים הקמת מטה AI לאומי, ושוועדת נגל לתחום ממליצה להגביל את חוק הגנת הפרטיות כך שניתן יהיה להשתמש בנתונים לטובת בינה מלאכותית - הרגולטור האחראי על הגנת הפרטיות פועל בכיוון המנוגד וקובע עובדות בשטח ללא הסכמות רחבות. השאלה כרגע היא האם ישראל תמצא את האיזון הנכון בין הגנת הפרטיות לשמירה על יכולת החדשנות - או שמא תיאלץ לבחור בין השתיים.
מהרשות להגנת הפרטיות לא נמסרה תגובה.