top of page
חיפוש
  • אלעד פלד וקרני שגל-פפרקורן

יישומו של חוק איסור לשון הרע לגבי פרסומים הנעשים על ידי בינה מלאכותית: בחינה ראשונית


מבוא

תוצריהן של מערכות בינה מלאכותית משפיעים על מכלול תחומי החיים באופן הולך וגובר. בשנה האחרונה חלה בפרט פריצת דרך משמעותית בטכנולוגיות ה-Foundation models, שבאמצעות מודלים הקרויים Large Language Models (LLMs) מאפשרות יישומי יצירת תוכן מתקדמים, בהם ChatGPT ו-Bard. האפליקציות מבוססות ה-LLM פועלות על בסיס לימוד כמות עצומה של נתונים גדולה בהרבה מכמות הנתונים עליה בוססו דורות הטכנולוגיה הקודמים, באופן שמאפשר ליישומים אלו לתקשר עם משתמשים בצורה מקיפה יותר מאי פעם, ולהשיב לבקשות מורכבות ליצירת תכנים בכל הנושאים. הטכנולוגיה גם מאפשרת למשתמשי קצה רבים נוספים, אף כאלה ללא רקע משמעותי בלמידת מכונה, לפתח על בסיסה אפליקציות שימושיות המותאמות לצרכים קונקרטיים שונים. 


מטבע הדברים, טכנולוגיית הבינה המלאכותית מעוררת סוגיות משפטיות במגוון תחומים. אחד מאותם תחומים הוא דיני לשון הרע. תוכנם של הטקסטים המופקים על ידי מערכות בינה מלאכותית (בכתב או בעל פה) עלול להוות פגיעה בשמם הטוב של אינדיבידואלים. כבר בשנת 2016 נאלצה חברת מייקרוסופט להשבית את “Tay”, הצ'אטבוט שהשיקה רק שעות ספורות קודם לכן, משום שלהפתעת כולם הוא החל להתבטא באופן פוגעני. Tay נועד לתקשר באופן מתורבת ומאמצים רבים הושקעו בתכנונו. אלא ש-Tay (ביחד עם צ'אטבוט דרום קוריאני שהושבת גם הוא זמן קצר לאחר השקתו, בשל התבטאויות פוגעניות) נפל קרבן למשתמשים אשר באופן מכוון "לימדו" אותו להתבטא בצורה פוגענית על ידי כך שהם עצמם תקשרו איתו בסגנון זה, ובנצלם את העובדה שמערכות בינה מלאכותית כוללות מנגנון של "היזון חוזר" שמאפשר להן ללמוד כל העת ולהתעדכן בהתאם ללמידה זו.[1] 


מערכות LLM חדשניות כגון ChatGPT ו-Bard מעוררות חשש מתכנים אסורים, ובהם לשון הרע, ביתר שאת לעומת טכנולוגיות קודמות שהפיקו תכנים. זאת, בין היתר, לאור היקפי השימוש במערכות אלו, המבוצע על ידי משתמשים רבים יותר, בתדירות גבוהה יותר ובתחומים מגוונים הרבה יותר מבעבר. חשוב מכך, אופי הטכנולוגיה עצמה מקשה מאוד על שליטה בתוצרים ומזעור הסיכון לתשובות פוגעניות לשאילתות. מערכות ה-LLM פועלות על עקרון של השלמת מלים: לאחר סריקה ולמידה של מיליארדי טקסטים מסוגים שונים המצויים במרשתת, המערכות יכולות לחזות מה תהא המלה הבאה שמבחינה סטטיסטית יש להשלים בטקסט נתון, כך שטקסט שלם עשוי להיכתב על בסיס השכיחות של צירופי מלים דומים ברחבי הרשת וההקשר שלהן. אם, למשל, אדם מסוים מאוזכר ברשת בהקשר נתון, ואותו הקשר (אך לא אותו אדם) מאוזכר ברשת בהקשר פוגעני, הרי שמודלי ה-LLM אשר לומדים תכנים אלו עלולים להסיק כי המלים הבאות שיש להשלים כשנשאלים לגבי אותו אדם – כלומר המלים שההסתברות שהן יהיו המלים הרלוונטיות היא הגבוהה ביותר – הן מלים שקשורות לאזכור הפוגעני. יתרה מכך, מכיוון שהמערכת פועלת על פי הסתברויות שנלמדות מכמות אדירה של מקורות מידע, ומכיוון שכל "הסתעפות" יכולה להוביל לכמות עצומה של אפשרויות נוספות, ייתכן שכלל לא ניתן יהיה לזהות מהו אותו "קשר עקיף" בין האדם לבין המלים הפוגעניות שהמערכת זיהתה בטעות כקשורות אליו.


לאור זאת, וכפי שידוע היטב למשתמשי ה-ChatGPT ודומיו, לצד המידע בעל הערך שמערכות אלה מפיקות, הן פולטות לא אחת מידע שגוי. כך, למשל, זכה לפרסום מקרה שבו מערכת בינה מלאכותית המציאה תקדימים משפטיים שלא היו ולא נבראו לצורך "טיעון משפטי".[2] מקום בו התוכן השגוי עוסק באנשים ספציפיים – למשל, כאשר מתבקש מן התוכנה מידע ביוגרפי על אדם מסוים, והמידע שניתן כולל פרטים שלא היו ולא נבראו על אישומים פליליים התלויים נגדו, על עיסוקים מפוקפקים בהם מעולם לא עסק או על שערוריות רומנטיות מומצאות – עלולה כמובן להיגרם בשל כך פגיעה ממשית בשם הטוב. 


ואכן, ברחבי העולם דווח כבר על תביעות לשון הרע  נגד יצרנים של תוכנות בינה מלאכותית דוגמת ChatGPT בגין טקסטים שגויים ומשמיצים שהפיקו התוכנות,[3] ונראה כי זהו רק עניין של זמן עד שתביעות דומות תוגשנה גם בישראל. 


תחום הבינה המלאכותית בכללותו זועק להסדרה חקיקתית ורגולטורית, ויוזמות ודיונים בנושא כבר החלו בקרב גופי ממשלה, מלומדים ומכוני מחקר.[4] ואולם, הואיל ומדובר בתחום חדשני ומורכב מאין כמותו, ניתן להניח כי גיבוש ההסדרה בישראל, בפרט בנושא לשון הרע, ובוודאי עיגונה בחקיקה, אינם צפויים בזמן הקרוב. נזכיר כי למעלה מעשרים שנה לאחר שהאינטרנט פרץ אל חיינו, עדיין לא הוסדרו בחקיקה נושאים בסיסיים למדי, כגון התנאים והאופן בהם רשאי בית המשפט להורות על חשיפת פרטיו של גולש שפרסם לשון הרע תחת שם בדוי. סביר אפוא כי בתקופת הביניים עד לחקיקה – ואף לאחריה, בהנחה שהחקיקה לא תוחל רטרואקטיבית – יידרשו בתי המשפט לדון בתביעות לשון הרע נגד יצרני בינה מלאכותית על פי חוק איסור לשון הרע, תשכ"ה-1965 בנוסחו דהיום.   


החיבור הנוכחי מבקש להתמודד עם אתגר זה. במסגרתו נציע ניתוח ראשוני וכללי של הדרכים בהן ניתן וראוי ליישם את החוק הקיים על פרסומי לשון הרע של בינה מלאכותית, תוך ניסיון להתאים את הוראות החוק, את הפרשנות שנתנה להם הפסיקה ואת הרציונלים העומדים ביסודה לתחום הבינה המלאכותית. הניתוח ייעשה בהתאם לשלבים המקובלים העיקריים לדיון בתביעות לשון הרע, קרי, שיקולי המדיניות העומדים על הפרק והאיזון ביניהם; יסודות האחריות ובכללם זיהוי האחראי לפרסום; ההגנות; והסעדים.  

 

שיקולי המדיניות הרלוונטיים והאיזון ביניהם

הפסיקה נוהגת לפתוח את הדיון בתביעות לשון הרע בהתייחסות לשיקולי המדיניות העומדים בבסיסו של ענף משפט זה, מתוך תפיסה כי השיקולים דנן והאיזון ביניהם משליכים על פרשנותן ויישומן של הוראות החוק הקונקרטיות. שיקולים עיקריים אלה הם, כידוע, ההגנה על הזכות לשם טוב מצד אחד ועל חופש הביטוי מן הצד השני, אשר לעמדת הפסיקה נגזרים שניהם מכבוד האדם.


באשר לזכות לשם טוב, זו מבוססת על הצורך האנושי בהערכה פנימית, בגאווה אישית ובהכרה חברתית, ומיוחסת לה חשיבות רבה בפסיקה. כך, למשל, מודגש לעיתים קרובות כי "כבוד האדם ושמו הטוב חשובים לעתים לאדם כחיים עצמם, הם יקרים לו לרוב יותר מכל נכס אחר"; כי "המוניטין של אדם עשוי לחרוץ את גורלו, לשבט או לחסד", וזאת הן בפן החברתי, הן בפן המקצועי והעסקי והן בפן הציבורי; וכי פגיעה לא מוצדקת בשמם הטוב של פרטים בחברה היא גם פגיעה בהתנהלות התקינה של החברה.[5] 


בכל הנוגע לחופש הביטוי, זה נעוץ בעיקר בהגנה על האוטונומיה של הפרט, בחתירה לחקר האמת ובהבטחת תקינות ההליך הדמוקרטי.[6] בפרט מדובר בהקשר לחופש הביטוי על החשש מ"אפקט מצנן". לפיו, הטלת אחריות אזרחית בהיקף רחב על מפרסמים בגין פרסומים שגויים עלולה להובילם להפעיל צנזורה עצמית, אשר בפועל תמנע גם את פרסומו של מידע אמיתי ובכך תפגע בתכליותיו האמורות של חופש הביטוי.[7] ככל שהתוכן הרלוונטי קרוב יותר לליבת חופש הביטוי כך היקף ההגנה עליו גדול יותר.[8]


יש לבחון מה הנפקות לענייננו של דברים אלה, אשר נקבעו בנוגע לפרסומי לשון הרע קונבנציונליים הנעשים על ידי בני אדם.


אשר לזכות לשם טוב – לדעתנו משקלה אינו צריך להשתנות כאשר עסקינן בטקסטים שהופקו על ידי בינה מלאכותית. הצורך האנושי בהערכה פנימית, בגאווה אישית ובהכרה חברתית עומד בעינו ללא קשר לזהות הגורם הפוגע בהן, וכמוהו גם המשמעות המעשית הדרמטית הנודעת לשמו הטוב של האדם על מכלול היבטי חייו, והאינטרס הציבורי הטמון בכך שחיי הקהילה לא יתנהלו על סמך מידע כוזב. אדם סביר עשוי אמנם לתת משקל מסוים לעובדה שהמידע שבפניו נוצר על ידי בינה מלאכותית (ככל שהוא מודע לכך), אך עצם העובדה שהוא משתמש בתוכנה לצרכיו מלמדת כי הוא נותן לפחות מידה מסוימת של אמון בתכנים המופקים על ידה. אף אם המשתמש מבין כי חלק מן המידע עשוי להיות מוטעה, לא נראה כי טמון בכך הבדל מהותי לעומת מידע שמפרסמים בני אדם, אשר גם לגביו מבין קורא ושומע סביר כי אין תמיד ערובה לנכונותו. לזאת יש להוסיף כי התכנים שמפיקה הבינה המלאכותית מבוססים כאמור על איסוף פריטי מידע שנוצרו במקורם על ידי בני אדם (גם אם מדובר בתוכן שבפני עצמו איננו פוגעני או כלל לא קשור לאדם נשוא הטקסט שנוצר על ידי המערכת) – דבר הידוע אף הוא לפחות לחלק מהמשתמשים בתוכנה.    


דומה שלא כך לגבי חופש הביטוי. הגשמה עצמית ואוטונומיה של הרצון הפרטי הן זכויות של בני אדם בלבד ואינן נתונות לתוכנות מחשב, בוודאי במצב המשפטי הקיים. אמנם תוכנות בינה מלאכותית מיוצרות על ידי תאגידים, הנהנים בעצמם מזכויות משפטיות ואשר בני אדם שולטים בהם ומפעילים אותם, אך כל מהותה של הבינה המלאכותית שהיא עצמה, ולא מפתחיה, מפיקה את תוצריה. אין יסוד לומר כי לבני האדם שמאחורי התאגידים זכות מוגנת הפרושה על כל אותם תוצרים, ואף לא זכות מוגנת לכך שהתוכנה שפיתחו "תתבטא" בחופשיות. משתכלית מרכזית של חופש הביטוי, שהיא גם בעלת הזיקה המובהקת ביותר לזכות החוקתית לכבוד,[9] אינה רלוונטית לעולמות הבינה המלאכותית, הרי שכבר מטעם זה פוחת משקלה באיזון מול הזכות לשם טוב.    


גם משקלן של התכליות הקולקטיביות של חופש הביטוי נראה פחוּת ככל שהדברים אמורים בבינה מלאכותית. אין חולק אמנם כי לבינה מלאכותית יישומים הולכים ומתרחבים וכי יש לה פוטנציאל תועלת רב עבור פרטים ותאגידים המשתמשים בה. ברור גם כי החשש מפני חשיפה משפטית עלול לגרום לאפקט מצנן ביחס לפיתוחן של טכנולוגיות חדשניות ושל אפליקציות המבוססות עליהן, אשר עשויות להיות מועילות עבור החברה כולה. אך מנגד, תועלתה החברתית של הבינה המלאכותית (או לפחות של טכנולוגיית LLM הרלוונטית לדיון הנוכחי) רחוקה מלהיות מוכחת,[10] ולמעשה ישנם קולות בולטים - לרבות מתוך תעשיית הטכנולוגיה העילית עצמה - הגורסים כי סכנותיה העכשוויות, ובמיוחד העתידיות, הן משמעותיות ויכול שאף עולות על תועלותיה.[11]


באופן ספציפי, אם נשים לנגד עינינו את מה שככל הנראה הוא המטרה האולטימטיבית של חופש הביטוי - ליבונן הפתוח של סוגיות עובדתיות וערכיות, המאפשר לחברה לגבש עמדה לגביהן על סמך מירב המידע והרעיונות שבנמצא[12] - הרי שספק עד כמה מטרה זו תקודם בעזרת תוכנות, אשר מבצעות איסוף אגרסיבי של אינספור פרטי מידע ומעבדות אותם לכלל טקסט אחד במענה לכל שאילתה. קיימות כאמור אף דוגמאות לכזבים בוטים שהפיקו תוכנות בינה מלאכותית, אשר בוודאי שאינם מקדמים מטרה זו. לזאת יש להוסיף כי המוטיבציה העיקרית לייצורה של בינה מלאכותית כיום היא כנראה מוטיבציה מסחרית, זאת שעה שחופש הביטוי המסחרי זוכה בפסיקה למשקל מוגבל לעומת חופש הביטוי הפוליטי, חופש העיתונות וחופש היצירה.[13] לבסוף, נראה כי החשש מאפקט מצנן אינו גבוה במיוחד בהקשר הנדון. סכומי הפיצוי שנהוג לפסוק בישראל בתביעות לשון הרע אינם גבוהים בדרך כלל, במיוחד בגין פרסומים בעלי תפוצה מצומצמת. תפוצה כזו מאפיינת כיום ככל הנראה את מרבית פרסומי הבינה המלאכותית, הנעשים כלפי משתמש ספציפי במענה לשאילתה שהזין, כך שתשלום הפיצויים צפוי ככלל להוות מחיר נסבל עבור היצרנים ולא לפגוע באורח ניכר בפיתוח ובחדשנות.    


לסיכום נושא זה, בעוד משקלה של הזכות לשם טוב אינו מושפע לדעתנו באופן מהותי מהעובדה שהתוכן הפוגעני חובר על ידי בינה מלאכותית ולא על ידי אדם או תאגיד, הרי שמשקל הזכות לחופש הביטוי מושפע בהחלט מהבדל זה. כאמור, כאשר מדובר בתכנים יצירי בינה מלאכותית, מדובר בתהליך התבטאות שמקדם פחות את המטרות שבבסיס חופש הביטוי וכן משקף במקרים רבים אינטרסים מסחריים. נראה, אם כן, שלא בשלה העת לייחס לביטוי של בינה מלאכותית חשיבות חברתית השקולה לזו של ביטוי אנושי. עמדה מהפכנית שכזו תוכל להישקל רק לאחר בחינה מקיפה - לרבות אמפירית - של אופי תוצריהן של תוכנות בינה מלאכותית ושל השפעת תוצרים אלה על השיח החברתי לאורך שנים. הפועל היוצא של האמור הוא כי באיזון שבין הזכות לשם טוב לחופש הביטוי, הנעשה לצורך יישום החקיקה הקיימת על פרסומים של בינה מלאכותית, ראוי שתינתן עדיפות עקרונית לזכות לשם טוב, וזאת כמובן מבלי לזנוח כליל את השיקולים של פיתוח הטכנולוגיה והחשש מפני אפקט מצנן. איזון עקרוני זה צריך לעמוד בפני הפרשן בבואו ליישם את הוראות החוק, במיוחד בשאלות שהחוק לא נותן לגביהן תשובה מפורשת, כמפורט להלן. 

 

יסודות האחריות

הגדרת העוולה האזרחית של פרסום לשון הרע, הקבועה בסעיף 7 לחוק איסור לשון הרע (להלן: החוק), כוללת שלושה יסודות: פרסום; לשון הרע; לאדם או יותר זולת הנפגע.[14] 


נפתח ביסוד הראשון – יסוד הפרסום. יסוד זה מוגדר בסעיף 2 לחוק כדלקמן:

(א)   פרסום, לענין לשון הרע – בין בעל פה ובין בכתב או בדפוס, לרבות ציור, דמות, תנועה, צליל וכל אמצעי אחר.

(ב)   רואים כפרסום לשון הרע, בלי למעט מדרכי פרסום אחרות  –

(1)    אם היתה מיועדת לאדם זולת הנפגע והגיעה לאותו אדם או לאדם אחר זולת הנפגע;

(2)    אם היתה בכתב והכתב עשוי היה, לפי הנסיבות, להגיע לאדם זולת הנפגע.


ההגדרה דנן היא הגדרה מרבה, ואינה מוגבלת לסוגי פרסומים, לדרכי פרסום ולמדיות מסוימות של פרסום. לאור זאת הפסיקה לא התקשתה לקבוע, למשל, כי הפצת מידע באופן מקוון, לרבות שיתופו, מהווים פרסום לצורך החוק.[15] מכאן קצרה הדרך לקבוע כי גם טקסט כתוב שהופק על ידי בינה מלאכותית, ואשר לפחות מבחינה צורנית קשה מאוד להבחין בינו לבין טקסט שנכתב על ידי אדם, נופל לגדר ההגדרה האמורה. השאלה העיקרית שמתעוררת נוגעת אפוא לעניין אחר – זהות הגורם שייחשב למפרסם. ליתר דיוק, מאחר שאין אפשרות משפטית ומעשית לתבוע את התוכנה עצמה, השאלה הנשאלת היא האם ניתן לראות ביצרן התוכנה כאחראי לפרסום שהפיקה התוכנה, למרות שהוא אינו שולט בפועל על הפרסומים ועל תוכנם אלא רק על המנגנון להפקתם.[16] 


לדעתנו התשובה לשאלה זו חיובית. הגדרת יסוד הפרסום שהובאה לעיל, הכוללת בין היתר קטגוריית סל של "כל אמצעי אחר" ואף מובהר כי חלופותיה אינן גורעות מ"דרכי פרסום אחרות", הנה רחבה דיה כדי לחול על הנגשה לציבור של תוכנה מחוללת פרסומים, שכן הנגשה זו היא הגורם הסיבתי לכל פרסום ופרסום הנעשה על ידי התוכנה. מעבר לכך, כתת-תחום של דיני הנזיקין, כפופים דיני לשון הרע לעקרונות הכלליים של ענף זה, לרבות בכל הנוגע לאחריות נגזרת בגין מעשים שהנתבע לא ביצע בעצמו.[17] לפיכך תיתכן הטלת אחריות על היצרן גם בהתאם לפקודת הנזיקין כמי ש"משתף עצמו, מסייע ... למעשה או למחדל, שנעשו או שעומדים להיעשות על ידי זולתו, או מצווה, מרשה או מאשרר אותם".[18] הקושי הלשוני הטמון בכך שהמילה "זולת" מתייחסת בדרך כלל לאדם יכול להיפתר אם נראה ב"זולת" כמשתמש המבקש להגיע למידע המופק על ידי בינה מלאכותית, וביצרן כמי שמשתתף במעשה זה, מסייע לו או מרשה אותו על ידי הנגשת התוכנה למשתמש. זאת, בין היתר, בהתחשב בכך שסעיף 12 לפקודת הנזיקין אינו מתנה את האחריות הנגזרת בכך שה"זולת" יבצע בעצמו עוולה. לבסוף, במידה שהנפגעת פונה ליצרן בבקשה כי יגרום לכך שהתוכנה תחדל מלהפיק את התוכן הפוגעני על אודותיה, והוא לא עושה כן,[19] מתהדקת הזיקה בין היצרן לבין הפרסום הספציפי ומתחזקת ההצדקה לראותו כאחראי לפרסום.[20] 


העמדות הפרשניות הללו אינן טריוויאליות כמובן, וניתן לחלוק עליהן הן בראי לשונה של החקיקה והן בראי תכליתה הסובייקטיבית המשוערת. ואולם מה שמכריע את הכף לטובת אימוצן הם שיקולי המדיניות עליהם עמדנו לעיל. אם לא ניתן יהיה להטיל אחריות על יצרני בינה מלאכותית עד לתיקון החקיקה, תתאפשר הפצה חופשית של מידע כוזב על ידי התוכנות, מבלי שהנפגעים ממנו – תהא הפגיעה בהם חמורה ככל שתהא – יזכו בתרופה כלשהי. בהינתן משקלה העודף של הזכות לשם טוב באיזון העקרוני מול חופש הביטוי הנתון לבינה המלאכותית וליצרניה, לא ניתן להשלים עם תוצאה זו.  


יסוד האחריות השני - לשון הרע - לא צפוי לעורר בעיות מיוחדות בכל הנוגע לפרסומים של בינה מלאכותית. השאלה האם פרסום מהווה לשון הרע, קרי, האם הוא עלול "להשפיל אדם בעיני הבריות או לעשותו מטרה לשנאה, לבוז או ללעג מצדם"[21] או לקיים את אחת מהגדרות המשנה האחרות שבסעיף 1 לחוק, תלויה בראש ובראשונה בתוכן הפרסום כפי שהוא מתפרש על ידי אדם סביר.[22] כפי שטענו לעיל, נראה כי בהיבט זה לא טמון הבדל משמעותי, המחייב טיפול משפטי אחר, בין תוכן שנוצר על ידי אדם לתוכן שנוצר על ידי בינה מלאכותית (וכאמור נשען בבסיסו על תכנים מעשה ידי אדם). במצב דברים זה, תכנים של בינה מלאכותית המייחסים לנפגעת תכונות או מעשים הנתפסים בחברה כשליליים צפויים ככלל להיות בעלי אפקט דומה לזה של תכנים אנושיים, ולקיים את הגדרת סעיף 1 לחוק.


היסוד השלישי, לפיו הפרסום נעשה לאדם זולת הנפגע, יתקיים כל אימת שלפחות משתמש אחד שאינו הנפגעת נחשף לתוכן שהפיקה התוכנה. מובן שמבחינה מעשית התביעה תוגש רק אם התוכן הגיע בדרך זו או אחרת גם לידיעת הנפגעת עצמה. כמו כן, נראה כי יסוד זה יתקיים גם אם הנפגעת תצליח להראות רק שהיא עצמה נחשפה בפועל לתוכן הפוגעני, למשל כאשר הזינה לתוכנה שאילתה על עצמה. זאת, מאחר שלפי סעיף 2 הנ"ל, לצורך הטלת אחריות בגין פרסום בכתב די בכך שהפרסום "עשוי היה ... להגיע לאדם זולת הנפגע",[23] ועל יסוד ההנחה כי משתמשים אחרים שיזינו שאילתה דומה יקבלו תוצאה דומה.  


נסיים פרק זה בשלוש הערות. ראשית, למרות שמרבית הנתבעים הפוטנציאליים בגין פרסומי בינה מלאכותית צפויים להיות תאגידים זרים, ובראשם כמובן חברת OpenAI, יצרנית ChatGPT, אין בכך כדי לשנות מן הניתוח האמור. הפסיקה בישראל אינה נרתעת מלהחיל במקרים מתאימים את סמכות השיפוט הישראלית ו/או את הדין הישראלי על תאגידי ענק זרים המציעים שירותיהם למשתמשים בישראל, למרות שטרם ידוע האם הם יצייתו בהכרח לפסק דין ככל שיינתן נגדם, ואם לא – כיצד ניתן יהיה לאכפו.[24] סוגיה זו חורגת גם מגדר החיבור הנוכחי. מכל מקום, קיימות מערכות בינה מלאכותית היוצרות תכנים שפותחו בישראל (כגון A21 Labs), ובנוסף לכך ניתן להניח כי מפותחות ותפותחנה אפליקציות ישראליות המבוססות על תוכנות כאלה, וכי גם אלו עלולות להפיק תכנים בגינם תוגשנה תביעות לשון הרע.     


שנית, אם חרף האמור לעיל תידחה העמדה כי יצרן בינה מלאכותית מקיים את יסוד הפרסום, עשויה להתאפשר הטלת אחריות עליו מכוח עוולת המסגרת של הרשלנות, החלה באופן עקרוני על מעשים ומחדלים מכל מין וסוג אשר גרמו לנזק.[25] מבחניה של עוולת הרשלנות ושיקולי המדיניות להפעלתם שונים בתכלית מאלה של העוולה הפרטיקולרית של פרסום לשון הרע, ואף הדיון לגביהם חורג מן המסגרת הנוכחית. נציין רק כי למרות העדרן של מגבלות אפריוריות, הוכחת רשלנות בענייננו רחוקה מלהיות פשוטה, זאת בין היתר – אך לא רק – מכיוון שהתובעת תהיה חייבת כנראה לשכנע את בית המשפט כי היצרן חרג מסטנדרט ההתנהגות המצופה מיצרן תוכנה סביר, ואולי אף מיצרן סביר של תוכנת בינה מלאכותית, או, לחלופין, כי האלגוריתם עצמו חרג מסטנדרט זה.[26]  


שלישית, לעיתים גם המשתמש בתוכנה עשוי להיחשב כאחראי לצד היצרן, וזאת, למשל, הזין לתוכנה שאילתה ה"מזמינה" פרסום לשון הרע, ובוודאי שאם הפיץ את התוכן שהפיקה התוכנה.

 

ההגנות

חוק איסור לשון הרע מקנה למי שנקבע כי פרסם לשון הרע שלושה סוגי הגנות: חסינויות החלות על "פרסומים מותרים" לפי סעיף 13; הגנת האמת בפרסום לפי סעיף 14; והגנות תום הלב המעוגנות בסעיף 15.

הגנת האמת בפרסום אמורה לחול לגבי פרסומי בינה מלאכותית באופן דומה לתחולתה על פרסומים אנושיים. זאת, מאחר שהיא נעוצה בתוכן הפרסום, בהתאמה בינו לבין המציאות האובייקטיבית ובעניין הציבורי הטמון בו – יסודות שאינם תלויים בזהות הגורם המפרסם או בהתנהלותו. כך הדבר גם לגבי אלה מהחסינויות העשויות להיות רלוונטיות לענייננו, דוגמת החסינויות החלות ביחס ל"דין וחשבון נכון והוגן" על מה שנאמר במסגרת הליך שיפוטי או על ידי אחד הגורמים הרשמיים המפורטים בסעיף 13.  


התמונה הנוגעת לסעיף 15 לחוק שונה ומורכבת יותר. מלכתחילה, מרבית סעיפי המשנה של סעיף זה אינם רלוונטיים לענייננו. אלו עוסקים, למשל, בהתנהגויות ובמוטיבציות אנושיות מטבען, כגון הגנה על ענין אישי כשר, [27] הגשת תלונה[28] וגינוי לשון הרע שפורסמה קודם לכן,[29] וכן בהבעת דעה,[30] אשר ספק רב אם ניתן לייחסה לבינה מלאכותית, בפרט מבחינת האופן שבו המשתמשים תופסים את התוכן המופק.


מכל מקום, ייתכן שאין צורך להידרש באריכות לסעיפי משנה אלה, שכן כמעט תמיד יוכל היצרן להיתלות בהגנת סעיף 15(1) לחוק (האזוטרית למדי בימינו), החלה מקום בו הנתבע "לא ידע ולא היה חייב לדעת על קיום הנפגע או על הנסיבות שמהן משתמעת לשון הרע או התייחסותה לנפגע". זאת, מאחר שתוכנת הבינה המלאכותית, מעצם טיבה, מפיקה תכנים מבלי שהיצרן שולט עליהם או מתכוון מראש שהם יופקו. אמנם, הצטברות העדויות אודות פוטנציאל פגיעת לשון הרע בידי מערכות בינה מלאכותית עלול לעורר טענה של עצימת עיניים מצד היצרן, אך מכיוון שהגנת סעיף 15(1) מתייחסת במפורש לקיומו של נפגע ספציפי ופגיעה ספציפית, נראה שלא יהיה די בידע על פוטנציאל הפגיעה הכללי של המערכת בכדי לשלול את ההגנה. מאידך גיסא, הגנה זו לא תחול בתרחיש בו הנפגעת מפנה את תשומת לב היצרן להפקת התוכן הפוגעני לגביה ומבקשת כי יפעל להפסקתה, והוא לא עושה כן.


התנאי המצטבר השני לתחולת ההגנה, לצד התקיימות אחד מסעיפי המשנה של סעיף 15, הוא תנאי תום הלב.


על פי הגישה המקובלת, יסוד תום הלב בדיני לשון הרע נקבע על פי בחינה משוקללת של ארבעה רכיבים, זאת ברוח חזקות תום הלב וחוסר תום הלב המנויות בסעיף 16 לחוק: אמונת המפרסם באמיתות הפרסום; נקיטת אמצעים סבירים לבדיקת אמיתות הפרסום; מניעי המפרסם; וסבירות הפרסום עצמו.[31] לצד זאת יש לזכור כי תום לב הוא מושג שסתום גמיש, אשר יישומו משתנה בהתאם להקשר הספציפי ולשיקולי המדיניות הנוגעים לאותו הקשר. בשים לב להבהרה זו נתייחס בקצרה לכל אחד מן הרכיבים שמנינו.


אמונה באמיתות הפרסוםלכאורה תנאי זה אינו רלוונטי ליצרן של תוכנת בינה מלאכותית, שכן ברגיל הוא כלל אינו מודע לתוכן הפרסומים שהתוכנה עתידה להפיק ושהיא מפיקה בפועל. ואולם מנגד, ניתן לומר כי תנאי זה לא מתקיים כל אימת שהנתבע אינו יכול להראות פוזיטיבית כי האמין באמיתות הפרסום, כאשר העדר מודעות לפרסום הקונקרטי עצמו אינו מעלה ואינו מוריד מכך. תמיכה בפרשנות זו עשויה להימצא בכך שהנטל להוכיח הגנה בלשון הרע, וממילא כל אחד מרכיביה, מוטל כברירת מחדל על הנתבע,[32] ובפרט בסעיף 16(ב)(1) לחוק, המקים חזקת חוסר תום לב מקום בו "הדבר שפורסם לא היה אמת ו[הנתבע] לא האמין באמיתותו", באופן המתייחס, לפי לשון הסעיף, לאמונה באמיתות הפרסום הקונקרטי.


נקיטת אמצעים סבירים לבדיקת אמיתות הפרסום: בראי שיקולי המדיניות עליהם עמדנו לעיל, ניתן לטעון כי מצופה מיצרן שלא ישחרר תוכנה לשימוש הציבור כל עוד לא הבטיח באופן הרמטי או קרוב לכך כי היא לא תפיק פרסומי לשון הרע שגויים, שאם לא כן הוא אינו עומד בתנאי הבדיקה הסבירה. לכך יש להוסיף כי סעיף 16(ב)(2) לחוק מקים חזקת חוסר תום לב מקום בו "הדבר שפורסם לא היה אמת ו[הנתבע] לא נקט לפני הפרסום אמצעים סבירים להיווכח אם אמת הוא אם לא", ואף זאת בהתייחס לפרסום הקונקרטי. 


ואולם, לאור טבען הלא צפוי אינהרנטית של מערכות LLM, שבהכרח יפיקו לעיתים תכנים שהיצרן לא היה מעוניין בהפקתם ולא היה יכול למנעם כליל, ובשים לב לשימושים המועילים הנודעים למערכות אלה והחשש מפני אפקט מצנן על פיתוחן, דרישה מיצרן כי ימנע הרמטית הפקת פרסומים שגויים, או כי יבדוק (לרבות למפרע) את אמיתותם של פרסומים ספציפיים, אינה ריאלית ואינה רצויה. ניתן לטעון כי תחת זאת, יש להסתפק בבחינה אם ננקטו אמצעים סבירים למזעור הסיכון הכללי של הפקת תכנים משמיצים וכוזבים על ידי התוכנה - נטל אשר יש להניח כי לא אחת יצליח הנתבע להרימו, למשל בעזרת חוות דעת מומחה.


תיתכן גם גישת ביניים המבקשת להגן באופן ממשי על השם הטוב אך מבלי "לשפוך את התינוק עם המים". זאת, למשל, על ידי מבחן המשלב בין התנאים הראשון והשני, ובוחן את אמונתו הסובייקטיבית של היצרן במידה שבה האמצעים שנקט צפויים למנוע בפועל פרסומי לשון הרע שגויים. במסגרת גישה זו בתי המשפט יוכלו גם להתייחס באופן שונה לנתבעים שונים על פני הסקאלה שבין תאגיד ענק המייצר תוכנת בינה מלאכותית למשתמש קצה שפיתח אפליקציה המבוססת על תוכנה כזו, זאת הן לגבי מידת הבדיקה המצופה מהנתבע והן לגבי המשקל שייוחס לתנאי הנדון במסגרת מבחני תום הלב.


מניעי המפרסם: יש להניח כי במרבית המקרים לא יהיה יסוד לייחס ליצרן מניע בלתי לגיטימי ובפרט כוונה לפגוע בתובעת.


סבירות הפרסום: בניגוד למקרה טיפוסי בו סבירות הפרסום היא אינדיקציה לתום ליבו של המפרסם שניסח והפיץ אותו, בענייננו קשה יהיה לקשור בין סבירותו של פרסום קונקרטי שהפיקה תוכנה לבין תום ליבו של יצרנה, זולת בהתקיים אינדיקציות לכך שהתוכנה הוכוונה מראש להפיק פרסומים העלולים להיות פוגעניים או להפיצם בתפוצה רחבה.


יסוד תום הלב אמור אפוא להיות המשתנה הייחודי העיקרי של תביעות לשון הרע בגין פרסומי בינה מלאכותית, ויספק את הכר הנרחב ביותר לשיקול דעת שיפוטי. יכול שהוא אף יביא בפועל לדחייתן של תביעות בגין פרסומים משמיצים שיתבררו כשגויים, בפרט על ידי שופטים שייחסו חשיבות ציבורית רבה יותר לקידום הבינה המלאכותית ולמניעת אפקט מצנן לעומת המוצע לעיל.    

 

הסעדים

הסעדים אותם ניתן יהיה לפסוק כנגד יצרן בינה מלאכותית שתוטל עליו אחריות יוכלו להיקבע, ככלל, בהתאם לשיקולים הרגילים הנוהגים בהקשר זה.[33] כך, לצורך קביעת גובה הפיצוי, מתבקש יהיה לבחון בראש ובראשונה את חומרת תוכן הפרסום, את תפוצתו ואת השפעתו בפועל על חייה של התובעת. השוני העיקרי לעומת פרסומים מן הסוג המוכר לנו כיום הוא כי היקף החשיפה לפרסום של בינה מלאכותית עשוי להיות לא ידוע, מאחר שהוא פונקציה של כמות המשתמשים שהתוכנה הציגה בפניהם תוכן דומה במענה לשאילתות שהזינו. בעניין זה יוכל בית המשפט, לבקשת התובעת, להורות לנתבע לבדוק כמה משתמשים נחשפו למידע משמיץ דומה על התובע ולחשוף נתונים אלה. ככל שייטען שהדבר אינו אפשרי מבחינה טכנית, יוכל בית המשפט להניח לחובת הנתבע כי התפוצה הייתה רחבה.  


כמו כן, ניתן יהיה לתת צווים מכוח סעיף 9 לחוק איסור לשון הרע, המורים לנתבע לנקוט צעדים למניעת הישנות הפרסום ולהפצת תיקון אל כל מי שנחשף לפרסום. אף בהקשר זה, ככל שייטען שהדבר אינו אפשרי מבחינה טכנית, יוכל בית המשפט להניח לחובת הנתבע כי שמה הטוב של התובעת ימשיך להיפגע בעתיד, ולכמת את הפיצוי המגיע לה בהתאם.

 

סיכום

ברשימה זו הונחו קווי יסוד ראשוניים ליישומו של חוק איסור לשון הרע הקיים על פרסומים שנעשו על ידי בינה מלאכותית. מסקנתנו היא כי החוק יכול לחול, וראוי שיחול בצורה רחבה, על פרסומים אלה, כל עוד הוא לא ישונה באופן המכיר בחשיבותה של הבינה המלאכותית והמקנה הגנה מוגברת ליצרניה. דיון זה כמובן אינו ממצה את מכלול התרחישים העשויים להתעורר ואת מכלול השאלות העשויות לעלות לגביהם, ובעיקר – הוא אינו נדרש כלל לדין החקוק הרצוי. לנושא זה נדרש בבוא העת. 

 

 

 

* עו"ד ד"ר אלעד פלד הוא שותף במשרד ניר כהן, לשם, בן-ארצי ושות'. עו"ד ד"ר קרני שגל-פפרקורן היא עמיתת מחקר בכירה במרכז שמגר למשפט דיגיטלי וחדשנות, אוניברסיטת תל-אביב. האמור ברשימה זו משקף את עמדת המחברים בלבד. תודתנו נתונה לאמיר בן-ארצי, לשלומי הוד, לעדי הלל זאבי ולחברי מערכת תגוביות משפט על הערותיהם ותרומתם למאמר.


המאמר נכתב והתקבל לפרסום לפני ה-7 באוקטובר 2023, שלאחריו העיסוק בנושאי המאמר נדמה כמותרות של עידן אחר. אנו תקווה כי לא ירחק היום בו יוכלו הציבור והקהילה המשפטית לשוב ולעסוק בענייני חולין כגון זה.  

** אזכור מוצע: אלעד פלד וקרני שגל-פפרקורן ״יישומו של חוק איסור לשון הרע לגבי פרסומים הנעשים על ידי בינה מלאכותית: בחינה ראשונית״ פורום עיוני משפט (תגוביות משפט) מח (10.1.2024)  https://www.taulawreview.sites.tau.ac.il/post/peled_chagal.


[1]Justin McCurry, South Korean AI chatbot pulled from Facebook after hate speech towards minorities, The Guardian (Jan. 14, 2021), https://www.theguardian.com/world/2021/jan/14/time-to-properly-socialise-hate-speech-ai-chatbot-pulled-from-facebook;  Daniel Faltesek, Reverse Engineering Tay, National Communication Association (2016).

[2] Molly Bohannon, Lawyer Used ChatGPT In Court—And Cited Fake Cases. A Judge Is Considering Sanctions, Forbes (June 18, 2023), https://www.forbes.com/sites/mollybohannon/2023/06/08/lawyer-used-chatgpt-in-court-and-cited-fake-cases-a-judge-is-considering-sanctions/?sh=362f06e57c7f .

[3] ראו Walters v. OpenAI, L.L.C., 1:2023cv03122 (N.D. Ga. July 14, 2023)  בו תבע שדרן הרדיו Mark Walters את OpenAI בלשון הרע, משום ש-ChatGPT השיב לצד שלישי שביקש מידע אודות התובע, כי התובע מואשם בהונאה ובמעילה בכספי עמותה - עובדות שלטענת התובע לא התרחשו מעולם. 

[4] ראו למשל משרד החדשנות המדע והטכנולוגיה מדיניות שרת החדשנות, המדע והטכנולוגיה - רגולציה ואתיקה לתחום הבינה המלאכותית (2022); ״חוות דעת: שימושים בתכנים מוגנים בזכויות יוצרים לצורך למידת מכונה״ (חוות דעת של מחלקת ייעוץ וחקיקה, משרד המשפטים 18.12.2022); תהילה שוורץ אלטשולר ועמיר כהנא אדם, מכונה, מדינה: לקראת אסדרה של בינה מלאכותית (2023).

[5] ראו למשל ע"א 6903/12 Canwest Global Communications Corp נ' עזור, פס' 8 (נבו 22.7.2015) (להלן: "עניין עזור").

[6] ראו למשל שם,  בפס' 9; ע"א 10281/03 קורן נ' ארגוב, פס' 9 (נבו 12.12.2006).

[7] ראו למשל ע"א 89/04 נודלמן נ' שרנסקי, פס' 62 (נבו, 4.8.2008) (להלן: ״עניין שרנסקי"); דנ"א 2121/12 פלוני נ' דיין אורבך, פ"ד סז(1) 667), פס' 50 (2014).

[8] עניין עזור, לעיל ה״ש 5, בפס' 9.

[9] ראו אלעד פלד "האם 'ציפור נפשה של הדמוקרטיה' היא ציפור נפשו של האדם? מבט ביקורתי על עיגונו החוקתי של חופש הביטוי בפסיקה" מחקרי משפט כו 283 (2010).

[10] ראו למשל יובל דרור "כולנו נעשינו טיפשים, מספיק. היחס לבינה מלאכותית מוגזם ומופרך" הארץ )27.9.2023) https://www.haaretz.co.il/magazine/the-edge/2023-09-27/ty-article/.highlight/0000018a-d645-d971-afbb-df7717420000.

[11] ראו למשל יובל נח הררי "הבינה המלאכותית מאיימת על האנושות. אנחנו חייבים לפעול מיד" ynet (6.5.2023) https://www.ynet.co.il/digital/technology/article/r1xp0i143; קייד מץ '"הסנדק של הבינה המלאכותית' עוזב את גוגל כדי להזהיר מסכנות הטכנולוגיה" TheMarker )1.5.2023( https://www.themarker.com/wallstreet/2023-05-01/ty-article/.premium/00000187-d7a2-d9b4-abaf-ffbe4b770000.

[12] ראו למשלAlexander Meiklejohn, The First Amendment is an Absolute, 1961 Sup. Ct. Rev. 245, 255 (1961)  ; Kent Greenawalt, Free Speech Justifications, 89 Colum. L. Rev. 119, 145 (1989); אילנה דיין‑אורבך "המודל הדמוקרטי של חופש הביטוי" עיוני משפט כ 377, 381 (1996); בג"ץ 399/85 כהנא נ' הוועד המנהל של רשות השידור, פ"ד מא(3) 255, 273 (1987).

[13] ראו למשל בג"ץ 4804/94 חברת סטיישן פילם בע"מ נ' המועצה לביקורת סרטים, פ"ד נ(5) 661, פס' 9 לפסק דינו של הנשיא ברק (1997).

[14] פרסום לשון הרע יכול להוות גם עבירה פלילית לפי סעיף 6 לחוק. אלא שמדובר, הלכה למעשה, באות מתה, שכן המדינה לא מגישה כתבי אישום בגין פרסום לשון הרע (ובצדק), ומעט הקובלנות הפרטיות שמוגשות נדחות ברובן בשל התנאים המחמירים להוכחת אחריות.

[15] ראו למשל רע"א 1239/19 שאול נ' חברת ניידלי תקשורת בע"מ (נבו 8.1.2020) (להלן: "עניין שאול").

[16] יובהר כי הדיון המתקיים זה שנים לא מעטות לגבי אחריות "מתווכים" לפרסומים מקוונים אינו נוגע לענייננו, שכן הוא עוסק באתרים המהווים פלטפורמה להפצת פרסומים שנכתבו על ידי גורם אחר. ראו מיכל לביא "הוצאה מהקשר: על אחריות מתווכים מקוונים להפצה משנית ולהשפעה על זמינות מידע" מחקרי משפט לא 491 (2018). 

[17] סעיף 7 סיפא לחוק איסור לשון הרע, תשכ"ה-1965 (להלן: החוק), וכן ראו, למשל, ע"א 6871/99 רינת נ' רום ,פ"ד נו(4) 72 (2002). יצוין כי חוק איסור לשון הרע כולל בסעיפים 12-11 גם הסדרים בדבר אחריות נגזרת של אמצעי תקשורת ובעלי תפקידים בהם, אלא שאמצעי תקשורת מוגדרים לצורך זה כ"עתון וכן שידורי רדיו וטלויזיה הניתנים לציבור" – הגדרה אשר אינה מתקיימת לגבי תוכנות בינה מלאכותית. עוד יצוין כי לפי גישה שהועלתה בספרות, ראוי להטיל אחריות בגין נזקי בינה מלאכותית מכוח דיני השליחות, אלא שנראה שגם יישומה אינו יכול להיעשות על סמך החקיקה הקיימת. ראו ענת ליאור "אחריות נזיקית של בינה מלאכותית – אנלוגיית השליחות" טכנולוגיות מתפרצות: אתגרים בדין הישראלי 183 (ליאור זמר, דב גרינבאום ואביב גאון עורכים 2022).     

[18] ס' 12 לפקודת הנזיקין [נוסח חדש].

[19] הגם שיכולתם הטכנית של היצרנים לשלוט על התוכן המופק על ידי מערכות הבינה המלאכותית היא מוגבלת (בהיותן של הטכנולוגיות "קופסאות שחורות" שבמקרים רבים אין המפתחים יודעים כיצד בדיוק הן מגיעות למסקנותיהן, או איך לשנות מסקנות אלו), מנגנון קשור של מחיקת מידע פוגעני המופיע באינטרנט כך שלא ימשיך "לרדוף" את האדם נשוא התוכן המיושם בשיטות משפט שונות (ובראשן באיחוד האירופי), תחת ה-Right to be forgotten (הזכות להישכח). מבחינה טכנית ומכיוון שמערכות הבינה המלאכותית לומדות מכמויות עצומות של מידע ומגיעות למסקנות משלהן אודות המלים הצפויות ביותר להשלים את המשך הטקסט- נראה שליצרנים לא תהיה אפשרות להתערב בתכנים המופיעים באינטרנט באופן שימנע הפקה של תוכן פוגעני. ואולם, לאחר שתוכן פוגעני מסוג זה כבר נוצר, המנגנונים לטיפול בבקשה להסרתו עשויים להיות דומים לאלו של הזכות להישכח. כאמור, הדבר לא ימנע מקרים דומים בעתיד, אך יוכל לתת פתרון נקודתי לתכנים פוגעניים קיימים.

[20] השוו, לעניין הפרת זכות יוצרים, ע"א 5977/07 האוניברסיטה העברית בירושלים נ' בית שוקן להוצאת ספרים בע"מ ,פ"ד סד(3) 740, פס' 25 ((2011.

[21] ס' 1(1) לחוק.

[22] ראו למשל ע"א 1104/00 אפל נ' חסון, פ"ד נו(2) 607, פס' 6 (2002).

[23] לעניין הגיונה של הגדרה זו ראו מרדכי קרמניצר, חאלד גנאים ובעז שנור דיני לשון הרע - הדין המצוי והדין הרצוי 199 (מהדורה שנייה מורחבת 2019).

[24] ראו למשל רע"א 7470/20Facebook Ireland Limited  נ' גל (נבו, 3.1.2022); רע"א 8160/20 Google LLC. נ' אשל (נבו 20.02.2022).

[25] יצוין כי עוולה נוספת שעל פניה הייתה עשויה להיות רלוונטית - עוולה לפי חוק אחריות למוצרים פגומים, תש"ם-1980 - חלה כיום רק על גרימת נזק גוף.

[26] ראו למשל עניין 4:18-cv-00471-KAW (N.D. Cal. 2018) Nilsson v. General Motors, בו הוגשה תביעת אופנוען נגד ג'נרל מוטורס בשל פגיעת רכב אוטונומי, ובה אחת הטענות הייתה כי הרכב האוטונומי עצמו התרשל כאשר ניווט בכביש כפי שניווט. ראו גם Karni A. Chagal-Feferkorn, How Can I Tell If My Algorithm Was Reasonable?, 27 Mich. Tech. L. Rev. 213 (2021).; עמרי רחום-טוויג ואוהד סומך "רובוטים מבוססי בינה מלאכותית – אתגרים בהשתת אחריות נזיקית" טכנולוגיות מתפרצות: אתגרים בדין הישראלי 163 (ליאור זמר, דב גרינבאום ואביב גאון עורכים 2022).

[27] סעיף 15(3) לחוק.

[28] סעיף 15(8) לחוק.

[29] סעיף 15(10) לחוק.

[30] סעיפים 15(4) - 15(7) לחוק.

[31] אורי שנהר דיני לשון הרע 265-261 (1997).

[32] ראו תמר גדרון "מפת תיירות הדיבה העולמית ודיני לשון הרע בישראל" המשפט טו 385, 452 (2010).

[33] ראו למשל עניין שרנסקי.

271 צפיות
תְּגוּבִיּוֹת* מִשְׁפָּט
פרויקט הכתיבה האקטואלית של פורום עיוני משפט
בלועזית - טוֹקְבֶּק*                                                                        
bottom of page