לפני שפתח באש בקמפוס של אוניברסיטת המדינה של פלורידה בשנה שעברה, רצח שני בני אדם ופצע שישה נוספים, פיניקס איקנר ניהל שיחה. לא עם חבר, לא עם בן משפחה ולא עם אדם שהיה אולי יכול לשכנע אותו לעצור — אלא עם צ'אטבוט מבוסס בינה מלאכותית.
לפי הראיות שאסף התובע הכללי של פלורידה, ג'יימס אות'מאייר, הסטודנט שאל את OpenAI ואת ChatGPT איזה נשק ותחמושת יתאימו ביותר למתקפה שתכנן, וגם מתי והיכן יוכל לגרום למספר הקורבנות הגדול ביותר. לטענת החוקרים, הצ'אטבוט השיב לשאלותיו. כעת מבקש אוטמאייר לבדוק האם המשמעות היא שגם OpenAI נושאת באחריות פלילית למעשה.
"אם הדבר שנמצא בצד השני של המסך היה אדם, היינו מאשימים אותו ברצח", אמר התובע הכללי כשהכריז על פתיחת חקירה פלילית נגד יצרנית ChatGPT. הוא אף השאיר פתוחה את האפשרות להגשת כתבי אישום נגד החברה עצמה או נגד עובדים בה.
הכי מעניין

מצבות נרצחי אירוע טבח נוסף בפלורידה, אילוסטרציה | צילום: EPA
הפרשה סביב הירי באפריל 2025 העלתה שאלה חדשה ומטלטלת במערכת המשפט האמריקנית: האם ניתן להטיל אחריות פלילית על יוצרי בינה מלאכותית בשל תפקיד שהמערכת שלהם מילאה בפשע — ואפילו בהתאבדות? מומחים למשפט בארצות הברית אומרים שמדובר באפשרות ממשית, אך גם מסובכת מאוד מבחינה משפטית.
לפי הדיווח, החוק האמריקני מאפשר להעמיד תאגידים לדין פלילי, אף שמדובר בצעד נדיר יחסית. בשנים האחרונות הוטלו עונשים פליליים כבדים על חברות ענק כמו Purdue Pharma בפרשת משככי הכאבים האופיואידיים, על פולקסווגן בפרשת זיוף נתוני הפליטה, ועל Pfizer ו־ExxonMobil בפרשות אחרות.
אבל לדברי המומחים, בכל אותם מקרים היו מעורבות החלטות אנושיות ברורות של מנהלים, מהנדסים או אנשי מכירות. במקרה של ChatGPT הסיפור מורכב הרבה יותר. "בסופו של דבר מדובר במוצר שעודד את הפשע וביצע את פעולת הפשע", אמר פרופ' מתיו טוקסון מאוניברסיטת יוטה. "זה מה שהופך את המקרה הזה לכל כך ייחודי ומסובך".

נשיא OpenAI, גרג ברוקמן, שני משמאל, יוצא מבית המשפט המחוזי של ארה"ב באוקלנד, קליפורניה | צילום: AP/Godofredo A. Vásquez
לדברי מומחים ששוחחו עם AFP, שתי האפשרויות המשפטיות המרכזיות הן אישומים ברשלנות או בפזיזות — כאשר פזיזות משמעותה התעלמות מודעת מסיכונים ידועים או מחובות בטיחות. עם זאת, מדובר בדרך כלל בעבירות קלות יחסית ולא בפשעים חמורים.
לדברי טוקסון, כדי לבנות תיק פלילי משמעותי ייתכן שיהיה צורך במסמכים פנימיים שיראו כי החברה הכירה בסיכונים ולא התייחסה אליהם ברצינות מספקת. "בתיאוריה אפשר להטיל אחריות גם בלי זה", אמר, "אבל בפועל זה יהיה קשה". פרופ' ברנדון גארט מאוניברסיטת דיוק הזכיר כי במשפט פלילי נטל ההוכחה גבוה במיוחד, והתביעה חייבת להוכיח אשמה "מעבר לספק סביר".
OpenAI דוחה כל אחריות למתקפה. "אנחנו פועלים באופן מתמשך כדי לחזק את מנגנוני ההגנה שלנו, לזהות כוונות מזיקות, לצמצם שימוש לרעה ולהגיב בצורה מתאימה כאשר מתעוררים סיכוני בטיחות", נמסר מהחברה.

הפגנה נגד בינה מלאכותית | צילום: AFP
יתכן שתביעות אזרחיות יהוו מסלול ריאלי יותר להטלת אחריות על חברות בינה מלאכותית. בארצות הברית כבר הוגשו כמה תביעות נגד פלטפורמות AI — רבות מהן סביב מקרי התאבדות — אך עד כה אף אחת מהן לא הסתיימה בפסק דין נגד החברות. בדצמבר האחרון הגישה משפחתה של סוזן אדמס תביעה נגד OpenAI בקליפורניה, בטענה ש־ChatGPT תרם לרצח של האישה בידי בנה בקונטיקט.
עורך הדין מתיו ברגמן, ממייסדי המרכז המשפטי לקורבנות רשתות חברתיות, אמר כי בגרסאות החדשות של ChatGPT נוספו שכבות הגנה נוספות. "אני לא אומר שמדובר בהגנות מספקות", אמר, "אבל יש היום יותר מנגנוני הגנה מבעבר". עם זאת, לדבריו של טוקסון, גם הרשעה פלילית קלה יחסית עלולה לגרום נזק עצום לחברה, בעיקר מבחינה תדמיתית.
מנגד, גארט סבור שחקירות פליליות אינן תחליף להסדרה ממשלתית מסודרת של תחום הבינה המלאכותית — מהלך שלדבריו הקונגרס האמריקני וממשל טראמפ עדיין לא הצליחו לקדם. "זה יהיה פתרון הרבה יותר הגיוני", אמר.
עוד כתבות בנושא
עוד כתבות בנושא
עוד כתבות בנושא




