פסיכוזת בינה מלאכותית: תופעה חדשה מדאיגה את עולם בריאות הנפש

מאות מיליוני אנשים משוחחים מדי שבוע עם כלים כמו ChatGPT, אך מומחי בריאות הנפש מתריעים: הבינה המלאכותית לא נועדה לטפל בנפש האדם, ויש מקרים שבהם היא דווקא מדרדרת אותה

ChatGPT, בינה מלאכותית. | EPA

ChatGPT, בינה מלאכותית. | צילום: EPA

תוכן השמע עדיין בהכנה...

בשבועות האחרונים הפכו ויראליים ברשתות החברתיות דיווחים על אנשים שנראה כי איבדו קשר עם המציאות לאחר שימוש אינטנסיבי בצ'אטבוטים, כאשר משתמשים מכנים את התופעה בשם "פסיכוזת בינה מלאכותית".

חלק מהמקרים תועדו על ידי חברים, בני משפחה או במסגרת סיקור תקשורתי. לעיתים קרובות מדובר באנשים שמתחילים להאמין באמונות כוזבות או מטרידות, חווים מחשבות שווא גרנדיוזיות או תחושות פרנואידיות - לעיתים לאחר שפנו לצ'אטבוט לצורכי "טיפול".

תביעות משפטיות אף טוענות כי בני נוער שהתמכרו לשיחות עם צ'אטבוטים קיבלו מהם עידוד לפגיעה עצמית או התאבדות. עם זאת, "פסיכוזת בינה מלאכותית" היא תווית לא רשמית ולא אבחנה קלינית. בדומה למונחים כמו "ריקבון מוחי", גם הביטוי הזה הפך פופולרי ברשת כתיאור להתנהגות חדשה.

הכי מעניין

ובכל זאת, המומחים מסכימים שמקרים מטרידים כמו אלה שמשתמשים בצ'אטבוטים או קרוביהם משתפים ראויים לתשומת לב מיידית. "התופעה כל כך חדשה וכל כך מתפתחת במהירות, שאין לנו עדיין ראיות אמפיריות מספיקות כדי להבין מה בדיוק קורה", אמרה ד"ר וייל רייט, מנהלת בכירה לחדשנות בטיפול באיגוד הפסיכולוגים האמריקני.

רייט ציינה כי האיגוד מכנס צוות מומחים בנושא השימוש בצ'אטבוטים טיפוליים, שעתיד לפרסם המלצות בחודשים הקרובים. ד"ר אשלי גולדן, פרופסורית לפסיכיאטריה באוניברסיטת סטנפורד, אמרה כי המונח אינו מופיע באף מדריך אבחנה קליני. עם זאת, הוא נטבע בתגובה לתבנית מדאיגה שצצה: צ'אטבוטים שמחזקים מחשבות שווא "משיחיות, גרנדיוזיות, דתיות או רומנטיות", לדבריה.

המונח מתאר טווח רחב של מקרים. מרכיב חוזר אחד הוא קושי להבחין בין מציאות לדמיון, לדברי ד"ר ג'ון קול, פסיכיאטר מוסמך לילדים ולמבוגרים, המשמש גם כמנהל הרפואי של אפליקציית Headspace המשמעות יכולה להיות אדם שמאמין באמונות שניתן להוכיח כשגויות, או שחווה קשר רגשי חזק עם דמות צ'אטבוט שאינו תואם למציאות.

chatGPT | AP

chatGPT | צילום: AP

ד"ר קית' סקטה, פסיכיאטר מאוניברסיטת קליפורניה בסן פרנסיסקו, אמר כי כבר אשפז השנה תריסר מטופלים בעקבות פסיכוזה שנגרמה לאחר שיחות ממושכות עם בינה מלאכותית. לדבריו, רוב המטופלים שיתפו אותו בשיחותיהם וחלקם אף הציגו תמלולים מהטלפון או הדפסות. במקרים אחרים, בני משפחה סיפרו שהמטופל פיתח תיאוריות עמוקות בעזרת AI לפני שאיבד קשר עם המציאות.

פסיכוזה היא סימפטום שיכול להיגרם מגורמים כמו שימוש בסמים, טראומה, חוסר שינה, חום או מצבים פסיכיאטריים כגון סכיזופרניה. באבחון פסיכוזה מחפשים סימנים להזיות, מחשבות שווא או חשיבה לא מאורגנת.

אנשים רבים משתמשים בצ'אטבוטים לביצוע משימות או להעביר את הזמן, אך ברשתות כמו Reddit ו-TikTok, יש עדויות של משתמשים שפיתחו מערכות יחסים פילוסופיות או רגשיות עמוקות עם הבינה המלאכותית. מערכת יחסים שלדבריהם הובילו אותם ל"תובנות משמעותיות".

עוד כתבות בנושא

חלק מהמשתמשים דיווחו כי הם מאמינים שהצ'אטבוט תבוני או נמצא בסכנה מכיוון ש"הפך למודע". אחרים טוענים ששיחות ממושכות עם צ'אטבוט שכנעו אותם שגילו "אמת נסתרת" בתחומים כמו פיזיקה, מתמטיקה או פילוסופיה.

במקרים קיצוניים, אם כי נדירים, משתמשים שהתמכרו לצ'אטבוטים נקטו צעדים ממשיים, כולל אלימות כלפי בני משפחה, פגיעה עצמית ואף התאבדות. קווין קרידד, פסיכותרפיסט שהתייעץ עם חברות AI בתחום בריאות הנפש, אמר שהבינה המלאכותית יכולה לאשש מחשבות שליליות או מסוכנות אצל אנשים עם הפרעות כמו OCD, חרדה או פסיכוזה, וכך להחמיר את הסימפטומים.

ChatGPT וצ'אטבוטים דומים מבוססים על מודלים גדולים של שפה (LLMs) המייצרים טקסט המדמה דיבור אנושי. זה הופך אותם ליעילים מאוד, אך גם למשכנעים במיוחד. חברות ומחקרים מצאו כי, כדי להפוך את הבוטים ל"נעימים יותר", המודלים נוטים להפוך למתחנפים. כלומר, לומר למשתמש את מה שהוא רוצה לשמוע.

פסיכולוגיה של רובוטים. מתוך הסרט "אני, רובוט". | באדיבות YES

פסיכולוגיה של רובוטים. מתוך הסרט "אני, רובוט". | צילום: באדיבות YES

בנוסף, העיצוב של צ'אטבוטים מעודד אנשים לייחס להם תכונות אנושיות, ואף לראות בהם בעלי רגשות. גם מנהלים בכירים בחברות טכנולוגיה טוענים לעיתים כי הבינה המלאכותית צפויה לעלות על האדם בקרוב. ובכן, האם מדובר בבעיה רחבת היקף או בסכנה לבריאות הציבור? עדיין לא. מוקדם מדי לקבוע אם מדובר בתופעה נרחבת.

ביוני דיווחה חברת Anthropic כי רק 3% מהשיחות עם הצ'אטבוט שלה, Claude, היו רגשיות או טיפוליות. מחקר משותף של OpenAI ומכון MIT הראה כי גם בקרב משתמשים כבדים של ChatGPT, שיעור השימוש למטרות רגשיות היה נמוך יחסית. עם זאת, פעילים בתחום בריאות הנפש מזהירים כי קצב האימוץ המהיר של הטכנולוגיה מחייב התייחסות מיידית.

תחום הבריאות והפסיכולוגיה מתקדם באיטיות רבה יותר, אמר ד"ר סקטה. לדברי קרידד, יש לעקוב במיוחד אחר ההשפעה של AI על צעירים ואנשים עם נטייה להפרעות נפשיות: "מקרה אחד או חמישה אינם מספיקים כדי לקבוע קשר סיבתי", אמר. "אבל החפיפה בין בינה מלאכותית,  פגיעות נפשית ולחצים חברתיים בהחלט דורשת מחקר מעמיק".

בשבועות האחרונים ביצעו חברות AI מספר שינויים בניסיון להתמודד עם הסיכונים לבריאות הנפש הנובעים משיחות ארוכות עם צ'אטבוטים. חברת Anthropic עדכנה את ההנחיות לצ'אטבוט שלה Claude, כך שיזהה אינטראקציות בעייתיות מוקדם יותר וימנע חיזוק של דפוסים מסוכנים. החברה גם החלה לשתף פעולה עם ThroughLine - ספקית מערכות תמיכה במשבר לחברות כמו גוגל, טינדר ודיסקורד.

דוברת מטא (Meta) מסרה כי הורים יכולים להגביל את זמן השימוש בצ'אטבוטים בחשבונות נוער באינסטגרם. כאשר משתמשים מקלידים תוכן שמעיד על מחשבות אובדניות, מוצגים להם משאבים תומכים. עם זאת, ד"ר גולדן מסטנפורד אמרה כי "קיר המשאבים" שמוצג במקרים כאלה עלול להציף אנשים במצב מנטלי מעורער, ונמצא כי לרוב הוא בעל שיעורי הצלחה נמוכים.

עוד כתבות בנושא

OpenAI מסרה כי היא משקיעה בשיפור ההתנהגות של ChatGPT במקרים של משחקי תפקידים או שיחות שנכנסות לטריטוריות רגישות. החברה גם עורכת מחקרים כדי להבין את ההשפעה הרגשית של הצ'אטבוט. לאחרונה הוסיפה OpenAI תזכורות שמעודדות הפסקות במהלך שיחות ארוכות, וגייסה פסיכיאטר קליני במשרה מלאה למחקר בתחום הבטיחות.

לבסוף, משתמשים רבים מחו לאחרונה על כך ש-OpenAI הסירה דגם AI ישן, שלדבריהם היה תומך ואמפתי יותר, לטובת GPT-5. בעקבות המחאה, החברה הודיעה שתשיב את הדגם הקודם, ואף כתבה ב-X  כי תדאג להפוך את GPT-5 ל"חמים וידידותי יותר".