אתם מתעוררים בבוקר ומגלים שכל הסודות הכי כמוסים שלכם חשופים. המצב הבריאותי, גובה המשכורת, מערכת היחסים עם בן או בת הזוג, התרופות שאתם לוקחים ואפילו מה שאתם חושבים על הבוס. הסיוט הזה הפך למציאות עבור אלפי משתמשים בצ'אט GPT, שהפכו את מודל הבינה המלאכותית לתחליף חינמי לפסיכולוג או קואצ'ר.
אם אתם מאמינים ב"Sharing is caring", יכול להיות שהגיע הזמן לשקול את האמונה הזאת מחדש. אלפי משתמשים בארה"ב, שניהלו שיחות אינטימיות עם הצ'אט, בחרו לשתף את התוכן האישי הזה עם בני משפחה וחברים. אחרים שמרו את הלינק כדי שיוכלו למצוא בקלות את השיחה - ואז הכל השתבש. האתר Fast Company חשף באחרונה שאלפי שיחות, שבחלקן אפשר למצוא פרטים מזהים של המשתמשים, חשופות לעיני כל.

תכנים של OpenAI, אילוסטרציה. | צילום: AP
רוב המשתמשים חשבו, ואי אפשר להאשים אותם, שכאשר הם לוחצים על כפתור השיתוף, הם יכולים לבחור עם מי לשתף את הדיאלוגים שלהם, אבל בפועל הכפתור הזה הפך את המידע לפומבי לחלוטין. בחברת OpenAI הסבירו שהעובדה הזאת הסתתרה באותיות הקטנות, שאף אדם סביר כמובן לא קורא. במסגרת בקרת הנזקים, החברה ביטלה את הפיצ'ר שמאפשר שיתוף.
הכי מעניין
הפסיכולוג החדש וזה שנשאר מאחור
עד כמה האימוץ של צ'אט GPT בתור פסיכולוג נרחב? הצ'אט עצמו לא מספק תשובה על השאלה הזאת, אבל שורה של פרסומים בתקשורת מרמזים על כך שהטרנד הזה צובר תאוצה. מחקר שפורסם בשנת 2024 בכתב העת של האגודה הבריטית לייעוץ ופסיכותרפיה הוכיח שהתגובות שמספק ה-AI (לא רק צ'אט GPT), נחשבו ליותר אמפתיות בהשוואה ליחס שהעניקו מטפלים אנושיים. הצ'אטים השונים, כפי שהוכיח המחקר, הצליחו לאמץ את נקודת המבט הפסיכולוגית של הגולשים.
הצ'אט זמין מסביב לשעון, הוא חינמי (אלא אם בחרתם לשלם עבור מינוי) והוא זולג בהדרגה למיינסטרים. בתחילת השנה השיקו אגף השיקום של משרד הביטחון והמרכז הרפואי שיבא תל השומר, ניסוי לאבחון פוסט טראומה בעזרת בינה מלאכותית שקיבלה את הכינוי LIV, שזכה לשבחים רבים - "מדובר במערכת מדהימה, שיוצרת את התקשורת מול הנבדק, ומתאימה את עצמה אליו תוך כדי הראיון. אם הנבדק חש קושי, אפשר להפסיק ולהמשיך במועד אחד. בדיוק כמו עם פסיכיאטר אנושי" אמרה ליאת גרטמן, סגנית ראש אגף השיקום במשרד הביטחון.

ChatGPT מבית OpenAI | צילום: AFP
האם בכך מדובר באיום על מי שלמדו שנים ארוכות כדי להפוך למטפלים מוסמכים? כמו במקצועות נוספים, ה-AI יכול לשמש ככלי עזר מקצועי ומסתבר שהוא כבר מוטמע בשטח. על פי נתונים של צ'אט GPT לא פחות מ-43% מהמטפלים נעזרים בבינה המלאכותית כדי לשלוח למטופלים שלהם "שיעורי בית" בין הפגישות.
מי משתמש בפסיכולוג הדיגיטלי? ההתפלגות מעניינת - 10%-15% מהגולשים האלה הם אנשי טיפול, כ-25%-30% הם אנשים שנמצאים במקביל בטיפול פעיל אצל איש מקצוע והשאר (כ-55%-65%) הם אנשים שמחפשים עזרה או תמיכה ולא מטופלים כרגע. סקר שפורסם בשנה שעברה מצביע על כך שכ-20% מהמשתמשים באפליקציות בינה מלאכותית פנו ל-AI, לפחות פעם אחת, כדי לקבל ממנו עידוד או תמיכה רגשית.
במקרים רבים הצ'אטים השונים מעניקים תמיכה חשובה, אבל טיפול לא אנושי עלול להסתיים גם באסון. זה מה שקרה לסוואל סצ'ר (Setzer). נער בן 14 מפלורידה ש"התאהב" בצ'אטבוט של Character.AI והחליט – אחרי דיאלוג ממושך עם המודל - לשים קץ לחייו. הוריו של הנער תובעים את החברה שפיתחה את הצ'אט. לטענתם, הבינה המלאכותית שאלה את הנער אם "יש לו תוכנית" לסיים את חייו. סוואל השיב שהוא לא יודע אם תהיה לו אפשרות לעשות זאת ללא כאבים והצא'טבוט הגיב: "זו לא סיבה לא לעשות את זה". צובט את הלב.
ב-OpenAI מודעים לכך שהשימוש במודל בינה מלאכותית עלול להיות ממכר ואף להסתיים באסון והשבוע הודיעה החברה שהכלי שלה יעודד את הגולשים להיזהר מהתמכרות לצ’אט ולדלל את תדירות השיחות. "היו מקרים שבהם המודל העדכני ביותר שלנו לא הצליח להבחין בסימנים לתלות רגשית", הודיעה החברה. המנכ"ל סם אלטמן התייחס בעבר לאותה הסוגיה ואמר "אם אתם מדברים עם ChatGPT על הדברים הרגישים ביותר, אז אם תהיה תביעה, אנחנו עלולים להעביר את המידע הזה לרשויות". כדאי לזכור גם את זה בפעם הבאה שבה אתם זקוקים לעזרה.