מחקר מזהיר: צ’אטבוטים של בינה מלאכותית נותנים עצות רפואיות גרועות

מחקר חדש מגלה שצ’אטבוטים של בינה מלאכותית אינם מספקים ייעוץ רפואי טוב יותר מחיפוש רגיל. החוקרים מזהירים: שימוש בהם עלול להוביל לאבחנות שגויות ולהחמצת מצבי חירום.

בינה מלאכותית ברפואה. אילוסטרציה. | שאטרסטוק

בינה מלאכותית ברפואה. אילוסטרציה. | צילום: שאטרסטוק

תוכן השמע עדיין בהכנה...

בפעם הבאה שאתם שוקלים להתייעץ עם ד״ר ChatGPT – אולי כדאי לחשוב פעמיים. למרות שצ’אטבוטים של בינה מלאכותית כבר מצליחים כיום לעבור בהצלחה את רוב בחינות הרישוי לרופאים, הם אינם מספקים לבני אדם ייעוץ בריאותי טוב יותר מזה שניתן למצוא באמצעים מסורתיים יותר. כך עולה ממחקר שפורסם אתמול (שני).

"למרות כל ההייפ, בינה מלאכותית פשוט עדיין לא מוכנה למלא את תפקיד הרופא", אמרה רבקה פיין מאוניברסיטת אוקספורד, אחת ממחברות המחקר. "מטופלים צריכים להבין שפנייה למודל שפה גדול בנוגע לתסמינים רפואיים עלולה להיות מסוכנת – היא עשויה להוביל לאבחנות שגויות ולאי־זיהוי של מצבים הדורשים טיפול דחוף", הוסיפה בהצהרה.

צוות החוקרים, בהובלה בריטית, ביקש לבדוק עד כמה בני אדם מצליחים לזהות בעיות בריאותיות באמצעות צ’אטבוטים, והאם הם יודעים לקבוע מתי יש לפנות לרופא או לבית חולים. לשם כך הציג הצוות לכ־1,300 משתתפים מבריטניה עשרה תרחישים שונים, בהם כאב ראש לאחר בילוי לילי עם אלכוהול, אם טרייה החשה תשישות, או תיאור של תחושת אבני מרה.

הכי מעניין

עוד כתבות בנושא

לאחר מכן חולקו המשתתפים באקראי לשלוש קבוצות שהתנסו בצ’אטבוטים שונים: GPT-4o של OpenAI, ‏Llama 3 של Meta או Command R+. בנוסף הייתה קבוצת ביקורת שהשתמשה במנועי חיפוש באינטרנט.

המשתתפים שהשתמשו בצ’אטבוטים של בינה מלאכותית הצליחו לזהות את הבעיה הרפואית שלהם רק בכשליש מהמקרים, ורק כ־45 אחוזים מהם קבעו את דרך הפעולה הנכונה. לפי המחקר, שפורסם בכתב העת Nature Medicine, התוצאות לא היו טובות יותר מאלו של קבוצת הביקורת.

כשל בתקשורת

החוקרים הצביעו על הפער בין התוצאות המאכזבות הללו לבין הציונים הגבוהים מאוד שצ’אטבוטים של בינה מלאכותית מקבלים במבחנים רפואיים ובמדדי ידע, והסבירו זאת בכשל תקשורתי. בשונה מאינטראקציות עם "מטופלים מדומים", המשמשות לעיתים לבחינת יכולות בינה מלאכותית, בני אדם אמיתיים לעיתים קרובות אינם מוסרים לצ’אטבוטים את כל המידע הרלוונטי. בנוסף, לעיתים המשתמשים מתקשים להבין את האפשרויות שהצ’אטבוט מציע, מפרשים את ההמלצות באופן שגוי – או פשוט מתעלמים מהן.

עוד כתבות בנושא

לדברי החוקרים, אחד מכל שישה מבוגרים בארצות הברית שואל צ’אטבוטים של בינה מלאכותית על מידע רפואי לפחות פעם בחודש, ומספר זה צפוי לעלות ככל שיותר אנשים יאמצו את הטכנולוגיה.

"זהו מחקר חשוב מאוד, משום שהוא מדגיש את הסיכונים הרפואיים האמיתיים שהצ’אטבוטים מציבים לציבור", אמר ל־AFP דייוויד שו, ביואתיקאי מאוניברסיטת מאסטריכט שבהולנד, שלא היה מעורב במחקר. הוא המליץ לציבור להסתמך על מידע רפואי רק ממקורות אמינים, כגון שירות הבריאות הלאומי של בריטניה (NHS).

עוד כתבות בנושא

כ"ג בשבט ה׳תשפ"ו10.02.2026 | 14:52

עודכן ב