הוקינג: בינה מלאכותית עשויה להחריב האנושות

האסטרופיזיקאי סטיבן הוקינג הזהיר בטקס פתיחת מרכז מודיעין מסכנות הבינה המלאכותית. "שימוש לא ראוי ביכולות כאלו עשוי לייצר כלי נשק חדשים שיפעלו לבדם ופשוט יחסלו את המין האנושי", אמר

אסף גולן | 20/10/2016 16:20
תגיות: בינה מלאכותית,סטיבן הוקינג
האסטרופיזיקאי הנודע סטיבן הוקינג הזהיר בטקס פתיחת מרכז מודיעין מסכנות הבינה המלאכותית, וציין כי התנהלות לא זהירה בטכנולוגיה זו עלולה לבשר את קץ האנושות. מרכז המודיעין נחנך בשיתוף פעולה בין האוניברסיטאות קיימברידג', אוקספורד, האימפריאל קולג' בלונדון וברקלי.

עוד כותרות:
המדריך לכיבוש מוסול: מי הכוחות שפועלים במתקפה?
מה הקשר בין לוק סקייווקר לבין קלינטון?

הוקינג, שנאם בטקס, אמר ש"בינה מלאכותית יכולה להצעיד את האנושות קדימה באופן דרמטי. בני אדם יכולים לקדם כך את האנושות למהפכה טכנולוגית חדשה ולהתמודד טוב יותר עם בעיות שקיימות בעולם כמו עוני. כמו כן, ניתן יהיה להשתמש בטכנולוגיה זו כדי לשכלל את עצמנו ולהגיע לרמות חדשות של ידע שכיום הן רק חלום רחוק".
 
צילום: אי.פי.איי
''בינה מלאכותית יכולה להצעיד את האנושות קדימה באופן דרמטי''. הוקינג. צילום: אי.פי.איי

אך למרות הדברים האופטימיים, הזהיר המדען הדגול מהסכנות שיש בבינה מלאכותית וציין כי "שימוש לא ראוי ביכולות כאלו עשוי לייצר כלי נשק חדשים שיפעלו לבדם ופשוט יחסלו את המין האנושי. "ללא הפעלת בקרה ופיקוח בינלאומי נגיע לשלב שיהיה לכלי הנשק האלו מספיק ידע כדי לפעול לבדם, ואולי בעתיד אף נפתח מערכות מסוכנות שיהיה להן רצון משל עצמן". בסיכום דבריו ציין הוקינג כי "הפוטנציאל של בינה מסוג זה הוא אינסופי, ויש כאן אפשרויות חדשות ומרגשות אם האנושות תדע לפעול נכון".
 
קטעים נוספים

דבריו של הוקינג אינם נבואת זעם. הגרסאות המוקדמות של רובוט ה"מחסל" כבר כאן, ואין אמנות בינלאומיות המגבילות את פעולתן. הן משתמשות בבינה מלאכותית כדי לזהות מטרות, ובתוך אלפיות שנייה מחליטות אם לצאת למתקפה. הטכנולוגיה הזאת עדיין אינה מושלמת, אבל היא נעשית מדויקת וקטלנית יותר ויותר. למידת עומק (Deep Learning) חוללה מהפכה בסיווג תמונות ובזיהוין, ובקרוב תאפשר למערכות האוטונומיות להתעלות על היכולות של חייל אנושי ממוצע.
 
צילום: שאטרסטוק
צבא ארה''ב מעוניין לשמור את בני האדם בתהליך קבלת ההחלטות. מטוס ללא טייס. צילום: שאטרסטוק

לעת עתה בצבא ארה"ב מעוניינים לשמור את בני האדם כחלק מהליך קבלת ההחלטות בענייני חיים ומוות. כל המטוסים ללא טייס שמופעלים מעבר לים שייכים היום להגדרה הזאת: הם מוטסים מרחוק בידי אדם, ולרוב בידי כמה בני אדם.

לדעת מומחים, מערכות נשק קטלניות אוטונומיות יפרו את כבוד האדם. ההחלטה ליטול חיי אדם היא עניין מוסרי, ומכונה יכולה לקבל החלטות כמו-מוסריות בלבד. היא לא מסוגלת לשקול באמת את ההשלכות של פעולותיה. אנו יכולים לתכנת את המערכת, או להציג בפניה דוגמאות כדי שתסיק מסקנות מנוסחה משוערת להחלטות כאלה, אבל זה לא דומה למצב שבו היא מקבלת החלטות בעצמה.
היכנסו לעמוד הפייסבוק החדש של nrg

כתבות נוספות שעשויות לעניין אותך

המומלצים