כל עוד לא נמצאה דרך להפוך רובוט ליצור חושב בעל בינה וכושר קבלת החלטות, אין שום סיבה שבעולם לעשות צעד שכזה.
כמו שציין מגיב 1, רובוט הוא מכונה לכל דבר שנשלטת על ידי מחשב. אם קרתה תאונה, האשם הוא המתכנת ו/או המפעיל. זה מאוד פשוט. אין שום מצב בו לרובוט יש אחריות משפטית, לא יותר משיש למחשב שלי אחריות על קבצים שאולי הורדתי באופן לא חוקי.
אסימוב היה סופר מצויין שרצה עלילות טובות. לכן הוא עיצב את שלושת החוקים כדי שבכל סיפור הם ייכשלו והגיבור ייאלץ להציל את המצב. ראה http://asimovlaws.com
למעשה, כשיהיה רובוט עם תבונה העוברת את התבונה האנושית, לא יהיה ניתן ''לכבול'' אותו בחוקים, וכדאי מאוד שיהיה בנוי לרצות בטובתנו. ראה htp://www.singinst.org