דו"ח חושף: קבוצות מסין משתמשות ב-ChatGPT למבצעי השפעה ופעילות סייבר

חברת OpenAI מפרסמת באופן קבוע דו"חות על פעילות זדונית שהיא מזהה בפלטפורמה שלה, מעדכנת על עלייה במספר הקבוצות הסיניות

ChatGPT, בינה מלאכותית. | EPA

ChatGPT, בינה מלאכותית. | צילום: EPA

תוכן השמע עדיין בהכנה...

בדו"ח שפורסם הבוקר, חברת OpenAI מעדכנת על עלייה במספר הקבוצות הסיניות שמשתמשות בטכנולוגיית הבינה המלאכותית שלה ל"צרכים חשאיים". למרות שהיקף הפעילות והטקטיקות של קבוצות אלו התרחבו, לטענת OpenAI הפעולות שנחשפו היו בקנה מידה קטן וכוונו לקהלים מוגבלים.

מאז ש-ChatGPT פרץ לתודעה הציבורית בסוף 2022, התעוררו חששות בנוגע להשלכות האפשריות של טכנולוגיית הבינה המלאכותית, שיכולה לייצר במהירות ובקלות טקסטים, תמונות ואודיו המדמים בני אדם.

חברת OpenAI מפרסמת באופן קבוע דו"חות על פעילות זדונית שהיא מזהה בפלטפורמה שלה, כגון יצירה וניפוי באגים של תוכנות זדוניות (malware) או יצירת תוכן מזויף ופרסומו באתרים וברשתות חברתיות.

הכי מעניין

באחת מהדוגמאות, OpenAI חסמה חשבונות ChatGPT שיצרו פוסטים ברשתות החברתיות בנושאים פוליטיים וגיאו-פוליטיים בסין, הכוללים בין היתר ביקורת על משחק וידאו המתמקד בטייוואן, האשמות שקריות נגד פעיל פקיסטני, ותוכן הקשור לסגירת USAID.

ChatGPT, בינה מלאכותית. | EPA

ChatGPT, בינה מלאכותית. | צילום: EPA

חלק מהתוכן הזדוני שזוהה כלל ביקורת על המכסים הרחבים של נשיא ארה"ב דונלד טראמפ, עם פוסטים ב-X כמו: "המכסים מייקרים סחורות מיובאות בצורה שערורייתית, ובכל זאת הממשלה מבזבזת תקציב על סיוע חוץ. מי אמור להמשיך לשלם את המחיר?"

בדוגמה אחרת, האקרים המזוהים עם סין הסתייעו בבינה מלאכותית לפיתוח שלבים שונים של תקיפות סייבר, כולל מחקר נתונים בקוד פתוח, שינוי סקריפטים, פתרון תקלות במערכות והכנת כלים לפריצת סיסמאות ואוטומציה של פעילות ברשתות החברתיות.

במקרה שלישי, זוהה על ידי OpenAI מבצע השפעה שמקורו בסין, אשר יצר תוכן מקטב ברשתות החברתיות שתמך בשני הצדדים של נושאים שנויים במחלוקת בשיח הפוליטי האמריקאי - כולל טקסטים ותמונות פרופיל שנוצרו על ידי בינה מלאכותית.

משרד החוץ הסיני לא הגיב באופן לבקשת התגובה של רויטרס לממצאי OpenAI.