
חדי הקרן הגיעו לתחום הבינה המלאכותית?
[IMAGE]חברת הסייבר, Darktrace, גייסה 75 מליוני דולרים לפי שווי של 825 מליוני דולרים. החברה שהוקמה על ידי מתמטיקאים מאוניברסיטת קיימברידג' בבריטניה מספקת זיהוי איומים באמצעות מנוע בינה מלאכותית.
הגיוס של Darktrace הוא סמן נוסף לכך שהגבינה זזה בעולם הסייבר לכיוון בינה מלאכותית ולימוד מכונה. באותה נישה אפשר למצוא גם את Cybereason, Cylance, Deep Instinct ומגוון חברות נוספות בתחום. כאן תוכלו למצוא 60 חברות הזנק שמשתמשות בלמידה עמוקה.
אם בוחנים את תעשייה חברות סביב הבינה המלאכותית גם בתחומים טכנולוגים אחרים שהם לא סייבר יש מאות. מקורות אפשר למצוא כאןipfconline1 או כאן evankirstel או כאן CBinsights. לפי CBinsights התחום משך אליו השקעות של 15 מיליארדי דולרים בחמש השנים האחרונות.
לצד חברות הזנק גם חברות ענק בינלאומיות כמו גוגל, מיקרוסופט, אפל ופייסבוק משקיעות הון עתק בפיתוח יכולות למידה עמוקה. פייסבוק למשל פיתחה בוטים שמסוגלים לתקשר עם אנשים כמו נציגי שירות. בגוגל יש את הצוות של DeepMind שמפתח שחקנים ממוחשבים במשחקי רשת ומשחק גו. כמעט כל חברות הענק משקיעות בעוזרים אישיים מבוססי תוכנה לטלפון הסלולרי.
התחום לא פוסח על ממשלות ושירותי ביטחון שמשתמשים בבינה מלאכותית. חלק מהפרויקטים מסווגים. חלקם לא. באירופה למשל השקיעו לאחרונה בפיתוח יכולות כאלו להתמודדות עם תעמולה ברשתות החברתיות. הפרויקט מפותח באוניברסיטת לונדון.
בינה מלאכותית בסייבר
בתחום הסייבר חלק מהחברות מתמקדות בזיהוי איומים באמצעות מנוע של למידה עמוקה. כל חברה מחזיקה בשיטה אחרת, אלגוריתמים אחרים. חברות אחרות מנסות לאתר זיהוי תנועה רוחבית באמצעות זיהוי חריגה בהתנהגות הרשת. המנוע יודע ללמוד את הפעילות הרגילה, ולאחר שלב הלמידה הוא אמור לתפוס חריגות. האם כל חריגה משמעותה התקפה? כאן זה כבר עניין של התרעות שווא. נכון להיום, התרעות שווא הן עקב אכילס של חלק ניכר מפתרונות הבינה המלאכותית לתחום הסייבר.
עוד תחום של פתרונות הוא חקירת אירוע. אלו כלים המסוגלים לבצע הקשר בין אירועים שונים על ציר הזמן במטרה להבין האם הייתה התקפת סייבר. אם כן, כיצד היא התרחשה ומה נפגע. מדובר אמנם על ידיעה בדיעבד, אך גם ידיעה כזו עוזרת לארגון שנפגע להתארגן נכון לגל ההתקפות הבא. גם כאן השאלה היא מה מידת ההתאמה למציאות של התוצאות שמביא הכלי לעומת מה שהיה באמת.
אחד האתגרים בתחום הבינה המלאכותית מצד משתמש הקצה הוא להבין האם המידע שמתקבל מהמערכת הוא נכון או לא. היות והאלגוריתמים הם אלו שעושים את החישובים ומייצרים תוצאה, המשתמש האנושי מקבל חתול בשק. כלומר, או שהוא מאמין במאה אחוזים בתוצאה ופועל על פיה או שהוא לא. אפשר כמובן ללכת לבדוק את הליך החישוב של האלגוריתם, אבל עולה השאלה האם פתרון שצריך לבדוק אותו כל הזמן כלכלי.
אם המשתמש בוחר לפעול על פי תוצאה שהוא לא מודע להליך קבלת ההחלטות שיצר אותה, עולה השאלה איך הוא יודע שהמערכת לקחה בחשבון את כלל התרחישים? ייתכן והתוצאות שמוצגות לו אכן נכונות, אבל איך אפשר לדעת שאין עוד תוצאות במרחב התוצאות האפשרי שהמערכת לא לקחה בחשבון. ואולי משתמש אנושי היה חושב עליהן. במערכות Inline שגם עושות אכיפה, השאלה הזו הופכת להיות קריטית.
זה כמובן דיון שאין לו תשובה. מי שמשתמש במערכות בינה מלאכותית בסביבות שהקומבינציות האפשריות בהן גדול (ולא מדובר בסט סופי וידוע של קומבינציות לבחור מתוכן) כדאי שישאל את עצמו את השאלות האלו. לרוב, כאשר מדובר בהאקר אנושי, הוא ינצל את כל מרחב האפשרויות העומדות לצידו כדי להגיע ליעד. האם המערכת הממוחשבת מנגד עושה אותו דבר? זו השאלה.
אלגוריתמים תוקפים?
אחד התחומים שכבר מדברים עליהם בשיח המקצועי הוא אלגוריתמים תוקפים ומגנים. הרעיון הוא שכמו שההגנה משתמשת בבינה מלאכותית, אותם כלים יהיו נגישים גם לתוקפים. האם במציאות כזו יהיה ערך מוסף לאדם בלופ במערך ההגנה בסייבר? זו שאלה פתוחה.
אין ספק כי תחום הבינה המלאכותית בכלל, ובסייבר בפרט, מצית את הדמיון ונכון להיום מעלה יותר שאלות מתשובות. האפשרויות מחד נראות כמעט בלתי מוגבלות. מאידך, שאלת היעילות של הכלים האלו בשטח עדיין תלויה באוויר.
בלי קשר לדיון המעשי, התחום נמצא בתנופת השקעות. 'זה תחום רותח' אמר לי לפני מספר ימים מישהו בתחום. המגמה עושה טוב למניה של Nvidia שמוכרת מעבדי GPU המשמשים לחישובים ייעודים לתחום. וזה עושה גם טוב לחברות הזנק כמו Darktrace שבלי המיתוג של הבינה המלאכותית ספק אם היו מגיעות לשווי שוק של מאות מליוני דולרים.
לכתבות נוספות באתר ISRAEL DEFENSE היכנסו לעמוד הפייסבוק החדש של nrg