תוכן עניינים:
וִידֵאוֹ: Keynote: Machine Learning & A.I. At Uber - Zoubin Ghahramani, Chief Scientist & VP (נוֹבֶמבֶּר 2024)
ב- 12 במרץ ניהל MIT Technology Review סיפור שהתחיל כך: "זו שנת 2023, ומכוניות בנהיגה עצמית מנווטות סוף סוף ברחובות העיר שלנו. לראשונה, אחד מהם פגע והרג הולך רגל, עם סיקור תקשורתי עצום. סביר להניח שתביעה בעלת פרופיל גבוה, אך אילו חוקים צריכים לחול?"
אף שהאירוע עדיין נחקר, ההמולה שהתקבלה היא אינדיקציה עד כמה רחוק אנו מלהשתלב בהצלחה אינטליגנציה מלאכותית במשימות וההחלטות הקריטיות שלנו.
במקרים רבים הבעיה אינה עם AI אלא עם הציפיות וההבנה שלנו. על פי Wired , כמעט 40, 000 איש מתו בתקריות דרכים בשנה שעברה בארצות הברית בלבד - 6, 000 מהם הולכי רגל. אך מעטים מאוד (אם בכלל) עלו לכותרות כפי שעשתה תקרית Uber.
אחת הסיבות לכך שהתרסקות Uber גרמה למהומה כזו היא שבדרך כלל יש לנו ציפיות גבוהות לטכנולוגיות חדשות, גם כשהם עדיין בפיתוח. תחת האשליה כי מתמטיקה טהורה מניעה אלגוריתמים של AI, אנו נוטים לסמוך על החלטותיהם ומזדעזעים כאשר הם מבצעים טעויות.
אפילו נהגי הבטיחות שמאחורי ההגה של מכוניות בנהיגה עצמית מרפים לשומרם. צילומים מאירוע Uber הראו כי הנהג מוסח והסתכל למטה שניות לפני שהתרסקה.
בשנת 2016 נפטר נהג דגם טסלה S שפועל במצב טייס אוטומטי לאחר שהרכב התנגש במשאית. מחקירה נמצא כי ייתכן שהנהג צפה בסרט של הארי פוטר בזמן ההתנגשות.
הציפיות לשלמות הן גבוהות, והאכזבות חזקות. המבקרים מיהרו להביא לידי ביטוי את כל פרויקט המכוניות בנהיגה העצמית של Uber לאחר האירוע; החברה השעתה באופן זמני את ניסויי המכוניות בנהיגה עצמית לאחר מכן.
AI אינו אנושי
בין הביקורות שבאו בעקבות ההתרסקות היה כי נהג אנושי היה נמנע בקלות מהאירוע.
"היא לא קפצה מהשיחים. היא עשתה התקדמות ברורה בנתיבי תנועה מרובים, שהיו צריכים להיות בסביבת המערכת כדי לאסוף אותם", אמר אחד המומחים ל- CNN.
היא צודקת. נהג אנושי מנוסה ככל הנראה היה מבחין בה. אבל אלגוריתמים AI אינם אנושיים.
אלגוריתמי למידה עמוקים שנמצאים במכוניות בנהיגה עצמית משתמשים בכמה דוגמאות כדי "ללמוד" את כללי התחום שלהם. בזמן שהם מבלים על הכביש הם מסווגים את המידע שהם אוספים ולומדים להתמודד עם מצבים שונים. אבל זה לא אומר בהכרח שהם משתמשים באותו תהליך קבלת החלטות כמו נהגים אנושיים. זו הסיבה שהם עשויים להתפקד טוב יותר מבני אדם במצבים מסוימים ולהיכשל באלה שנראים טריוויאליים לבני אדם.
דוגמה מושלמת היא אלגוריתם סיווג התמונות, שלומד לזהות תמונות על ידי ניתוח מיליוני תמונות שכותרתו. עם השנים, סיווג התמונות הפך ליעיל במיוחד ומביא על ביצועים טובים יותר בבני אדם במסגרות רבות. אין זה אומר שהאלגוריתמים מבינים את ההקשר של תמונות באותו אופן כמו שבני האדם עושים.
למשל, מחקר של מומחים מאוניברסיטת מיקרוסופט ואוניברסיטת סטנפורד מצא כי אלגוריתם למידה עמוק שהוכשר בתמונות של חתולים לבנים האמין בדרגה גבוהה של אמונה כי תצלום של כלב לבן מייצג חתול, טעות שילד אנושי יכול בקלות להימנע ממנה. ובמקרה ידוע לשמצה, האלגוריתם של סיווג התמונות של גוגל סיווג בטעות אנשים בעלי צבע עור כהה כגורילות.
אלה נקראים "מקרי קצה", מצבים שאלגוריתמי AI לא הוכשרו לטפל בהם, בדרך כלל בגלל היעדר נתונים. תאונת Uber עדיין נחקרת, אך חלק ממומחי AI מציעים שזה יכול להיות מקרה נוסף.
למידה מעמיקה יש אתגרים רבים שעליהם להתגבר לפני שניתן ליישם אותם במצבים קריטיים. אבל כישלונותיה לא אמורים להרתיע אותנו. עלינו להתאים את התפיסות והציפיות שלנו ולאמץ את המציאות שכל טכנולוגיה נהדרת נכשלה במהלך התפתחותה. AI אינו שונה.