בית חשיבה קדימה Yann lecun דן בכוח, גבולות הלמידה העמוקה

Yann lecun דן בכוח, גבולות הלמידה העמוקה

וִידֵאוֹ: ª (נוֹבֶמבֶּר 2024)

וִידֵאוֹ: ª (נוֹבֶמבֶּר 2024)
Anonim

בסדנה בנושא AI ועתיד העבודה מוקדם יותר החודש, דיבר יאן לקון, מנהל מחקרי AI בפייסבוק ומנהל המייסדים של המרכז למדעי הנתונים של ניו יורק, על "כוח וגבולות הלמידה העמוקה." LeCun, שהיה חלוץ הרשתות העצביות המפותלות שמהוות את ליבם של רבים מההתקדמות האחרונות ב- AI, התלהב שניהם מההתקדמות שהתחולל בשנים האחרונות והיה מציאותי באשר למערכות כאלה ואינן יכולות לעשות.

היו הרבה גלים של AI, אמר LeCun, וציין כי בעוד הגל הנוכחי התמקד בלמידה מעמיקה, העתיד לבוא הוא "תפיסה", והדוגמאות הגדולות ביותר הן יישומים כמו הדמיה רפואית ומכוניות לנהיגה עצמית. כמעט כל היישומים הללו מעסיקים למידה מפוקחת ומשתמשים בעיקר ברשתות עצביות מפותלות, שתיארה LeCun לראשונה בשנת 1989 ואשר פורסו לראשונה לצורך זיהוי תווים בכספומטים בשנת 1995. LeCun אמר כי הפטנט ברשתות כאלה פג בשנת 2007.

מערכי הנתונים הגדולים עם גדלי מדגם גדולים כמו גם העלייה העצומה בכוח המחשוב (בסיוע עבודתו של ג'פרי היינטון כדי להבין כיצד להשתמש ב- GPUs לצורך זיהוי תמונה) הם שהביאו לשינוי הגדול ביותר בשנים האחרונות. אפילו עבור LeCun, ההתקדמות בזיהוי תמונה הייתה "לא פחות ממדהימה". למרות שהתפיסה "באמת עובדת", מה שעדיין חסר זה הסיבה.

LeCun דיבר על שלוש גישות מסוג אחר, והמגבלות של כל אחת מהן. למידת חיזוק דורשת מספר עצום של דגימות. זה נהדר למשחקים, מכיוון שהמערכת יכולה להריץ מיליוני ניסויים ולהשתפר, אך קשה לשימוש בעולם האמיתי, מכיוון שאינך רוצה להסיע מכונית מצוק 50 מיליון פעמים, למשל, זמן אמיתי הוא גורם בעולם האמיתי.

למידה בפיקוח, שהיא רוב מה שאנחנו רואים כעת, דורשת כמות בינונית של משוב ועובדת היטב. עם זאת, למידת מכונה בפיקוח יש כמה בעיות. LeCun אמר כי מערכות כאלה משקפות הטיות בנתונים, למרות שלדבריו הוא אופטימי ניתן להתגבר על בעיה זו, והוא מאמין שקל יותר להסיר הטיות ממכונות בהשוואה לאנשים. אבל קשה גם לאמת מערכות כאלה לאמינות וקשה להסביר החלטות שהתקבלו על בסיס תפוקות ממערכות כאלה, ולקון דיבר על בקשות הלוואה כדוגמה לכך.

למידה לא מבוקרת או חזויה, שנחקרת כעת על דברים כמו חיזוי מסגרות עתידיות בסרטון, דורשת הרבה פידבק. למידה בלתי מבוקרת כוללת חיזוי של העבר, ההווה או העתיד מכל מידע שיש, או במילים אחרות, היכולת למלא את החסר, שלטענת LeCun הוא למעשה מה שאנו מכנים השכל הישר. הוא ציין כי תינוקות יכולים לעשות זאת, אך קשה היה להשיג מכונות לעשות זאת, ודיבר על כך החוקרים עובדים על טכניקות כמו רשתות אדפרסריות גנראטיביות (GAN) לטובת תחזיות שנעשו בתנאים לא בטוחים. אנו רחוקים מלהיות פיתרון מלא, אמר.

LeCun דיבר על שלושת סוגי הלמידה כאילו הם כמו חלקים של עוגה: למידת חיזוק היא הדובדבן שבמעלה, פיקוח על לימוד הדובדבן, ולמידה חזויה היא החלק העיקרי של העוגה.

LeCun ניבא שה- AI ישנה את אופן הערכת הדברים, כאשר סחורות שנבנו על ידי רובוטים עולות פחות וחוויות אנושיות אותנטיות עולות יותר, ואמרו שזה עשוי להיות "עתיד מזהיר למוזיקני ג'אז ואומנים."

בסך הכל, LeCun אמר כי AI היא טכנולוגיה לשימוש כללי (GPT) כמו מנוע הקיטור, החשמל או המחשב. ככאלה, הדבר ישפיע על אזורים רבים במשק, אך ייקח 10 או 20 שנה עד שנראה השפעה על התפוקה. LeCun אמר כי AI תוביל להחלפת עבודה, אך ציינה כי פריסת הטכנולוגיה מוגבלת על ידי האופן בו עובדים יכולים להתאמן עבורה במהירות.

באשר ל"מהפכת AI אמיתית ", אמר LeCun שזה לא יקרה עד שמכונות ירכשו שכל ישר, וקביעת העקרונות לבניית זה עשויה לארוך שנתיים, חמש, עשרים ומעלה; מעבר לכך, ייקח שנים לפתח טכנולוגית AI מעשית על בסיס אותם עקרונות. אחרי הכל, הוא ציין, לקח רשתות מעורבות חשיבות לעשרים שנה. וזה הכל מבוסס על ההנחה שהעקרונות פשוטים; זה מסתבך הרבה יותר אם "אינטליגנציה היא קלגה".

Yann lecun דן בכוח, גבולות הלמידה העמוקה