בית חשיבה קדימה יחידות העיבוד של טנסור של גוגל משנות את הכללים ללימוד מכונה

יחידות העיבוד של טנסור של גוגל משנות את הכללים ללימוד מכונה

וִידֵאוֹ: СТРИМ ªª DEVILMARPWELL (נוֹבֶמבֶּר 2024)

וִידֵאוֹ: СТРИМ ªª DEVILMARPWELL (נוֹבֶמבֶּר 2024)
Anonim

אחת ההכרזות המעניינות והבלתי צפויות שגוגל פרסמה בכנס מפתחי הקלט / פלט שלה בשבוע שעבר הייתה שהיא עיצבה ויישמה שבבים משלה ללימוד מכונה. במהלך תפקידו המרכזי הציג מנכ"ל גוגל, סנדר פיצ'אי, את מה שכינה יחידות יחידות עיבוד טנסור (TPU), באומרו שהחברה השתמשה באלה במכונות AlphaGo שלה, שהביסה את אלופת גו לי סדול.

"מכשירי TPU הם סדר ביצועים גבוה יותר לכל וואט מאשר FPGAs מסחריים ו- GPUs, " אמר פיצ'אי. אף על פי שלא מסר פרטים רבים, מהנדס החומרה הנבדל של גוגל, נורמ ג'ופיי, הסביר בפוסט בבלוג כי TPU הוא ASIC מותאם אישית (מעגל משולב ספציפי ליישום). במילים אחרות, מדובר בשבב שתוכנן במיוחד להפעלת למידת מכונה המותאם במיוחד עבור TensorFlow, המסגרת של למידת מכונות של גוגל.

תמונה

בפוסט אמר ג'ופי שהוא "סובלני יותר" לדיוק חישובי מופחת, מה שאומר שהוא דורש פחות טרנזיסטורים לכל פעולה. זה מאפשר לגוגל להשיג יותר פעולות בשנייה, ומאפשר למשתמשים להשיג תוצאות במהירות רבה יותר. לדבריו לוח עם מכשיר TPU נכנס לחריץ הכונן הקשיח במתלים של מרכז הנתונים שלו, והראה תמונה של מדפי שרתים מלאים עם TPUs, שלדבריו שימשו במכונות AlphaGo של החברה.

בנוסף, אמר ג'ופי, כי TPUs כבר עובדים על מספר יישומים בגוגל, כולל RankBrain, המשמשים לשיפור הרלוונטיות של תוצאות חיפוש ו- Street View, כדי לשפר את הדיוק ואת איכות המפות והניווט.

במסיבת עיתונאים, סמנכ"ל גוגל לתשתיות טכניות Urs Hölzle אישר כי ה- TPU פועל באמצעות מתמטיקה של מספר 8 שלם, במקום המתמטיקה עם נקודה צפה בעלת דיוק גבוה יותר, שתוכנן לרוב המעבדים וה- GPU המודרניים. מרבית האלגוריתמים של למידת מכונה יכולים להסתדר בנתונים עם רזולוציה נמוכה יותר, מה שאומר שהשבב יכול להתמודד עם יותר פעולות בתחום נתון ולהתמודד עם מודלים מורכבים יותר ביעילות. זה לא רעיון חדש: מודול ה- Nvidia Drive PX 2, שהוכרז מוקדם יותר השנה ב- CES, מסוגל ל -8 טרה-פלופ ברמת דיוק של 32 סיביות עם נקודה צפה, אך מגיע ל -24 טרופות "לומדות עמוק (תקופת החברה ל -8 מתמטיקה של מספר שלם).

למרות שהולזל סירב להיכנס לפרטי פרטים, הדיווחים טוענים כי הוא אישר כי גוגל משתמשת גם ב- TPU וגם ב- GPUs. הוא אמר שהדבר יימשך זמן מה אך הציע שגוגל תראה ב- GPU מחשבים כללים מדי, והעדיפה שבב מותאם יותר ללימוד מכונה. לדבריו, החברה תשחרר מאמר המתאר את היתרונות של השבב מאוחר יותר, אך הבהיר כי אלה מיועדים לשימוש פנימי בלבד ולא למכירה לחברות אחרות. אפליקציה נוספת שתיאר הייתה באמצעות השבבים כדי לטפל בחלק מהמחשוב שמאחורי מנוע זיהוי הקולי ששימש בטלפון אנדרואיד.

הבחירה להשתמש ב- ASIC היא הימור מעניין של גוגל. ההתקדמות הגדולה ביותר בלימוד מכונות בשנים האחרונות - הטכנולוגיה העומדת מאחורי הדחיפה הגדולה לרשתות עצביות עמוקות - הייתה אימוץ ה- GPUs, ובמיוחד קו Nvidia Tesla, להכשיר דגמים אלה. לאחרונה, רכשה אינטל את אלתרנה, יצרנית מובילה של FPGA (מערכי שער לתכנות שדה), שנמצאים איפשהו באמצע; הם אינם מטרה כללית כמו GPUs או תוכננו במיוחד עבור TensorFlow כמו השבב של גוגל, אלא ניתן לתכנת אותם לבצע מגוון משימות. מיקרוסופט עשתה ניסויים עם FPGAs של Altera למידה מעמיקה. יבמ מפתחת את השבב ה- Neurosynaptic TrueNorth שעוצב במיוחד עבור רשתות עצביות, שהחל לאחרונה להשתמש במגוון יישומים. קדנס (Tensilica), Freescale ו- Synopsys דוחפים את ה- DSP שלהם (מעבדי אותות דיגיטליים) להפעיל דגמים אלה; לאחרונה הודיעו Mobileye ו- NXP על שבבים שתוכננו במיוחד עבור ADAS ומכוניות בנהיגה עצמית; וכמה חברות קטנות יותר ובהן מובידיוס ונרוונה הודיעו על תוכניות לשבבים שתוכננו במיוחד עבור AI.

עוד מוקדם לדעת איזו גישה תהיה הטובה ביותר לטווח הרחוק, אבל אם יש כמה אפשרויות שונות מאוד פירושו שסביר להניח שנראה תחרות מעניינת בשנים הקרובות.

יחידות העיבוד של טנסור של גוגל משנות את הכללים ללימוד מכונה