בית חשיבה קדימה אתגרי השבבים מתמודדים עם חוק מור

אתגרי השבבים מתמודדים עם חוק מור

וִידֵאוֹ: ª (אוֹקְטוֹבֶּר 2024)

וִידֵאוֹ: ª (אוֹקְטוֹבֶּר 2024)
Anonim

כל כמה שנים יש סיפורים על כך שהחוק של מור - התפיסה שמספר הטרנזיסטורים באזור נתון מוכפל מדי שנתיים בערך - גווע. סיפורים כאלה קיימים כבר עשרות שנים, אך אנו ממשיכים לראות שבבים חדשים עם יותר טרנזיסטורים מדי כמה שנים, די על פי לוח הזמנים.

לדוגמה, בפברואר אינטל הציגה שבב טרנזיסטור של 4.3 מיליארד שנקרא Xeon E7v2 או Ivytown על גבי 541 מילימטר רבוע באמצעות תהליך 22nm. לפני עשור, ה- Xeon המתקדם של אינטל, המכונה גלאטין, היה שבב של 130 ננומטר עם 82 מיליון טרנזיסטורים על גבי גובה של 555 מילימטר רבוע. זה לא ממש ממשיך להכפיל כל שנתיים, אבל זה קרוב.

כמובן, זה לא אומר שהוא ימשיך לעבוד לנצח, ואכן, ייצור שבבים עובר כמה שינויים גדולים שמשפיעים על ייצור ועיצוב השבבים, ולכל אלה יש השלכות מתמשכות על המשתמשים.

הברור ביותר, ברור כבר זמן רב שמהירות השעון לא מתגברת. אחרי הכל, אינטל הציגה שבבי פנטיום בשנת 2004 שרצו במהירות 3.6 ג'יגה הרץ; כיום Core i7 העליונה של החברה פועלת במהירות 3.5 ג'יגה הרץ עם מהירות טורבו מירבית של 3.9 ג'יגה הרץ. (כמובן, יש אנשים שעורכים יתר על המידה, אבל זה תמיד היה המקרה.)

במקום זאת, מעצבים הגיבו על ידי הוספת ליבות נוספות לשבבים ועל ידי הגברת היעילות של כל ליבת פרט. כיום, אפילו השבב הנמוך ביותר שאתה יכול להשיג עבור שולחן עבודה או מחשב נייד הוא שבב בעל ליבה כפולה, וגרסאות מרובע ליבות הן דבר שבשגרה. אפילו בטלפונים, אנו רואים עכשיו הרבה חלקים מרובעים ליבות ואפילו אוקטה ליבה.

זה נהדר להפעלת מספר יישומים בו זמנית (ריבוי משימות) או ליישומים שבאמת יכולים לנצל מספר ליבות וחוטים מרובים, אך רוב היישומים עדיין לא עושים זאת. מפתחים - במיוחד אלה שיוצרים כלים למפתחים - בילו זמן רב בכדי לגרום ליישומים שלהם לעבוד טוב יותר עם ליבות מרובות, אך עדיין יש המון יישומים שתלויים בעיקר בביצועים עם חד-הברגה.

בנוסף, מפתחי המעבדים מכניסים ליבות גרפיקה רבות יותר וליבות ייעודיות אחרות (כגון אלה המקודדות או מפענחות וידאו, או מצפינות או מפענחות נתונים) בתוך מעבד יישומים, במה שרבים מהתעשייה כינה עיבוד הטרוגני. AMD, Qualcomm ו- MediaTek דחפו כולם את התפיסה הזו, שאמנם יש הגיון רב בכמה דברים. זה בהחלט עוזר בשילוב - מה שהופך את השבבים קטנים יותר ופחות רעבי כוח; ונראה כי הגיוני לחלוטין במעבדים ניידים - כמו הגישה הגדולה. LITTLE ש- ARM נקטה במקום בו היא משלבת ליבות עוצמתיות יותר אך רעבות יותר כוח עם אלה שרק צריכות מעט כוח. עבור רבים מאיתנו, קבלת שבבים המשתמשים בפחות כוח לאותה ביצועים - ולכן מכשירים ניידים שממשיכים זמן רב יותר לטעינת סוללה, זה עניין גדול.

השימוש במספר עצום של ליבות - בין אם ליבות גרפיות או ליבות x86 מתמחות - בהחלט משפיע עצום על מחשוב בעל ביצועים גבוהים, שם הדברים כמו לוחות הטסלה של Nvidia או ה- Xeon Phi של אינטל (פינת האבירים) משפיעים מאוד. אכן, מרבית מחשבי העל המובילים כיום משתמשים באחת מהגישות הללו. אבל זה עדיין עובד רק לסוגים מסוימים של שימושים, בעיקר ליישומים בעיקר ליישומים המשתמשים בפקודות SIMD (הוראות יחידה, נתונים מרובים). בדברים אחרים, גישה זו לא עובדת.

וזה לא רק שהשבבים שלא יכולים לרוץ מהר יותר. בצד הייצור, ישנם מכשולים אחרים להצבת טרנזיסטורים נוספים על גזע. בעשור האחרון ראינו כל מיני טכניקות חדשות לייצור שבבים, עוברים מהתערובת המסורתית של סיליקון, חמצן ואלומיניום לעבר טכניקות חדשות כמו "סיליקון מתוח" (שם מהנדסים מותחים את אטומי הסיליקון), ומחליפים את שערים עם חומרי שער K / מתכתיים גבוהים, ולאחרונה עוברים משערים מישוריים מסורתיים לעבר שערים תלת-ממדיים המכונים FinFETs או "TriGate" בפרלנס של אינטל. שתי הטכניקות הראשונות משמשות כיום את כל יצרני השבבים המתקדמים, כאשר היציקה מתכננת להציג FinFETs בשנה הבאה בערך, בעקבות הצגת אינטל ב -2012.

אלטרנטיבה אחת נקראת FD-SOI (סיליקון על-מבודד מלא), טכניקה ש- ST Microelectronics בפרט דחפה, המשתמשת בשכבת בידוד דקה בין מצע הסיליקון לתעלה כדי לספק שליטה חשמלית טובה יותר בטרנזיסטורים זעירים, בתוך תיאוריה המספקת ביצועים טובים יותר וכוח נמוך יותר. אך עד כה נראה כי אין זה כמעט מומנטום של היצרנים הגדולים שיש להם ל- FinFETs.

בתקופה האחרונה אינטל עשתה הרבה מהיכן שהיא מתקדמת בייצור שבבים, ואכן היא החלה להעביר את ייצור הנפח של מעבדי ה- Core שלה בתהליך 22 ננומטר עם טכנולוגיית TriGate לפני כשנתיים, והיא מתכוונת לשלוח 14nm מוצרים במחצית השנייה השנה. בינתיים, יצרני השבבים הגדולים מתכננים לייצר 20 ננומטר בנפח בהמשך השנה באמצעות טרנזיסטורים מישוריים מסורתיים, עם 14 או 16 ננומטר עם מוצרי FinFET המיועדים לשנה הבאה.

אינטל הציגה שקופיות המראות עד כמה היא נמצאת בצפיפות השבבים, כמו זו מיום האנליסט שלה:

אבל היציקות לא מסכימות. להלן שקף משיחת המשקיעים האחרונה של TSMC ואומרת שהיא יכולה לסגור את הפער בשנה הבאה.

ברור שרק הזמן יגיד.

בינתיים, קבלת מידות גבס קטנות יותר קשה יותר עם כלי הליטוגרפיה המסורתיים המשמשים לחרוט הקווים לשבב הסיליקון. ליטוגרפיה טבילה, שבה השתמשה התעשייה במשך שנים, הגיעה לגבול שלה, ולכן הספקים פונים כעת ל"דפוסים כפולים "או אפילו יותר מעברים על מנת לקבל מימדים עדינים יותר. אף על פי שראינו מעט התקדמות בזמן האחרון, המהלך המיוחל לעבר ליטוגרפיה אולטרה סגולה (EUV) קיצונית, שאמורה להציע שליטה טובה יותר, נותרה מרחק של שנים.

דברים כמו FinFETs ודפוסים מרובים עוזרים לייצר את הדור הבא של השבבים, אך בעלויות גדלות. אכן, מספר אנליסטים אומרים כי העלות לטרנזיסטור של ייצור בגודל 20nm לא עשויה להיות שיפור ביחס לעלות 28nm, בגלל הצורך בדפוס כפול. ומבנים חדשים כמו FinFETs ככל הנראה יהיו יקרים יותר, לפחות בהתחלה.

כתוצאה מכך, יצרני שבבים רבים בוחנים שיטות אקזוטיות עוד יותר לשיפור הצפיפות גם אם טכניקות החוק המסורתיות של מור אינן עובדות.

זיכרון הבזק של NAND משתמש בטכנולוגיית התהליכים המתקדמת ביותר כך שהוא כבר נתקל בבעיות חמורות בקנה מידה אופקי קונבנציונאלי. הפיתרון הוא ליצור מיתרי NAND אנכיים. תאי הזיכרון הבודדים לא יצטמצמו, אך מכיוון שאתה יכול לערום כל כך הרבה אחד על גבי השני - כולם על אותו מצע - אתה מקבל צפיפות הרבה יותר גדולה באותה טביעת רגל. לדוגמא, שבב NAND תלת-שכבתי בן 16 שכבות המיוצר בתהליך של 40 ננומטר יהיה שווה בערך לשבב 2D NAND קונבנציונאלי המיוצר בתהליך של 10 ננומטר (התהליך המתקדם ביותר כיום הוא 16nm). סמסונג טוענת שהיא כבר מייצרת את ה- V-NAND (אנכית-NAND), וטושיבה וסאנדיסק יבואו בעקבות מה שהיא מכנה p-BiCS. Micron ו- SK Hynix מפתחים גם 3D NAND, אך נראה שהם מתמקדים בסטנדרט 2D NAND למשך השנים הקרובות.

שים לב שזה לא אותו דבר כמו לערום שבבי תלת מימד. זיכרון DRAM פוגע גם בקיר גודל, אך יש לו ארכיטקטורה שונה הדורשת טרנזיסטור אחד וקבל אחד בכל תא. הפיתרון כאן הוא לערום שבבים שונים של זיכרון DRAM מפוברקים זה על גבי זה, לקדוח חורים דרך המצעים ולחבר אותם באמצעות טכנולוגיה הנקראת דרך סיליקון-ויאס (TSV). התוצאה הסופית זהה - צפיפות גבוהה יותר בטביעת רגל קטנה יותר - אך זהו תהליך אריזה מתקדם יותר מאשר תהליך ייצור חדש. התעשייה מתכננת להשתמש באותה טכניקה כדי לערום זיכרון על גבי ההיגיון, לא רק כדי לקצץ את טביעת הרגל, אלא גם כדי לשפר את הביצועים ולהפחית את העוצמה. פיתרון אחד שזכה לתשומת לב רבה הוא קוביית הזיכרון ההיברידית של מיקרון. בסופו של דבר ניתן להשתמש בערימת שבבים תלת ממדיים ליצירת שבבים ניידים רבי עוצמה המשלבים מעבדים, זיכרון, חיישנים ורכיבים אחרים בחבילה אחת, אך עדיין יש בעיות רבות לפתור בייצור, בדיקה ותפעול של מה שמכונה הטרוגניות אלה. ערימות תלת מימד.

אבל זה הדור הבא של הטכניקות שעליהן דיברו יצרני השבבים שנראים אקזוטיים בהרבה. בכנסי שבבים אתה שומע הרבה על הכוונה עצמית מכוונת (DSA), בה חומרים חדשים יתכנסו למעשה לתבנית הטרנזיסטור הבסיסית - לפחות לשכבה אחת של שבב. זה נשמע קצת כמו מדע בדיוני, אבל אני מכיר מספר חוקרים שמאמינים שזה ממש לא רחוק בכלל.

בינתיים, חוקרים אחרים בוחנים מעמד של חומרים חדשים - המכונים מוליכים למחצה III-V בסגנונות ייצור מסורתיים יותר; בעוד שאחרים בוחנים מבנים שונים למוליכים למחצה כדי להשלים או להחליף FinFETs, כגון ננו-חוטים.

שיטה נוספת להפחתת עלויות היא ייצור טרנזיסטורים על רקיק גדול יותר. התעשייה עברה מעברים מסוג זה לפני שעברה בין 200 וופלים לפלים 300 מ"מ (בקוטר של כ -12 אינץ ') לפני כעשור. כעת, מדברים רבות על מעבר לפלים 450 מ"מ, כאשר מרבית היצרנים הגדולים של הוופלים וספקי הכלים יוצרים קונסורציום לבחינת הטכנולוגיות הדרושות. מעבר כזה אמור להפחית את עלויות הייצור, אך יישא עלות הון גבוהה מכיוון שהוא ידרוש מפעלים חדשים ודור חדש של כלים לייצור שבבים. לאינטל יש מפעל באריזונה שיכול לייצר 450 מ"מ, אך עיכב את הזמנת הכלים, ורבים מספקי הכלים מעכבים גם הם את ההיצע שלהם. מה שהופך את הסבירות לייצור האמיתי הראשון של 450 מ"מ ופלים לא יהיה עד 2019 או 2020 לכל המוקדם.

נראה שהכל נעשה קשה יותר ויקר יותר. אבל זה היה המצב בייצור מוליכים למחצה מאז ההתחלה. השאלה הגדולה היא תמיד האם השיפורים בביצועים והצפיפות הנוספת יהיו שווים את העלות הנוספת בייצור.

ISSCC: הרחבת חוק מור

כיצד להאריך את חוק מור היה נושא עיקרי בכנס מעגלי המוצקים הבינלאומיים המוצקים של החודש שעבר (ISSCC). מארק הורוביץ, פרופסור מאוניברסיטת סטנפורד ומייסד רמבוס, ציין כי הסיבה שיש לנו מחשוב בכל דבר כיום היא מכיוון שהמחשוב נעשה זול, בגלל חוק מור וכללים של קנה המידה של דנארד. זה הוביל לציפיות שמכשירי מחשוב יהפכו זולים יותר, קטנים וחזקים יותר ויותר. (סטנפורד תכנן את ביצועי המעבדים לאורך זמן ב- cpudb.stanford.edu).

אך הוא ציין כי תדירות השעון של מעבדי המיקרו מפסיקה לשדרג בסביבות 2005 מכיוון שצפיפות הספק הפכה לבעיה. המהנדסים הגיעו למגבלת כוח אמיתית - מכיוון שהם לא יכלו להפוך את השבבים לחמים יותר, כך שכעת כל מערכות המחשוב מוגבלות כוח. כפי שציין, שינוי גודל האנרגיה - מתח אספקת החשמל - משתנה לאט מאוד.

הנטייה הראשונה של התעשייה לפתור בעיה זו היא לשנות טכנולוגיה. "לצערי אני לא אופטימי שאנחנו הולכים למצוא טכנולוגיה שתחליף את CMOS למחשוב", אמר לבעיות טכניות וכלכליות כאחד. הדרך היחידה לגרום לפעולות בשנייה להגדיל, אם כן, היא להפחית את האנרגיה לפעולה, הוא אמר, והציע כי זו הסיבה שלכולם יש כיום מעבדים מרובי ליבה, אפילו בטלפונים הניידים שלהם. אבל הבעיה היא שאתה לא יכול להמשיך להוסיף ליבות כיוון שאתה במהירות מגיע לנקודה של ירידה בתשואות מבחינת אנרגיית הביצועים ואזור למות. מעצבי מעצבי CPU ידעו על זה מזה זמן רב והם מבצעים אופטימיזציה של המעבדים מזה זמן רב.

הורוביץ אמר שאסור לשכוח מהאנרגיה שמשמשת את הזיכרון. במצגתו הוא הראה את פירוט האנרגיה עבור מעבד 8 ליבות זרם ובלתי מזוהה בו ליבות ה- CPU השתמשו בכ- 50 אחוז מהאנרגיה והזיכרון למות (זיכרון המטמון L1, L2 ו- L3) השתמש ב- 50 האחוזים האחרים.. זה אפילו לא כולל את זיכרון מערכת ה- DRAM החיצוני, שיכול להיות בסופו של דבר 25 אחוז יותר מכל צריכת האנרגיה של המערכת.

אנשים רבים מדברים על שימוש בחומרה ייעודית (כגון מכשירי ASIC) שיכולים להיות טובים פי אלף מבחינת אנרגיה לפעולה בהשוואה למעבד לשימוש כללי. אך כפי שציין הורוביץ, היעילות כאן באה בחלקה מכיוון שהיא משמשת ליישומים ספציפיים (כמו עיבוד מודם, עיבוד תמונה, דחיסת וידיאו ופריקת לחץ) שלמעשה לא ניגשים לזיכרון במיוחד. זו הסיבה שזה עוזר כל כך הרבה באנרגיה - זה לא כל כך קשור לחומרה, זה קשור להעברת האלגוריתם לחלל הרבה יותר מוגבל.

החדשות הרעות הן שזה אומר שהיישומים שאתה יכול לבנות מוגבלים. החדשות הטובות הן שאולי תוכלו לבנות מנוע כללי יותר שיכול להתמודד עם סוגים אלה של יישומים עם "יישוב גבוה", כלומר הם לא צריכים לגשת לזיכרון. הוא מתייחס לזה כאל מודל המחשוב המקומי ביותר ו"יישומי הסטנסיל "שיכולים לפעול עליו. זה כמובן דורש מודל תכנות חדש. סטנפורד פיתחה שפה ספציפית לתחום, מהדר שיכול לבנות יישומי שבלונות אלה ולהריץ אותם על FPGA ו- ASIC.

גם בכנס ISSCC אמר מינג-קאי טאי, יו"ר ומנכ"ל MediaTek, כי אנשים שואלים מאז תחילת שנות התשעים כמה זמן יימשך החוק של מור. אבל כמו שאמר גורדון מור ב- ISSCC בשנת 2003, "שום מערכה אינה לנצח. אבל אנחנו יכולים לעכב את זה לנצח." התעשייה עשתה עבודה נהדרת בקיום פחות או יותר של חוק מור, אמר. עלות הטרנזיסטור המשיכה בירידה ההיסטורית. בעלות של 100 גרם אורז (כ -10 סנט) היית יכול לקנות רק 100 טרנזיסטורים בשנת 1980, אך עד 2013 יכולת לקנות 5 מיליון טרנזיסטורים.

Tsai אמר כי המכשירים הניידים קיבלו תקרה מכיוון שמעבדים אינם יכולים לפעול ביעילות במהירויות מעבר ל- 3 ג'יגה הרץ ומשום שטכנולוגיית הסוללה לא השתפרה רבות. MediaTek עבדה על בעיה זו על ידי שימוש במעבדים מרובי ליבות ורב עיבוד הטרוגני (HMP). לדבריו, החברה הציגה את מעבד ה- HMP האמיתי הראשון ב -2013, ובראשית השבוע היא הודיעה על מעבד בן 4 ליבות המשתמש בטכנולוגיית ה- PTP (ביצועים, תרמיים וכוח) כדי להגדיל עוד יותר את הביצועים ולהפחית את הכוח. הוא גם דיבר על ההתקדמות המהירה בקישוריות. יישומים ניידים רבים שהיו בעבר בלתי אפשריים הם קיימא כיום בגלל השיפורים הללו ברשתות WLAN ו- WWAN, אמר.

מדיה טק עובדת על טכנולוגיות שונות עבור "Cloud 2.0" כולל פתרונות טעינה אלחוטיים, ה- "Aster" SoC לבישים (בגודל 5.4x6.6 מילימטרים בלבד), ומערכות הטרוגניות כחלק מקרן HSA. ענן 2.0, לפי צאי, יאופיין במכשירים רבים יותר - במיוחד לבישים - עם הרבה יותר מכשירי קשר; יותר מ 100 מכשירי רדיו לאדם עד 2030.

האתגרים הגדולים עבור Cloud 2.0 יהיו אנרגיה ורוחב פס, אמר צאי. הראשון ידרוש פתרונות משולבים, מערכות חומרה ותוכנה חדשניות; טכנולוגיית סוללה טובה יותר; וצורה כלשהי של קצירת אנרגיה. השנייה תדרוש שימוש יעיל יותר בספקטרום הזמין, רשתות אדפטיביות וקישוריות אמינה יותר.

לא משנה מה יקרה בייצור שבבים, זה בטוח יוביל ליישומים חדשים ולהחלטות חדשות שעומדות בפני יצרני השבבים, מעצבי המוצר ובסופו של דבר משתמשי קצה.

אתגרי השבבים מתמודדים עם חוק מור