בדף הזה מופיעים מונחים במילון המונחים של Google Cloud. כאן אפשר לראות את כל המונחים במילון המונחים.
A
צ'יפ של פעולה שכיחה
קטגוריה של רכיבי חומרה מיוחדים שנועדו לבצע חישובים של מפתחות שנדרשים לאלגוריתמים של למידה עמוקה.
שבבי האצה (או בקיצור מאיצים) יכולים להגדיל באופן משמעותי את המהירות והיעילות של משימות אימון והסקת מסקנות בהשוואה למעבד למטרות כלליות. הם אידיאליים לאימון רשתות עצביות ולמשימות דומות שדורשות הרבה כוח מחשוב.
דוגמאות לשבבי האצה:
- יחידות Tensor Processing Units (TPU) של Google עם חומרה ייעודית ללמידה עמוקה.
- מעבדים גרפיים של NVIDIA, שלמרות שהם תוכננו במקור לעיבוד גרפי, הם מיועדים לאפשר עיבוד מקבילי, שיכול להגדיל באופן משמעותי את מהירות העיבוד.
B
היקש באצווה
התהליך של הסקת תחזיות על כמה דוגמאות לא מסומנות שמחולקות לקבוצות משנה קטנות יותר ("אצוות").
הסקת מסקנות באצווה יכולה לנצל את תכונות הטעינה במקביל של שבבי האצה. כלומר, כמה מאיצים יכולים להסיק תחזיות בו-זמנית על קבוצות שונות של דוגמאות לא מסומנות, וכך להגדיל באופן משמעותי את מספר ההסקות בשנייה.
מידע נוסף מופיע במאמר מערכות ML בייצור: הסקה סטטית לעומת הסקה דינמית בקורס המזורז ללמידת מכונה.
C
Cloud TPU
מאיץ חומרה ייעודי שנועד להאיץ עומסי עבודה של למידת מכונה ב-Google Cloud.
D
מכשיר
מונח עמוס עם שתי הגדרות אפשריות:
- קטגוריה של חומרה שיכולה להריץ סשן של TensorFlow, כולל מעבדי CPU, מעבדי GPU ומעבדי TPU.
- כשמבצעים אימון של מודל ML על שבבי האצה (GPU או TPU), החלק במערכת שמבצע בפועל מניפולציה של טנסורים ושל הטבעות. המכשיר פועל על שבבי האצה. לעומת זאת, המארח פועל בדרך כלל במעבד.
H
מארח
כשמאמנים מודל ML על שבבי האצה (מעבדי GPU או TPU), החלק במערכת ששולט בשני הדברים הבאים:
- הזרימה הכוללת של הקוד.
- החילוץ והשינוי של צינור הקלט.
המארח פועל בדרך כלל במעבד (CPU), ולא בצ'יפ האצה. המכשיר מבצע מניפולציות על טנסורים בצ'יפים של המאיץ.
M
רשת
במקביל למידת מכונה, מונח שקשור להקצאת הנתונים והמודל לשבבי TPU, ולהגדרת האופן שבו הערכים האלה יחולקו או ישוכפלו.
המונח Mesh (רשת) הוא מונח עמוס שיכול להתייחס לאחד מהדברים הבאים:
- פריסה פיזית של שבבי TPU.
- מבנה לוגי מופשט למיפוי הנתונים והמודל לשבבי TPU.
בכל מקרה, רשת מוגדרת כצורה סגורה.
S
פצל
חלוקה לוגית של קבוצת הנתונים לאימון או של המודל. בדרך כלל, תהליך מסוים יוצר רסיסים על ידי חלוקה של הדוגמאות או הפרמטרים לחלקים בגודל שווה (בדרך כלל). לאחר מכן, כל רסיס מוקצה למכונה אחרת.
החלוקה של מודל נקראת מקבילות של מודל, והחלוקה של נתונים נקראת מקבילות של נתונים.
T
Tensor Processing Unit (TPU)
מעגל משולב לאפליקציות ספציפיות (ASIC) שמבצע אופטימיזציה של הביצועים של עומסי עבודה של למידת מכונה. ה-ASIC האלה נפרסים כשבבי TPU מרובים במכשיר TPU.
TPU
קיצור של Tensor Processing Unit (יחידת עיבוד טנסור).
שבב TPU
מאיץ אלגברה לינארית ניתן לתכנות עם זיכרון רוחב פס גבוה על השבב, שעבר אופטימיזציה לעומסי עבודה של למידת מכונה. כמה שבבי TPU נפרסים במכשיר TPU.
מכשיר TPU
לוח מעגלים מודפס (PCB) עם כמה שבבי TPU, ממשקי רשת עם רוחב פס גבוה ורכיבי חומרה לקירור המערכת.
צומת TPU
משאב TPU ב-Google Cloud עם סוג TPU ספציפי. צומת ה-TPU מתחבר לרשת ה-VPC מרשת VPC שכנה. צומתי TPU הם משאב שמוגדר ב-Cloud TPU API.
TPU Pod
תצורה ספציפית של מכשירי TPU במרכז נתונים של Google. כל המכשירים ב-TPU Pod מחוברים זה לזה דרך רשת ייעודית במהירות גבוהה. TPU Pod הוא ההגדרה הגדולה ביותר של מכשירי TPU שזמינה לגרסה ספציפית של TPU.
משאב TPU
ישות TPU ב-Google Cloud שאתם יוצרים, מנהלים או משתמשים בה. לדוגמה, צומתי TPU וסוגי TPU הם משאבי TPU.
TPU slice
TPU slice הוא חלק קטן ממכשירי TPU ב-TPU Pod. כל המכשירים ב-TPU slice מחוברים זה לזה באמצעות רשת ייעודית מהירה.
סוג ה-TPU
הגדרה של מכשירי TPU אחד או יותר עם גרסת חומרה ספציפית של TPU. כשיוצרים צומת TPU ב-Google Cloud, בוחרים את סוג ה-TPU. לדוגמה, סוג TPU v2-8 הוא מכשיר TPU v2 יחיד עם 8 ליבות. TPU מסוג v3-2048 כולל 256 מכשירי TPU v3 שמחוברים לרשת, ובסך הכול 2,048 ליבות. סוגי TPU הם משאב שמוגדר ב-Cloud TPU API.
TPU worker
תהליך שפועל במחשב מארח ומבצע תוכניות של למידת מכונה במכשירי TPU.