مسرد مصطلحات تعلُّم الآلة: Google Cloud

تتضمّن هذه الصفحة بنود مسرد مصطلحات Google Cloud. للاطّلاع على كل عبارات مسرد المصطلحات، انقر هنا.

A

شريحة مسرِّعة الأعمال

#GoogleCloud

فئة من مكونات الأجهزة المتخصصة في أداء العمليات الحسابية الأساسية المطلوبة لخوارزميات التعلم العميق

يمكن أن تؤدي شرائح Accelerator (أو برنامج Accelerator فقط) بإيجاز إلى زيادة سرعة ومهام التدريب ومهام الاستنتاجات مقارنةً بوحدة المعالجة المركزية (CPU) ذات الأغراض العامة. وهي مثالية لتدريب الشبكات العصبونية والمهام المشابهة الحاسوبية المشابهة.

تشمل أمثلة شرائح التسارع ما يلي:

  • وحدات معالجة البيانات من Tensor (TPU من Google) التي تتضمّن أجهزة مخصّصة للتعلُّم المعمّق
  • مع أنّ وحدات معالجة الرسومات التابعة لشركة NVIDIA، والتي تمّ تصميمها في البداية لمعالجة الرسومات، تم تصميمها لإتاحة المعالجة المتوازية، ما قد يؤدي إلى زيادة كبيرة في سرعة المعالجة.

ب

استنتاج مجمّع

#TensorFlow
#GoogleCloud

عملية استنتاج عبارات البحث المقترَحة على أمثلة غير مصنّفة مقسّمة إلى مجموعات فرعية أصغر ("مجموعات").

يمكن أن نستفيد من الاستنتاجات المجمّعة في الميزات المتوازية لشرائح التسارع. وهذا يعني أنّ العديد من مسرِّعات الأعمال يمكن أن تستنتج التوقعات في الوقت نفسه على دفعات مختلفة من الأمثلة غير المصنّفة، ما يؤدي إلى زيادة كبيرة في عدد الاستنتاجات في الثانية.

ج

Cloud TPU

#TensorFlow
#GoogleCloud

مسرِّع أجهزة متخصّص ومصمَّم لزيادة سرعة أعباء تعلُّم الآلة على Google Cloud Platform

د

جهاز واحد

#TensorFlow
#GoogleCloud

عبارة التحميل الزائد مع التعريفات التالية:

  1. فئة من الأجهزة التي يمكنها تشغيل جلسة TensorFlow، بما في ذلك وحدات المعالجة المركزية (CPU) ووحدات معالجة الرسومات ووحدات معالجة الجهاز
  2. عند تدريب نموذج تعلُّم الآلة على شرائح برنامج Accelerator (وحدات معالجة الرسومات أو وحدات معالجة المنتج)، هي جزء من النظام الذي يعالج فعليًا المساتِم والتضمينات. يعمل الجهاز على شرائح مسرِّعة الأعمال. وفي المقابل، يعمل المضيف عادةً على وحدة معالجة مركزية (CPU).

H

مضيف

#TensorFlow
#GoogleCloud

عند تدريب نموذج تعلُّم الآلة على شرائح برنامج Accelerator (وحدات GPU أو وحدات TPU) وهي جزء من النظام الذي يتحكّم في ما يلي:

  • التدفق الإجمالي للرمز.
  • استخراج مسار الإدخال وتحويله

يعمل المضيف عادةً على وحدة معالجة مركزية (CPU) وليس على شريحة Accelerator، لأنّ الجهاز يعالج برامج Tenors على شرائح برنامج Accelerator.

ن

شبكة متداخلة

#TensorFlow
#GoogleCloud

في البرمجة الموازية بالتعلّم الآلي، هي عبارة مرتبطة بإسناد البيانات والنموذج إلى شرائح وحدة معالجة الموتّرات، وتحديد طريقة تقسيم هذه القيم أو نسخها.

Mesh هي عبارة عن عبارة التحميل الزائد التي قد تعني أيًا مما يلي:

  • تنسيق شرائح TPU.
  • بنية منطقية مجرّدة لربط البيانات والنموذج إلى شرائح TPU

وفي كلتا الحالتين، يتم تحديد الشبكة المتداخلة على أنّها شكل.

ح

قَطْعَة

#TensorFlow
#GoogleCloud

قسم منطقي لمجموعة التدريب أو النموذج. عادةً ما تنشئ بعض العمليات أجزاءً من خلال قسمة الأمثلة أو المعلّمات إلى أجزاء بحجم متساوٍ (عادةً). وبعد ذلك، يتم تخصيص كل جزء إلى جهاز مختلف.

ويُسمّى تقسيم النموذج موازاة النموذج، ويُعرف البيانات المقسّمة باسم توازي البيانات.

T

وحدة معالجة Tensor (TPU)

#TensorFlow
#GoogleCloud

دائرة متكاملة للتطبيقات (ASIC) تعمل على تحسين أداء أعباء العمل على تعلُّم الآلة يتم نشر رموز ASIC هذه في شكل شرائح TPU متعددة على جهاز TPU.

وحدة معالجة الموتّرات

#TensorFlow
#GoogleCloud

اختصار وحدة معالجة المستشعرات.

شريحة TPU

#TensorFlow
#GoogleCloud

مسرِّع الجبر الخطي القابل للبرمجة مع ذاكرة عالية معدل نقل البيانات على الرقاقة المحسَّنة لأعباء تعلُّم الآلة. تم نشر شرائح TPU متعددة على جهاز TPU.

جهاز TPU

#TensorFlow
#GoogleCloud

لوحة دارة مطبوعة (PCB) تتضمن شرائح TPU متعددة، وواجهات شبكة ذات معدل نقل بيانات مرتفع، وأجهزة تبريد النظام.

وحدة معالجة الموتّرات الرئيسية

#TensorFlow
#GoogleCloud

عملية التنسيق المركزية التي يتم تشغيلها على جهاز مضيف وترسل وتتلقّى البيانات والنتائج والبرامج والأداء وصحة النظام إلى عاملي وحدة معالجة الموتّرات. يدير مسؤول وحدة معالجة الموتّرات أيضًا إعداد أجهزة TPU وإيقافها.

عقدة TPU

#TensorFlow
#GoogleCloud

مورِّد TPU على Google Cloud Platform يستخدِم نوع TPU محدّدًا. تتصل عقدة TPU مع شبكة VPC من شبكة VPC مماثلة. عُقد TPU هي مورد محدَّد في Cloud TPU API.

مجموعة TPU

#TensorFlow
#GoogleCloud

إعداد محدد لأجهزة TPU في مركز بيانات Google كل الأجهزة في مجموعة وحدات معالجة الموتّرات متصلة ببعضها البعض عبر شبكة مخصّصة عالية السرعة. أكبر مجموعة من وحدات معالجة الموتّرات في الهواء الطلق هي أجهزة TPU المتاحة لإصدار محدّد من وحدة معالجة الموتّرات.

مورد وحدة معالجة الموتّرات

#TensorFlow
#GoogleCloud

كيان TPU على Google Cloud Platform تنشئه أو تديره أو تستهلكه. على سبيل المثال، عُقد TPU وأنواع وحدة معالجة الموتّرات هي موارد وحدة معالجة الموتّرات.

شريحة TPU

#TensorFlow
#GoogleCloud

شريحة TPU هي جزء كسور من أجهزة TPU في وحدة معالجة مخزّنة من وحدة معالجة البيانات. تكون جميع الأجهزة في شريحة TPU متصلة ببعضها من خلال شبكة مخصّصة عالية السرعة.

نوع وحدة معالجة الموتّرات

#TensorFlow
#GoogleCloud

إعداد جهاز TPU واحد أو أكثر بإصدار محدّد من أجهزة TPU تختار نوع TPU عند إنشاء عقدة TPU على Google Cloud Platform. على سبيل المثال، نوع v2-8TPU هو جهاز واحد يعمل بوحدات TPU من 8 نوى. يحتوي نوع وحدة معالجة الموتّرات v3-2048 على 256 جهازًا يتضمّن شبكة TPU من الإصدار 256 ووحدة معالجة مركزية بها 2048 نواة. أنواع TPU هي مورد محدّد في Cloud TPU API.

عامل TPU

#TensorFlow
#GoogleCloud

يتم تنفيذ هذه العملية على جهاز مضيف وتنفِّذ برامج تعلُّم الآلة على أجهزة TPU.