Глоссарий машинного обучения: Google Cloud

На этой странице представлены термины глоссария Google Cloud. Чтобы просмотреть все термины глоссария, нажмите здесь .

А

чип-ускоритель

#GoogleCloud

Категория специализированных аппаратных компонентов, предназначенных для выполнения ключевых вычислений, необходимых для алгоритмов глубокого обучения.

Ускорительные чипы (или просто ускорители ) могут значительно повысить скорость и эффективность задач обучения и вывода по сравнению с центральным процессором общего назначения. Они идеально подходят для обучения нейронных сетей и аналогичных ресурсоемких вычислительных задач.

Примерами микросхем-ускорителей являются:

  • Тензорные процессоры Google ( TPU ) со специализированным оборудованием для глубокого обучения.
  • Графические процессоры NVIDIA, хотя и были изначально разработаны для обработки графики, позволяют использовать параллельную обработку, что может значительно повысить скорость обработки.

Б

пакетный вывод

#GoogleCloud

Процесс вывода прогнозов на основе множества немаркированных примеров, разделенных на более мелкие подмножества («пакеты»).

Пакетный вывод может использовать преимущества возможностей распараллеливания, предоставляемых чипами ускорителей . То есть, несколько ускорителей могут одновременно делать прогнозы на разных пакетах немаркированных примеров, что значительно увеличивает количество выводов в секунду.

Дополнительную информацию можно найти в разделе «Системы машинного обучения в производственной среде: статический и динамический вывод» в «Кратком курсе по машинному обучению».

С

Облачный TPU

#TensorFlow
#GoogleCloud

Специализированный аппаратный ускоритель, разработанный для ускорения рабочих нагрузок машинного обучения в облаке Google.

Д

устройство

#TensorFlow
#GoogleCloud

Перегруженный термин, имеющий два возможных определения:

  1. Категория оборудования, способного запускать сеанс TensorFlow, включая процессоры (CPU), графические процессоры (GPU) и тензорные процессоры (TPU) .
  2. При обучении модели машинного обучения на чипах-ускорителях (GPU или TPU) часть системы, которая непосредственно обрабатывает тензоры и эмбеддинги , работает на чипах-ускорителях. В отличие от них, хост-система обычно работает на центральном процессоре (CPU).

ЧАС

хозяин

#TensorFlow
#GoogleCloud

При обучении модели машинного обучения на чипах-ускорителях (GPU или TPU ) часть системы, которая управляет обоими следующими процессами:

  • Общая структура кода.
  • Извлечение и преобразование входного конвейера.

Как правило, хост-система работает на центральном процессоре, а не на микросхеме ускорителя; устройство обрабатывает тензоры на микросхемах ускорителей.

М

сетка

#TensorFlow
#GoogleCloud

В параллельном программировании в машинном обучении это термин, связанный с распределением данных и модели по чипам TPU и определением того, как эти значения будут сегментированы или реплицированы.

Термин «сетка» является перегруженным и может означать любое из следующих:

  • Физическая компоновка микросхем TPU.
  • Абстрактная логическая конструкция для сопоставления данных и модели с микросхемами TPU.

В любом случае, сетка задается в виде формы .

С

осколок

#TensorFlow
#GoogleCloud

Логическое разделение обучающего набора данных или модели . Как правило, некий процесс создает фрагменты, разделяя примеры или параметры на (обычно) равные по размеру части. Затем каждый фрагмент назначается отдельной машине.

Разделение модели на сегменты называется параллелизмом модели ; разделение данных на сегменты называется параллелизмом данных .

Т

Блок обработки тензоров (TPU)

#TensorFlow
#GoogleCloud

Специализированная интегральная схема (ASIC), оптимизирующая производительность задач машинного обучения. Эти ASIC используются в виде нескольких микросхем TPU на одном устройстве TPU .

ТПУ

#TensorFlow
#GoogleCloud

Сокращение от Tensor Processing Unit (блок обработки тензоров).

чип ТПУ

#TensorFlow
#GoogleCloud

Программируемый ускоритель линейной алгебры с высокоскоростной памятью на кристалле, оптимизированный для задач машинного обучения. На одном устройстве TPU размещено несколько чипов TPU.

Устройство ТПУ

#TensorFlow
#GoogleCloud

Печатная плата (PCB) с несколькими микросхемами TPU , высокоскоростными сетевыми интерфейсами и системой охлаждения.

Узел TPU

#TensorFlow
#GoogleCloud

Ресурс TPU в Google Cloud с определенным типом TPU . Узел TPU подключается к вашей сети VPC из соседней сети VPC . Узлы TPU — это ресурсы, определенные в API Cloud TPU .

TPU Pod

#TensorFlow
#GoogleCloud

Конкретная конфигурация устройств TPU в центре обработки данных Google. Все устройства в модуле TPU соединены друг с другом через выделенную высокоскоростную сеть. Модуль TPU — это самая большая конфигурация устройств TPU , доступная для конкретной версии TPU.

Ресурс TPU

#TensorFlow
#GoogleCloud

Сущность TPU в Google Cloud, которую вы создаете, управляете или используете. Например, узлы TPU и типы TPU являются ресурсами TPU.

фрагмент ТПУ

#TensorFlow
#GoogleCloud

Срез TPU — это доля устройств TPU в модуле TPU . Все устройства в срезе TPU соединены друг с другом через выделенную высокоскоростную сеть.

Тип ТПУ

#TensorFlow
#GoogleCloud

Конфигурация одного или нескольких устройств TPU с определенной версией аппаратного обеспечения TPU. Тип TPU выбирается при создании узла TPU в Google Cloud. Например, тип TPU v2-8 — это одно устройство TPU v2 с 8 ядрами. Тип TPU v3-2048 имеет 256 сетевых устройств TPU v3 и в общей сложности 2048 ядер. Типы TPU — это ресурсы, определенные в API Cloud TPU .

работник ТПУ

#TensorFlow
#GoogleCloud

Процесс, который выполняется на хост-машине и запускает программы машинного обучения на устройствах TPU .

В

Вершина

#GoogleCloud
#генеративныйИИ
Платформа Google Cloud для искусственного интеллекта и машинного обучения. Vertex предоставляет инструменты и инфраструктуру для создания, развертывания и управления приложениями ИИ, включая доступ к моделям Gemini .