Эта страница содержит термины из глоссария Google Cloud. Чтобы просмотреть все термины глоссария, щелкните здесь .
А
чип-ускоритель
Категория специализированных аппаратных компонентов, предназначенных для выполнения ключевых вычислений, необходимых для алгоритмов глубокого обучения.
Чипы-ускорители (или просто ускорители , для краткости) могут значительно повысить скорость и эффективность задач обучения и логического вывода по сравнению с ЦП общего назначения. Они идеально подходят для обучения нейронных сетей и подобных задач, требующих больших вычислительных ресурсов.
Примеры чипов-ускорителей включают:
- Tensor Processing Units ( TPU ) Google с выделенным оборудованием для глубокого обучения.
- Графические процессоры NVIDIA, которые изначально предназначены для обработки графики, предназначены для обеспечения параллельной обработки, что может значительно увеличить скорость обработки.
Б
пакетный вывод
Процесс вывода прогнозов на нескольких немаркированных примерах , разделенных на более мелкие подмножества («пакеты»).
Пакетный вывод может использовать возможности распараллеливания чипов-ускорителей . То есть несколько ускорителей могут одновременно делать прогнозы на разных партиях немаркированных примеров, резко увеличивая количество выводов в секунду.
С
Облачный ТПУ
Специализированный аппаратный ускоритель, предназначенный для ускорения рабочих нагрузок машинного обучения в Google Cloud Platform.
Д
устройство
Перегруженный термин со следующими двумя возможными определениями:
- Категория оборудования, на котором может выполняться сеанс TensorFlow, включая процессоры, графические процессоры и TPU .
- При обучении модели машинного обучения на чипах-ускорителях (GPU или TPU) — той части системы, которая фактически манипулирует тензорами и эмбеддингами . Устройство работает на чипах-ускорителях. Напротив, хост обычно работает на ЦП.
ЧАС
хозяин
При обучении модели машинного обучения на чипах-ускорителях (GPU или TPU ) — часть системы, которая управляет обоими из следующего:
- Общий поток кода.
- Извлечение и преобразование входного конвейера.
Хост обычно работает на ЦП, а не на чипе-ускорителе; устройство манипулирует тензорами на микросхемах ускорителя.
М
сетка
В параллельном программировании машинного обучения термин, связанный с назначением данных и модели чипам TPU и определением того, как эти значения будут сегментированы или реплицированы.
Сетка — это перегруженный термин, который может означать одно из следующего:
- Физическое расположение чипов TPU.
- Абстрактная логическая конструкция для сопоставления данных и модели с чипами TPU.
В любом случае сетка задается как shape .
С
осколок
Логическое разделение обучающей выборки или модели . Как правило, какой-то процесс создает осколки, разделяя примеры или параметры на (обычно) фрагменты одинакового размера. Затем каждый осколок назначается отдельной машине.
Разделение модели называется модельным параллелизмом ; сегментирование данных называется параллелизмом данных .
Т
Блок тензорной обработки (TPU)
Специализированная интегральная схема (ASIC), оптимизирующая производительность рабочих нагрузок машинного обучения. Эти ASIC развернуты как несколько чипов TPU на устройстве TPU .
ТПУ
Аббревиатура для Tensor Processing Unit .
Чип ТПУ
Программируемый ускоритель линейной алгебры со встроенной памятью с высокой пропускной способностью, оптимизированный для рабочих нагрузок машинного обучения. Несколько чипов TPU развернуты на устройстве TPU .
устройство ТПУ
Печатная плата (PCB) с несколькими микросхемами TPU , сетевыми интерфейсами с высокой пропускной способностью и аппаратным обеспечением системного охлаждения.
Мастер ТПУ
Процесс централизованной координации, выполняемый на хост-компьютере, который отправляет и получает данные, результаты, программы, информацию о производительности и работоспособности системы рабочим TPU . Мастер TPU также управляет настройкой и отключением устройств TPU .
узел ТПУ
Ресурс TPU на Google Cloud Platform с определенным типом TPU . Узел TPU подключается к вашей сети VPC из одноранговой сети VPC . Узлы TPU — это ресурс, определенный в Cloud TPU API .
ТПУ стручок
Конкретная конфигурация устройств TPU в центре обработки данных Google. Все устройства в модуле TPU подключены друг к другу через выделенную высокоскоростную сеть. Модуль TPU — это самая большая конфигурация устройств TPU, доступная для конкретной версии TPU.
Ресурс ТПУ
Сущность TPU на Google Cloud Platform, которую вы создаете, управляете или используете. Например, узлы TPU и типы TPU являются ресурсами TPU.
Срез ТПУ
Слайс TPU — это дробная часть устройств TPU в модуле TPU . Все устройства в слайсе TPU подключены друг к другу через выделенную высокоскоростную сеть.
Тип ТПУ
Конфигурация одного или нескольких устройств TPU с определенной версией оборудования TPU. Вы выбираете тип TPU при создании узла TPU в Google Cloud Platform. Например, тип TPU v2-8
— это одно устройство TPU v2 с 8 ядрами. Тип v3-2048
TPU имеет 256 подключенных к сети устройств TPU v3 и в общей сложности 2048 ядер. Типы TPU — это ресурс, определенный в Cloud TPU API .
работник ТПУ
Процесс, который запускается на хост-компьютере и выполняет программы машинного обучения на устройствах TPU .