На этой странице представлены термины глоссария Google Cloud. Чтобы просмотреть все термины глоссария, нажмите здесь .
А
чип-ускоритель
Категория специализированных аппаратных компонентов, предназначенных для выполнения ключевых вычислений, необходимых для алгоритмов глубокого обучения.
Ускорительные чипы (или просто ускорители ) могут значительно повысить скорость и эффективность задач обучения и вывода по сравнению с центральным процессором общего назначения. Они идеально подходят для обучения нейронных сетей и аналогичных ресурсоемких вычислительных задач.
Примерами микросхем-ускорителей являются:
- Тензорные процессоры Google ( TPU ) со специализированным оборудованием для глубокого обучения.
- Графические процессоры NVIDIA, хотя и были изначально разработаны для обработки графики, позволяют использовать параллельную обработку, что может значительно повысить скорость обработки.
Б
пакетный вывод
Процесс вывода прогнозов на основе множества немаркированных примеров, разделенных на более мелкие подмножества («пакеты»).
Пакетный вывод может использовать преимущества возможностей распараллеливания, предоставляемых чипами ускорителей . То есть, несколько ускорителей могут одновременно делать прогнозы на разных пакетах немаркированных примеров, что значительно увеличивает количество выводов в секунду.
Дополнительную информацию можно найти в разделе «Системы машинного обучения в производственной среде: статический и динамический вывод» в «Кратком курсе по машинному обучению».
С
Облачный TPU
Специализированный аппаратный ускоритель, разработанный для ускорения рабочих нагрузок машинного обучения в облаке Google.
Д
устройство
Перегруженный термин, имеющий два возможных определения:
- Категория оборудования, способного запускать сеанс TensorFlow, включая процессоры (CPU), графические процессоры (GPU) и тензорные процессоры (TPU) .
- При обучении модели машинного обучения на чипах-ускорителях (GPU или TPU) часть системы, которая непосредственно обрабатывает тензоры и эмбеддинги , работает на чипах-ускорителях. В отличие от них, хост-система обычно работает на центральном процессоре (CPU).
ЧАС
хозяин
При обучении модели машинного обучения на чипах-ускорителях (GPU или TPU ) часть системы, которая управляет обоими следующими процессами:
- Общая структура кода.
- Извлечение и преобразование входного конвейера.
Как правило, хост-система работает на центральном процессоре, а не на микросхеме ускорителя; устройство обрабатывает тензоры на микросхемах ускорителей.
М
сетка
В параллельном программировании в машинном обучении это термин, связанный с распределением данных и модели по чипам TPU и определением того, как эти значения будут сегментированы или реплицированы.
Термин «сетка» является перегруженным и может означать любое из следующих:
- Физическая компоновка микросхем TPU.
- Абстрактная логическая конструкция для сопоставления данных и модели с микросхемами TPU.
В любом случае, сетка задается в виде формы .
С
осколок
Логическое разделение обучающего набора данных или модели . Как правило, некий процесс создает фрагменты, разделяя примеры или параметры на (обычно) равные по размеру части. Затем каждый фрагмент назначается отдельной машине.
Разделение модели на сегменты называется параллелизмом модели ; разделение данных на сегменты называется параллелизмом данных .
Т
Блок обработки тензоров (TPU)
Специализированная интегральная схема (ASIC), оптимизирующая производительность задач машинного обучения. Эти ASIC используются в виде нескольких микросхем TPU на одном устройстве TPU .
ТПУ
Сокращение от Tensor Processing Unit (блок обработки тензоров).
чип ТПУ
Программируемый ускоритель линейной алгебры с высокоскоростной памятью на кристалле, оптимизированный для задач машинного обучения. На одном устройстве TPU размещено несколько чипов TPU.
Устройство ТПУ
Печатная плата (PCB) с несколькими микросхемами TPU , высокоскоростными сетевыми интерфейсами и системой охлаждения.
Узел TPU
Ресурс TPU в Google Cloud с определенным типом TPU . Узел TPU подключается к вашей сети VPC из соседней сети VPC . Узлы TPU — это ресурсы, определенные в API Cloud TPU .
TPU Pod
Конкретная конфигурация устройств TPU в центре обработки данных Google. Все устройства в модуле TPU соединены друг с другом через выделенную высокоскоростную сеть. Модуль TPU — это самая большая конфигурация устройств TPU , доступная для конкретной версии TPU.
Ресурс TPU
Сущность TPU в Google Cloud, которую вы создаете, управляете или используете. Например, узлы TPU и типы TPU являются ресурсами TPU.
фрагмент ТПУ
Срез TPU — это доля устройств TPU в модуле TPU . Все устройства в срезе TPU соединены друг с другом через выделенную высокоскоростную сеть.
Тип ТПУ
Конфигурация одного или нескольких устройств TPU с определенной версией аппаратного обеспечения TPU. Тип TPU выбирается при создании узла TPU в Google Cloud. Например, тип TPU v2-8 — это одно устройство TPU v2 с 8 ядрами. Тип TPU v3-2048 имеет 256 сетевых устройств TPU v3 и в общей сложности 2048 ядер. Типы TPU — это ресурсы, определенные в API Cloud TPU .
работник ТПУ
Процесс, который выполняется на хост-машине и запускает программы машинного обучения на устройствах TPU .