머신러닝 용어집: Google Cloud

이 페이지에는 Google Cloud 용어집 용어가 포함되어 있습니다. 모든 용어집 용어를 보려면 여기를 클릭하세요.

A

가속기 칩

#GoogleCloud

딥 러닝 알고리즘에 필요한 키 계산을 수행하도록 설계된 특수 하드웨어 구성요소의 카테고리입니다.

가속기 칩 (또는 간단히 가속기)은 범용 CPU에 비해 학습 및 추론 작업의 속도와 효율성을 크게 높일 수 있습니다. 신경망과 유사한 컴퓨팅 집약적인 작업을 학습시키는 데 적합합니다.

가속기 칩의 예는 다음과 같습니다.

  • 딥 러닝 전용 하드웨어가 있는 Google의 Tensor Processing Unit (TPU)
  • NVIDIA의 GPU는 처음에 그래픽 처리를 위해 설계되었지만 병렬 처리를 사용하도록 설계되어 처리 속도를 크게 높일 수 있습니다.

일괄 추론

TensorFlow
#GoogleCloud

여러 라벨이 없는 예에 대한 예측을 추론하는 과정을 더 작은 하위 집합 ('배치')으로 나눕니다.

일괄 추론은 가속기 칩의 병렬 처리 기능을 활용할 수 있습니다. 즉, 여러 가속기가 라벨이 없는 예의 여러 배치에 대한 예측을 동시에 추론할 수 있어 초당 추론 수가 크게 증가합니다.

C

Cloud TPU

TensorFlow
#GoogleCloud

Google Cloud Platform에서 머신러닝 워크로드의 속도를 높이도록 설계된 특수 하드웨어 가속기입니다.

D

기기

TensorFlow
#GoogleCloud

다음과 같은 두 가지 가능한 정의가 포함된 오버로드된 용어입니다.

  1. CPU, GPU, TPU 등 TensorFlow 세션을 실행할 수 있는 하드웨어 카테고리입니다.
  2. 액셀러레이터 칩(GPU 또는 TPU)에서 ML 모델을 학습시킬 때 텐서임베딩을 실제로 조작하는 시스템 부분입니다. 기기가 액셀러레이터 칩에서 실행됩니다. 반면에 호스트는 일반적으로 CPU에서 실행됩니다.

H

호스트

TensorFlow
#GoogleCloud

가속기 칩(GPU 또는 TPU)에서 ML 모델을 학습시킬 때 다음 두 가지 모두를 제어하는 시스템 부분입니다.

  • 코드의 전체 흐름
  • 입력 파이프라인의 추출 및 변환

호스트는 일반적으로 가속기 칩이 아닌 CPU에서 실행됩니다. 기기는 가속기 칩의 텐서를 조작합니다.

M

메시

TensorFlow
#GoogleCloud

ML 병렬 프로그래밍에서 TPU 칩에 데이터 및 모델 할당, 이러한 값의 샤딩 또는 복제 방식 정의와 관련된 용어입니다.

메시는 다음 중 하나를 의미할 수 있는 오버로드된 용어입니다.

  • TPU 칩의 실제 레이아웃
  • 데이터 및 모델을 TPU 칩에 매핑하기 위한 추상 논리 구조입니다.

두 경우 모두 메시는 도형으로 지정됩니다.

S

샤드

TensorFlow
#GoogleCloud

학습 세트 또는 모델의 논리적 구분 일반적으로 일부 프로세스는 예시 또는 매개변수를 (일반적으로) 같은 크기의 청크로 나눠서 샤드를 만듭니다. 그런 다음 각 샤드는 다른 머신에 할당됩니다.

모델을 샤딩하는 것을 모델 동시 로드라고 하며 데이터 샤딩을 데이터 동시 로드라고 합니다.

T

Tensor Processing Unit(TPU)

TensorFlow
#GoogleCloud

머신러닝 워크로드의 성능을 최적화하는 ASIC (Application-Specific Integrated Circuit)입니다. 이러한 ASIC는 TPU 기기에 여러 TPU 칩으로 배포됩니다.

TPU

TensorFlow
#GoogleCloud

Tensor Processing Unit(약속 처리 장치)의 약어입니다.

TPU 칩

TensorFlow
#GoogleCloud

머신러닝 워크로드에 최적화된 온칩 고대역폭 메모리를 사용하는 프로그래밍 가능한 선형 대수 액셀러레이터입니다. 여러 TPU 칩이 TPU 기기에 배포됩니다.

TPU 기기

TensorFlow
#GoogleCloud

여러 TPU 칩, 고대역폭 네트워크 인터페이스, 시스템 냉각 하드웨어가 포함된 인쇄 회로 기판 (PCB)입니다.

TPU 마스터

TensorFlow
#GoogleCloud

데이터, 결과, 프로그램, 성능 및 시스템 상태 정보를 TPU 작업자에게 송수신하는 호스트 머신에서 실행되는 중앙 조정 프로세스입니다. TPU 마스터는 TPU 기기의 설정 및 종료도 관리합니다.

TPU 노드

TensorFlow
#GoogleCloud

특정 TPU 유형의 Google Cloud Platform TPU 리소스. TPU 노드는 피어 VPC 네트워크에서 VPC 네트워크에 연결됩니다. TPU 노드는 Cloud TPU API에 정의된 리소스입니다.

TPU Pod

TensorFlow
#GoogleCloud

Google 데이터 센터의 TPU 기기 특정 구성 TPU 포드의 모든 기기는 전용 고속 네트워크를 통해 상호 연결됩니다. TPU 포드는 특정 TPU 버전에 사용할 수 있는 가장 큰 TPU 기기 구성입니다.

TPU 리소스

TensorFlow
#GoogleCloud

사용자가 만들거나 관리하거나 사용하는 Google Cloud Platform의 TPU 항목입니다. 예를 들어 TPU 노드TPU 유형은 TPU 리소스입니다.

TPU 슬라이스

TensorFlow
#GoogleCloud

TPU 슬라이스는 TPU 포드에 있는 TPU 기기의 작은 부분입니다. TPU 슬라이스의 모든 기기는 전용 고속 네트워크를 통해 상호 연결됩니다.

TPU 유형

TensorFlow
#GoogleCloud

특정 TPU 하드웨어 버전이 있는 하나 이상의 TPU 기기 구성 Google Cloud Platform에서 TPU 노드를 만들 때 TPU 유형을 선택합니다. 예를 들어 v2-8 TPU 유형은 코어 8개가 있는 단일 TPU v2 기기입니다. v3-2048 TPU 유형에는 256개의 네트워크 TPU v3 기기가 있으며 총 2,048개의 코어가 있습니다. TPU 유형은 Cloud TPU API에 정의된 리소스입니다.

TPU 작업자

TensorFlow
#GoogleCloud

호스트 머신에서 실행되고 TPU 기기에서 머신러닝 프로그램을 실행하는 프로세스입니다.