Bảng thuật ngữ về công nghệ máy học: Google Cloud

Trang này chứa các thuật ngữ trong Google Cloud. Đối với tất cả các thuật ngữ, hãy nhấp vào đây.

A

chip tăng tốc

#GoogleCloud

Một danh mục các thành phần phần cứng chuyên dụng được thiết kế để thực hiện các phép tính chính cần thiết cho thuật toán học sâu.

Chip tăng tốc (hay gọi tắt là bộ tăng tốc) có thể làm tăng đáng kể tốc độ và hiệu quả của các thao tác huấn luyện và dự đoán so với CPU đa năng. Các giải pháp này lý tưởng cho việc huấn luyện mạng nơron và các tác vụ tính toán chuyên sâu tương tự.

Ví dụ về chip tăng tốc bao gồm:

  • Bộ xử lý Tensor của Google (TPU) với phần cứng chuyên dụng dành cho công nghệ học sâu.
  • GPU của NVIDIA mặc dù ban đầu được thiết kế để xử lý đồ hoạ, nhưng được thiết kế để cho phép xử lý song song, có thể làm tăng đáng kể tốc độ xử lý.

B

dự đoán theo nhóm

#TensorFlow
#GoogleCloud

Quá trình suy đoán các dự đoán trên nhiều ví dụ chưa gắn nhãn được chia thành các tập hợp con nhỏ hơn ("lô".

Dự đoán theo lô có thể tận dụng các tính năng song song của các bộ tăng tốc. Điều này có nghĩa là nhiều trình tăng tốc có thể cùng lúc dự đoán được nhiều lô mẫu không được gắn nhãn, làm tăng đáng kể dự đoán mỗi giây.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Trình tăng tốc phần cứng chuyên dụng được thiết kế để tăng tốc độ tải công việc máy học trên Google Cloud Platform.

D

thiết bị

#TensorFlow
#GoogleCloud

Thuật ngữ quá tải với hai định nghĩa có thể xảy ra sau đây:

  1. Một danh mục phần cứng có thể chạy phiên TensorFlow, bao gồm cả CPU, GPU và TPU.
  2. Khi huấn luyện một mô hình máy học trên chip tăng tốc (GPU hoặc TPU), bộ phận của hệ thống sẽ thực sự thao tác tensornhúng. Thiết bị chạy trên chip tăng tốc. Ngược lại, máy chủ thường chạy trên CPU.

H

người tổ chức

#TensorFlow
#GoogleCloud

Khi huấn luyện mô hình máy học trên chip tăng tốc (GPU hoặc TPU), phần hệ thống kiểm soát cả hai điều sau:

  • Luồng tổng thể của mã.
  • Việc trích xuất và biến đổi quy trình nhập.

Máy chủ lưu trữ thường chạy trên CPU, không phải trên chip tăng tốc; thiết bị điều khiển tensor trên các chip tăng tốc.

T2

lưới

#TensorFlow
#GoogleCloud

Trong lập trình song song ML, một thuật ngữ liên quan đến việc chỉ định dữ liệu và mô hình cho các khối TPU, đồng thời xác định cách phân đoạn hoặc nhân bản các giá trị này.

Lưới là một thuật ngữ quá tải, có thể có một trong những nghĩa sau:

  • Bố cục thực tế của chip TPU.
  • Một cấu trúc logic trừu tượng để ánh xạ dữ liệu và mô hình tới các khối TPU.

Trong cả hai trường hợp, một lưới được chỉ định ở dạng shape (hình dạng).

CN

phân đoạn

#TensorFlow
#GoogleCloud

Một phép chia logic cho tập huấn luyện hoặc mô hình. Thông thường, một số quy trình tạo ra các phân đoạn bằng cách chia example hoặc parameters thành các phân đoạn có kích thước bằng nhau (thường). Sau đó, mỗi phân đoạn được gán cho một máy khác nhau.

Phân đoạn mô hình được gọi là song song dữ liệu; dữ liệu phân đoạn được gọi là song song dữ liệu.

T

Bộ xử lý Tensor (TPU)

#TensorFlow
#GoogleCloud

Mạch tích hợp dành riêng cho ứng dụng (ASIC) giúp tối ưu hoá hiệu suất của khối lượng công việc máy học. Các ASIC này được triển khai dưới dạng nhiều chip TPU trên thiết bị TPU.

TPU

#TensorFlow
#GoogleCloud

Tên viết tắt của Bộ xử lý cảm biến.

Chip TPU

#TensorFlow
#GoogleCloud

Trình tăng tốc đại số tuyến tính có thể lập trình với bộ nhớ băng thông cao trên chip được tối ưu hoá cho khối lượng công việc máy học. Nhiều chip TPU được triển khai trên thiết bị TPU.

Thiết bị TPU

#TensorFlow
#GoogleCloud

Bảng mạch in (PCB) có nhiều chip TPU, giao diện mạng băng thông cao và phần cứng làm mát hệ thống.

TPU chính

#TensorFlow
#GoogleCloud

Quy trình điều phối tập trung chạy trên một máy chủ lưu trữ sẽ gửi và nhận dữ liệu, kết quả, chương trình, hiệu suất cũng như thông tin về tình trạng hệ thống cho nhân viên TPU. TPU chính cũng quản lý việc thiết lập và tắt thiết bị TPU.

Nút TPU

#TensorFlow
#GoogleCloud

Tài nguyên TPU trên Google Cloud Platform với một loại TPU cụ thể. Nút TPU kết nối với Mạng VPC của bạn từ một mạng VPC ngang hàng. Nút TPU là một tài nguyên được xác định trong API Cloud TPU.

Gói TPU

#TensorFlow
#GoogleCloud

Một cấu hình cụ thể của thiết bị TPU trong trung tâm dữ liệu của Google. Tất cả các thiết bị trong nhóm TPU được kết nối với nhau qua một mạng tốc độ cao chuyên dụng. Pod TPU là cấu hình lớn nhất của thiết bị TPU có sẵn cho một phiên bản TPU cụ thể.

Tài nguyên TPU

#TensorFlow
#GoogleCloud

Thực thể TPU trên Google Cloud Platform mà bạn tạo, quản lý hoặc sử dụng. Ví dụ: nút TPUloại TPU là tài nguyên TPU.

Lát cắt TPU

#TensorFlow
#GoogleCloud

Một lát TPU là một phần nhỏ của thiết bị TPU trong Pod TPU. Tất cả thiết bị trong lát cắt TPU được kết nối với nhau qua mạng tốc độ cao chuyên dụng.

Loại TPU

#TensorFlow
#GoogleCloud

Cấu hình của một hoặc nhiều thiết bị TPU với một phiên bản phần cứng TPU cụ thể. Bạn chọn loại TPU khi tạo nút TPU trên Google Cloud Platform. Ví dụ: loại TPU v2-8 là một thiết bị TPU v2 có 8 lõi. Một loại TPU v3-2048 có 256 thiết bị TPU nối mạng v3 và tổng số 2048 lõi. Các loại TPU là tài nguyên được xác định trong API Cloud TPU.

Nhân viên TPU

#TensorFlow
#GoogleCloud

Quy trình chạy trên máy chủ và thực thi các chương trình máy học trên thiết bị TPU.