Bảng thuật ngữ về công nghệ máy học: Google Cloud

Trang này chứa các thuật ngữ trong bảng thuật ngữ của Google Cloud. Để biết tất cả các thuật ngữ trong bảng thuật ngữ, hãy nhấp vào đây.

Đáp

khối tăng tốc

#GoogleCloud

Một danh mục gồm các thành phần phần cứng chuyên biệt được thiết kế để thực hiện các phép tính quan trọng cần thiết cho các thuật toán học sâu.

Khối tăng tốc (hay gọi ngắn gọn là trình tăng tốc) có thể tăng đáng kể tốc độ và hiệu quả của các nhiệm vụ huấn luyện và dự đoán so với CPU đa năng. Các lớp này lý tưởng để huấn luyện mạng nơron và các tác vụ tính toán chuyên sâu tương tự.

Ví dụ về khối trình tăng tốc:

  • Bộ xử lý Tensor của Google (TPU) với phần cứng chuyên dụng dành cho mô hình học sâu.
  • Mặc dù ban đầu được thiết kế để xử lý đồ hoạ, GPU của NVIDIA được thiết kế để cho phép xử lý song song, nhờ đó có thể tăng đáng kể tốc độ xử lý.

B

suy luận theo lô

#TensorFlow
#GoogleCloud

Quá trình suy luận dự đoán trên nhiều ví dụ không được gắn nhãn được chia thành các tập con nhỏ hơn ("lô").

Khả năng dự đoán theo lô có thể tận dụng các tính năng tải song song của khối tăng tốc. Điều này có nghĩa là nhiều trình tăng tốc có thể đồng thời dự đoán trên nhiều ví dụ chưa gắn nhãn, giúp tăng đáng kể số lần dự đoán mỗi giây.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Một trình tăng tốc phần cứng chuyên dụng được thiết kế để tăng tốc khối lượng công việc dùng cho mô hình học máy trên Google Cloud.

D

thiết bị

#TensorFlow
#GoogleCloud

Thuật ngữ nạp chồng có hai định nghĩa sau đây:

  1. Một danh mục phần cứng có thể chạy phiên TensorFlow, bao gồm CPU, GPU và TPU.
  2. Khi huấn luyện một mô hình học máy trên khối tăng tốc (GPU hoặc TPU), phần của hệ thống thực sự thao tác với tensortệp nhúng. Thiết bị chạy trên chip tăng tốc. Ngược lại, máy chủ lưu trữ thường chạy trên CPU.

Số lần bị đánh trúng bóng

người tổ chức

#TensorFlow
#GoogleCloud

Khi huấn luyện một mô hình học máy trên khối tăng tốc (GPU hoặc TPU), phần của hệ thống kiểm soát cả hai nội dung sau:

  • Quy trình chung của mã.
  • Trích xuất và chuyển đổi quy trình đầu vào.

Máy chủ lưu trữ thường chạy trên CPU chứ không chạy trên chip tăng tốc; thiết bị thao tác trên tensor trên chip tăng tốc.

M

lưới

#TensorFlow
#GoogleCloud

Trong lập trình song song bằng công nghệ học máy, một thuật ngữ liên quan đến việc chỉ định dữ liệu và mô hình cho các khối TPU, đồng thời xác định cách các giá trị này sẽ được phân đoạn hoặc sao chép.

Lưới là một thuật ngữ về tình trạng quá tải có thể có nghĩa là một trong các thuật ngữ sau:

  • Bố cục thực của khối TPU.
  • Một cấu trúc logic trừu tượng để ánh xạ dữ liệu và mô hình đến các khối TPU.

Trong cả hai trường hợp, lưới sẽ được chỉ định ở dạng hình dạng.

S

phân đoạn

#TensorFlow
#GoogleCloud

Phân chia logic của bộ huấn luyện hoặc mô hình. Thông thường, một số quy trình sẽ tạo phân đoạn bằng cách chia ví dụ hoặc tham số thành các phần (thường) có kích thước bằng nhau. Sau đó, mỗi phân đoạn được gán cho một máy khác.

Việc phân đoạn một mô hình được gọi là sự song song của mô hình; việc phân đoạn dữ liệu được gọi là sự song song dữ liệu.

T

Bộ xử lý Tensor (TPU)

#TensorFlow
#GoogleCloud

Một mạch tích hợp dành riêng cho ứng dụng (ASIC) giúp tối ưu hoá hiệu suất của các tải công việc học máy. Các ASIC này được triển khai dưới dạng nhiều khối TPU trên thiết bị TPU.

TPU

#TensorFlow
#GoogleCloud

Tên viết tắt của Bộ xử lý cảm biến.

Khối TPU

#TensorFlow
#GoogleCloud

Một trình tăng tốc đại số tuyến tính có thể lập trình với bộ nhớ băng thông cao trên chip được tối ưu hoá cho khối lượng công việc của học máy. Nhiều khối TPU được triển khai trên thiết bị TPU.

Thiết bị TPU

#TensorFlow
#GoogleCloud

Một bảng mạch in (PCB) có nhiều chip TPU, giao diện mạng băng thông cao và phần cứng làm mát hệ thống.

Thỏa thuận dịch vụ chính về TPU

#TensorFlow
#GoogleCloud

Quy trình điều phối trung tâm chạy trên máy chủ lưu trữ gửi và nhận dữ liệu, kết quả, chương trình, hiệu suất và thông tin về tình trạng hệ thống cho nhân viên TPU. Ứng dụng chính TPU cũng quản lý việc thiết lập và tắt các thiết bị TPU.

Nút TPU

#TensorFlow
#GoogleCloud

Một tài nguyên TPU trên Google Cloud có một loại TPU cụ thể. Nút TPU kết nối với Mạng VPC của bạn từ một mạng VPC ngang hàng. Nút TPU là một tài nguyên được xác định trong API Cloud TPU.

Hộp đựng TPU

#TensorFlow
#GoogleCloud

Một cấu hình cụ thể của thiết bị TPU trong một trung tâm dữ liệu của Google. Tất cả thiết bị trong một Nhóm TPU đều được kết nối với nhau qua mạng chuyên dụng tốc độ cao. Nhóm TPU là cấu hình lớn nhất của thiết bị TPU hiện có cho một phiên bản TPU cụ thể.

Tài nguyên TPU

#TensorFlow
#GoogleCloud

Một thực thể TPU trên Google Cloud mà bạn tạo, quản lý hoặc sử dụng. Ví dụ: Nút TPUloại TPU là các tài nguyên TPU.

Lát cắt TPU

#TensorFlow
#GoogleCloud

Lát cắt TPU là một phần nhỏ của thiết bị TPU trong Nhóm TPU. Tất cả các thiết bị trong một lát cắt TPU được kết nối với nhau qua một mạng chuyên dụng tốc độ cao.

Loại TPU

#TensorFlow
#GoogleCloud

Cấu hình của một hoặc nhiều thiết bị TPU có một phiên bản phần cứng TPU cụ thể. Bạn chọn một loại TPU khi tạo nút TPU trên Google Cloud. Ví dụ: loại TPU v2-8 là một thiết bị TPU v2 duy nhất có 8 lõi. Một loại TPU v3-2048 có 256 thiết bị TPU v3 kết nối mạng và tổng cộng 2048 lõi. Các loại TPU là một tài nguyên được xác định trong API Cloud TPU.

Nhân viên TPU

#TensorFlow
#GoogleCloud

Quy trình chạy trên máy chủ lưu trữ và thực thi các chương trình học máy trên thiết bị TPU.