Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
Trách nhiệm giải trình có nghĩa là chịu trách nhiệm về các tác động của hệ thống AI.
Tính trách nhiệm thường liên quan đến tính minh bạch hoặc việc chia sẻ thông tin về hành vi của hệ thống và quy trình tổ chức, bao gồm cả việc ghi lại và chia sẻ cách tạo, huấn luyện và đánh giá mô hình và tập dữ liệu. Các trang web sau đây giải thích hai phương thức hữu ích để ghi nhận trách nhiệm:
Một phương diện khác của tính trách nhiệm là khả năng diễn giải, liên quan đến việc hiểu các quyết định của mô hình học máy, trong đó con người có thể xác định các đặc điểm dẫn đến một dự đoán. Hơn nữa, khả năng giải thích là khả năng giải thích các quyết định tự động của mô hình theo cách mà con người có thể hiểu được.
[[["Dễ hiểu","easyToUnderstand","thumb-up"],["Giúp tôi giải quyết được vấn đề","solvedMyProblem","thumb-up"],["Khác","otherUp","thumb-up"]],[["Thiếu thông tin tôi cần","missingTheInformationINeed","thumb-down"],["Quá phức tạp/quá nhiều bước","tooComplicatedTooManySteps","thumb-down"],["Đã lỗi thời","outOfDate","thumb-down"],["Vấn đề về bản dịch","translationIssue","thumb-down"],["Vấn đề về mẫu/mã","samplesCodeIssue","thumb-down"],["Khác","otherDown","thumb-down"]],["Cập nhật lần gần đây nhất: 2025-07-27 UTC."],[],[]]