アカウンタビリティ
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
説明責任とは、AI システムの影響に対して責任を持つことを意味します。通常、説明責任には透明性、つまりシステムの動作と組織プロセスに関する情報の共有が含まれます。たとえば、モデルとデータセットの作成、トレーニング、評価方法を文書化して共有するなどです。次のサイトでは、説明責任の文書化の 2 つの有用なモードについて説明しています。
説明責任のもう 1 つの側面は解釈可能性です。これは、ML モデルの意思決定を理解し、予測につながる特徴を人間が特定できるようにするものです。さらに、説明可能性とは、モデルの自動化された決定を人間が理解できる方法で説明する能力です。
AI システムに対するユーザーの信頼を構築する方法について詳しくは、人 + AI ガイドブックの説明性と信頼のセクションをご覧ください。実例とベスト プラクティスについては、Google の説明可能性リソースもご覧ください。
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2025-07-27 UTC。
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["必要な情報がない","missingTheInformationINeed","thumb-down"],["複雑すぎる / 手順が多すぎる","tooComplicatedTooManySteps","thumb-down"],["最新ではない","outOfDate","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["サンプル / コードに問題がある","samplesCodeIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2025-07-27 UTC。"],[],[]]