フィードバックを送信
安全性
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
AI の安全性 には、意図的または意図的でない損害を引き起こす可能性のあるアクションを回避し、抑制するために従うべき一連の設計手法と運用手法が含まれます。たとえば、セキュリティ侵害や標的型攻撃が発生した場合でも、AI システムは意図したとおりに動作しますか?AI システムは、変化があっても安全に動作できるほど堅牢ですか?リスクを回避または防止するために、事前にどのように計画していますか?AI システムは負荷がかかっても信頼性が高く安定しているか
そのような安全性確保手法の一つが敵対的テスト です。これは、悪意のある、または不注意による有害な入力が与えられた場合に、アプリケーションがどのように動作するかを確認するために、アプリケーションを「破壊」しようとする手法です。責任ある生成 AI ツールキット では、敵対的テストなどの安全性評価について詳しく説明しています。この分野における Google の取り組みと学んだ教訓については、キーワード ブログ投稿の Google の AI レッドチーム: AI をより安全にする倫理的なハッカー 、または SAIF: Google の AI セキュリティ ガイド をご覧ください。
フィードバックを送信
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンス により使用許諾されます。コードサンプルは Apache 2.0 ライセンス により使用許諾されます。詳しくは、Google Developers サイトのポリシー をご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2025-07-27 UTC。
ご意見をお聞かせください
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["必要な情報がない","missingTheInformationINeed","thumb-down"],["複雑すぎる / 手順が多すぎる","tooComplicatedTooManySteps","thumb-down"],["最新ではない","outOfDate","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["サンプル / コードに問題がある","samplesCodeIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2025-07-27 UTC。"],[],[]]