Method: aisafety.classifyContent

指定されたポリシーのセットを使用してコンテンツを分析します。

HTTP リクエスト

POST https://checks.googleapis.com/v1alpha/aisafety:classifyContent

この URL は gRPC Transcoding 構文を使用します。

リクエストの本文

リクエストの本文には、次の構造のデータが含まれます。

JSON 表現
{
  "input": {
    object (InputContent)
  },
  "context": {
    object (Context)
  },
  "policies": [
    {
      object (PolicyConfig)
    }
  ],
  "classifierVersion": enum (ClassifierVersion)
}
フィールド
input

object (InputContent)

必須。分類するコンテンツ。

context

object (Context)

省略可。分類に役立つ入力に関するコンテキスト。

policies[]

object (PolicyConfig)

必須。分類に使用するポリシーのリスト。

classifierVersion

enum (ClassifierVersion)

省略可。使用する分類子のバージョン。指定しない場合は、最新バージョンが使用されます。

レスポンスの本文

aisafety.classifyContent RPC のレスポンス proto。

成功した場合、レスポンスの本文には次の構造のデータが含まれます。

JSON 表現
{
  "policyResults": [
    {
      object (PolicyResult)
    }
  ]
}
フィールド
policyResults[]

object (PolicyResult)

各ポリシーの分類結果。

認可スコープ

次の OAuth スコープが必要です。

  • https://www.googleapis.com/auth/checks

詳細については、OAuth 2.0 の概要をご覧ください。

InputContent

分類するコンテンツ。

JSON 表現
{

  // Union field input can be only one of the following:
  "textInput": {
    object (TextInput)
  }
  // End of list of possible types for union field input.
}
フィールド
共用体フィールド input。分類するコンテンツ。input は次のいずれかになります。
textInput

object (TextInput)

テキスト形式のコンテンツ。

TextInput

分類するテキスト入力。

JSON 表現
{
  "languageCode": string,

  // Union field source can be only one of the following:
  "content": string
  // End of list of possible types for union field source.
}
フィールド
languageCode

string

省略可。テキストの言語(ISO 639-1 形式)。言語が無効であるか指定されていない場合、システムは言語の検出を試みます。

共用体フィールド source。分類するテキストのソース。source は次のいずれかになります。
content

string

分類される実際のテキスト。

コンテキスト

分類に役立つ入力に関するコンテキスト。

JSON 表現
{
  "prompt": string
}
フィールド
prompt

string

省略可。モデルのレスポンスを生成したプロンプト。

PolicyConfig

分類に使用するポリシーのリスト。

JSON 表現
{
  "policyType": enum (PolicyType),
  "threshold": number
}
フィールド
policyType

enum (PolicyType)

必須。ポリシーのタイプ。

threshold

number

省略可。コンテンツが違反しているか違反していないかを判断する際に使用するスコアのしきい値。指定しない場合、ポリシーのデフォルトのしきい値 0.5 が使用されます。

PolicyType

安全ポリシーの一意の識別子。

列挙型
POLICY_TYPE_UNSPECIFIED デフォルトです。
DANGEROUS_CONTENT 有害な商品、サービス、アクティビティへのアクセスを促進または可能にする。
PII_SOLICITING_RECITING モデルが個人の個人情報とデータを公開している。
HARASSMENT モデルが、他人に対する悪口、威圧表現、いじめ、虐待的な内容を含むコンテンツを生成する。
SEXUALLY_EXPLICIT モデルが生成するコンテンツが性的に露骨である。
HATE_SPEECH モデルが人種、宗教などを理由とする暴力、憎悪、差別を助長している。
MEDICAL_INFO モデルが健康に関するアドバイスやガイダンスを提供することで、危害を助長している。
VIOLENCE_AND_GORE モデルが、暴力や流血の不当で現実的な描写を含むコンテンツを生成する。
OBSCENITY_AND_PROFANITY

ClassifierVersion

使用する分類子のバージョン。

列挙型
CLASSIFIER_VERSION_UNSPECIFIED バージョンが指定されていません。
STABLE 安定版。
LATEST 最新バージョン。

PolicyResult

対応する入力に対する 1 つのポリシーの結果。

JSON 表現
{
  "policyType": enum (PolicyType),
  "score": number,
  "violationResult": enum (ViolationResult)
}
フィールド
policyType

enum (PolicyType)

ポリシーのタイプ。

score

number

このポリシーの結果の最終スコア。

violationResult

enum (ViolationResult)

ポリシーの分類結果。

ViolationResult

ポリシーの分類結果。

列挙型
VIOLATION_RESULT_UNSPECIFIED 結果が指定されていません。
VIOLATIVE 最終スコアが入力スコアのしきい値以上である。
NON_VIOLATIVE 最終スコアが入力スコアのしきい値を下回っている。
CLASSIFICATION_ERROR エラーが発生し、違反の結果を特定できませんでした。