Method: aisafety.classifyContent

使用提供的政策集分析內容。

HTTP 要求

POST https://checks.googleapis.com/v1alpha/aisafety:classifyContent

這個網址使用 gRPC 轉碼語法。

要求主體

要求主體的資料會採用以下結構:

JSON 表示法
{
  "input": {
    object (InputContent)
  },
  "context": {
    object (Context)
  },
  "policies": [
    {
      object (PolicyConfig)
    }
  ],
  "classifierVersion": enum (ClassifierVersion)
}
欄位
input

object (InputContent)

必要欄位。要分類的內容。

context

object (Context)

(選用步驟) 用於輔助分類的輸入內容相關背景資訊。

policies[]

object (PolicyConfig)

必要欄位。用於分類的政策清單。

classifierVersion

enum (ClassifierVersion)

(選用步驟) 要使用的分類器版本。如未指定,系統會使用最新版本。

回應主體

aisafety.classifyContent RPC 的回應 proto。

如果成功,回應主體會含有以下結構的資料:

JSON 表示法
{
  "policyResults": [
    {
      object (PolicyResult)
    }
  ]
}
欄位
policyResults[]

object (PolicyResult)

各項政策的分類結果。

授權範圍

需要下列 OAuth 範圍:

  • https://www.googleapis.com/auth/checks

詳情請參閱 OAuth 2.0 總覽

InputContent

要分類的內容。

JSON 表示法
{

  // Union field input can be only one of the following:
  "textInput": {
    object (TextInput)
  }
  // End of list of possible types for union field input.
}
欄位
聯集欄位 input。要分類的內容。input 只能是下列其中一項:
textInput

object (TextInput)

文字格式的內容。

TextInput

要分類的輸入文字。

JSON 表示法
{
  "languageCode": string,

  // Union field source can be only one of the following:
  "content": string
  // End of list of possible types for union field source.
}
欄位
languageCode

string

(選用步驟) 請按照 ISO 639-1 格式提供文字語言。如果語言無效或未指定,系統會嘗試偵測。

聯集欄位 source。要分類的文字來源。source 只能是下列其中一項:
content

string

要分類的實際文字。

背景資訊

用於輔助分類的輸入內容相關背景資訊。

JSON 表示法
{
  "prompt": string
}
欄位
prompt

string

(選用步驟) 生成模型回覆的提示。

PolicyConfig

用於分類的政策清單。

JSON 表示法
{
  "policyType": enum (PolicyType),
  "threshold": number
}
欄位
policyType

enum (PolicyType)

必要欄位。政策類型。

threshold

number

(選用步驟) 決定內容是否違規時使用的分數門檻。如未指定,系統會使用政策的預設門檻值 0.5。

PolicyType

安全政策的專屬 ID。

列舉
POLICY_TYPE_UNSPECIFIED 預設值。
DANGEROUS_CONTENT 模型助長、宣傳有害商品、服務與活動,或是提供接觸管道。
PII_SOLICITING_RECITING 模型揭露個人的個人資訊和資料。
HARASSMENT 模型生成針對他人的惡意、恐嚇、霸凌或辱罵內容。
SEXUALLY_EXPLICIT 模型生成情色露骨內容。
HATE_SPEECH 模型宣揚暴力、仇恨、歧視 (基於種族、宗教等)。
MEDICAL_INFO 模型提供健康建議或指引,助長有害行為。
VIOLENCE_AND_GORE 模型生成的內容包含無謂的暴力或血腥寫實描述。
OBSCENITY_AND_PROFANITY

ClassifierVersion

要使用的分類器版本。

列舉
CLASSIFIER_VERSION_UNSPECIFIED 未指定版本。
STABLE 穩定版。
LATEST 最新版本。

PolicyResult

針對相應輸入內容的一項政策結果。

JSON 表示法
{
  "policyType": enum (PolicyType),
  "score": number,
  "violationResult": enum (ViolationResult)
}
欄位
policyType

enum (PolicyType)

政策類型。

score

number

這項政策結果的最終分數。

violationResult

enum (ViolationResult)

政策的分類結果。

ViolationResult

政策的分類結果。

列舉
VIOLATION_RESULT_UNSPECIFIED 未指定結果。
VIOLATIVE 最終分數大於或等於輸入的分數門檻。
NON_VIOLATIVE 最終分數低於輸入的分數門檻。
CLASSIFICATION_ERROR 發生錯誤,無法判斷違規結果。