Method: aisafety.classifyContent

제공된 정책 집합으로 콘텐츠를 분석합니다.

HTTP 요청

POST https://checks.googleapis.com/v1alpha/aisafety:classifyContent

URL은 gRPC 트랜스코딩 구문을 사용합니다.

요청 본문

요청 본문에는 다음과 같은 구조의 데이터가 포함됩니다.

JSON 표현
{
  "input": {
    object (InputContent)
  },
  "context": {
    object (Context)
  },
  "policies": [
    {
      object (PolicyConfig)
    }
  ],
  "classifierVersion": enum (ClassifierVersion)
}
필드
input

object (InputContent)

필수입니다. 분류할 콘텐츠입니다.

context

object (Context)

선택사항입니다. 분류에 도움이 되는 입력에 관한 컨텍스트입니다.

policies[]

object (PolicyConfig)

필수입니다. 분류할 정책 목록입니다.

classifierVersion

enum (ClassifierVersion)

선택사항입니다. 사용할 분류기의 버전입니다. 지정하지 않으면 최신 버전이 사용됩니다.

응답 본문

aisafety.classifyContent RPC의 응답 프로토입니다.

성공한 경우 응답 본문은 다음과 같은 구조의 데이터를 포함합니다.

JSON 표현
{
  "policyResults": [
    {
      object (PolicyResult)
    }
  ]
}
필드
policyResults[]

object (PolicyResult)

각 정책의 분류 결과입니다.

승인 범위

다음 OAuth 범위가 필요합니다.

  • https://www.googleapis.com/auth/checks

자세한 내용은 OAuth 2.0 개요를 참고하세요.

InputContent

분류할 콘텐츠입니다.

JSON 표현
{

  // Union field input can be only one of the following:
  "textInput": {
    object (TextInput)
  }
  // End of list of possible types for union field input.
}
필드
통합 필드 input. 분류할 콘텐츠입니다. input은 다음 중 하나여야 합니다.
textInput

object (TextInput)

텍스트 형식의 콘텐츠입니다.

TextInput

분류할 텍스트 입력입니다.

JSON 표현
{
  "languageCode": string,

  // Union field source can be only one of the following:
  "content": string
  // End of list of possible types for union field source.
}
필드
languageCode

string

선택사항입니다. 텍스트의 언어(ISO 639-1 형식)입니다. 언어가 잘못되었거나 지정되지 않은 경우 시스템에서 언어를 감지하려고 시도합니다.

통합 필드 source. 분류할 텍스트의 소스입니다. source은 다음 중 하나여야 합니다.
content

string

분류할 실제 텍스트입니다.

컨텍스트

분류에 도움이 되는 입력에 관한 컨텍스트입니다.

JSON 표현
{
  "prompt": string
}
필드
prompt

string

선택사항입니다. 모델 응답을 생성한 프롬프트입니다.

PolicyConfig

분류할 정책 목록입니다.

JSON 표현
{
  "policyType": enum (PolicyType),
  "threshold": number
}
필드
policyType

enum (PolicyType)

필수입니다. 정책 유형입니다.

threshold

number

선택사항입니다. 콘텐츠가 정책을 위반하는지 여부를 결정할 때 사용할 점수 기준점입니다. 지정하지 않으면 정책의 기본 기준점인 0.5가 사용됩니다.

PolicyType

안전 정책의 고유 식별자입니다.

열거형
POLICY_TYPE_UNSPECIFIED 기본값입니다.
DANGEROUS_CONTENT 모델이 유해한 상품, 서비스, 활동에 대한 액세스를 지원, 홍보 또는 지원합니다.
PII_SOLICITING_RECITING 모델이 개인 정보와 데이터를 공개합니다.
HARASSMENT 모델이 다른 개인을 대상으로 악의적, 협박, 괴롭힘 또는 학대성 콘텐츠를 생성합니다.
SEXUALLY_EXPLICIT 모델이 본질적으로 성적인 콘텐츠를 생성합니다.
HATE_SPEECH 모델이 인종, 종교 등을 이유로 폭력, 증오, 차별을 조장합니다.
MEDICAL_INFO 모델이 건강 관련 조언이나 안내를 제공하여 해를 끼칩니다.
VIOLENCE_AND_GORE 모델이 불필요하고 사실적인 폭력 또는 유혈 묘사가 포함된 콘텐츠를 생성합니다.
OBSCENITY_AND_PROFANITY

ClassifierVersion

사용할 분류기의 버전입니다.

열거형
CLASSIFIER_VERSION_UNSPECIFIED 지정되지 않은 버전입니다.
STABLE 안정화 버전입니다.
LATEST 최신 버전

PolicyResult

해당 입력에 대한 하나의 정책 결과입니다.

JSON 표현
{
  "policyType": enum (PolicyType),
  "score": number,
  "violationResult": enum (ViolationResult)
}
필드
policyType

enum (PolicyType)

정책 유형입니다.

score

number

이 정책의 결과에 대한 최종 점수입니다.

violationResult

enum (ViolationResult)

정책의 분류 결과입니다.

ViolationResult

정책의 분류 결과입니다.

열거형
VIOLATION_RESULT_UNSPECIFIED 지정되지 않은 결과입니다.
VIOLATIVE 최종 점수가 입력 점수 기준점보다 크거나 같습니다.
NON_VIOLATIVE 최종 점수가 입력 점수 기준점보다 작습니다.
CLASSIFICATION_ERROR 오류가 발생하여 위반 결과를 확인할 수 없습니다.