- HTTP 요청
- 요청 본문
- 응답 본문
- 승인 범위
- InputContent
- TextInput
- Context
- PolicyConfig
- PolicyType
- ClassifierVersion
- PolicyResult
- ViolationResult
- 사용해 보기
제공된 정책 집합으로 콘텐츠를 분석합니다.
HTTP 요청
POST https://checks.googleapis.com/v1alpha/aisafety:classifyContent
URL은 gRPC 트랜스코딩 구문을 사용합니다.
요청 본문
요청 본문에는 다음과 같은 구조의 데이터가 포함됩니다.
JSON 표현 |
---|
{ "input": { object ( |
필드 | |
---|---|
input |
필수입니다. 분류할 콘텐츠입니다. |
context |
선택사항입니다. 분류에 도움이 되는 입력에 관한 컨텍스트입니다. |
policies[] |
필수입니다. 분류할 정책 목록입니다. |
classifier |
선택사항입니다. 사용할 분류기의 버전입니다. 지정하지 않으면 최신 버전이 사용됩니다. |
응답 본문
aisafety.classifyContent RPC의 응답 프로토입니다.
성공한 경우 응답 본문은 다음과 같은 구조의 데이터를 포함합니다.
JSON 표현 |
---|
{
"policyResults": [
{
object ( |
필드 | |
---|---|
policy |
각 정책의 분류 결과입니다. |
승인 범위
다음 OAuth 범위가 필요합니다.
https://www.googleapis.com/auth/checks
자세한 내용은 OAuth 2.0 개요를 참고하세요.
InputContent
분류할 콘텐츠입니다.
JSON 표현 |
---|
{ // Union field |
필드 | |
---|---|
통합 필드 input . 분류할 콘텐츠입니다. input 은 다음 중 하나여야 합니다. |
|
text |
텍스트 형식의 콘텐츠입니다. |
TextInput
분류할 텍스트 입력입니다.
JSON 표현 |
---|
{ "languageCode": string, // Union field |
필드 | |
---|---|
language |
선택사항입니다. 텍스트의 언어(ISO 639-1 형식)입니다. 언어가 잘못되었거나 지정되지 않은 경우 시스템에서 언어를 감지하려고 시도합니다. |
통합 필드 source . 분류할 텍스트의 소스입니다. source 은 다음 중 하나여야 합니다. |
|
content |
분류할 실제 텍스트입니다. |
컨텍스트
분류에 도움이 되는 입력에 관한 컨텍스트입니다.
JSON 표현 |
---|
{ "prompt": string } |
필드 | |
---|---|
prompt |
선택사항입니다. 모델 응답을 생성한 프롬프트입니다. |
PolicyConfig
분류할 정책 목록입니다.
JSON 표현 |
---|
{
"policyType": enum ( |
필드 | |
---|---|
policy |
필수입니다. 정책 유형입니다. |
threshold |
선택사항입니다. 콘텐츠가 정책을 위반하는지 여부를 결정할 때 사용할 점수 기준점입니다. 지정하지 않으면 정책의 기본 기준점인 0.5가 사용됩니다. |
PolicyType
안전 정책의 고유 식별자입니다.
열거형 | |
---|---|
POLICY_TYPE_UNSPECIFIED |
기본값입니다. |
DANGEROUS_CONTENT |
모델이 유해한 상품, 서비스, 활동에 대한 액세스를 지원, 홍보 또는 지원합니다. |
PII_SOLICITING_RECITING |
모델이 개인 정보와 데이터를 공개합니다. |
HARASSMENT |
모델이 다른 개인을 대상으로 악의적, 협박, 괴롭힘 또는 학대성 콘텐츠를 생성합니다. |
SEXUALLY_EXPLICIT |
모델이 본질적으로 성적인 콘텐츠를 생성합니다. |
HATE_SPEECH |
모델이 인종, 종교 등을 이유로 폭력, 증오, 차별을 조장합니다. |
MEDICAL_INFO |
모델이 건강 관련 조언이나 안내를 제공하여 해를 끼칩니다. |
VIOLENCE_AND_GORE |
모델이 불필요하고 사실적인 폭력 또는 유혈 묘사가 포함된 콘텐츠를 생성합니다. |
OBSCENITY_AND_PROFANITY |
ClassifierVersion
사용할 분류기의 버전입니다.
열거형 | |
---|---|
CLASSIFIER_VERSION_UNSPECIFIED |
지정되지 않은 버전입니다. |
STABLE |
안정화 버전입니다. |
LATEST |
최신 버전 |
PolicyResult
해당 입력에 대한 하나의 정책 결과입니다.
JSON 표현 |
---|
{ "policyType": enum ( |
필드 | |
---|---|
policy |
정책 유형입니다. |
score |
이 정책의 결과에 대한 최종 점수입니다. |
violation |
정책의 분류 결과입니다. |
ViolationResult
정책의 분류 결과입니다.
열거형 | |
---|---|
VIOLATION_RESULT_UNSPECIFIED |
지정되지 않은 결과입니다. |
VIOLATIVE |
최종 점수가 입력 점수 기준점보다 크거나 같습니다. |
NON_VIOLATIVE |
최종 점수가 입력 점수 기준점보다 작습니다. |
CLASSIFICATION_ERROR |
오류가 발생하여 위반 결과를 확인할 수 없습니다. |