Method: aisafety.classifyContent

Analiza una parte del contenido con el conjunto de políticas proporcionado.

Solicitud HTTP

POST https://checks.googleapis.com/v1alpha/aisafety:classifyContent

La URL usa la sintaxis de la transcodificación gRPC.

Cuerpo de la solicitud

El cuerpo de la solicitud contiene datos con la siguiente estructura:

Representación JSON
{
  "input": {
    object (InputContent)
  },
  "context": {
    object (Context)
  },
  "policies": [
    {
      object (PolicyConfig)
    }
  ],
  "classifierVersion": enum (ClassifierVersion)
}
Campos
input

object (InputContent)

Es obligatorio. Es el contenido que se clasificará.

context

object (Context)

Opcional. Es el contexto sobre la entrada que se usará para ayudar en la clasificación.

policies[]

object (PolicyConfig)

Es obligatorio. Es la lista de políticas con las que se realizará la clasificación.

classifierVersion

enum (ClassifierVersion)

Opcional. Es la versión del clasificador que se usará. Si no se especifica, se usará la versión más reciente.

Cuerpo de la respuesta

Es el proto de respuesta para la RPC de aisafety.classifyContent.

Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:

Representación JSON
{
  "policyResults": [
    {
      object (PolicyResult)
    }
  ]
}
Campos
policyResults[]

object (PolicyResult)

Son los resultados de la clasificación para cada política.

Permisos de autorización

Requiere el siguiente alcance de OAuth:

  • https://www.googleapis.com/auth/checks

Para obtener más información, consulta la Descripción general de OAuth 2.0.

InputContent

Es el contenido que se clasificará.

Representación JSON
{

  // Union field input can be only one of the following:
  "textInput": {
    object (TextInput)
  }
  // End of list of possible types for union field input.
}
Campos
Campo de unión input. Es el contenido que se clasificará. Las direcciones (input) solo pueden ser una de las siguientes opciones:
textInput

object (TextInput)

Es el contenido en formato de texto.

TextInput

Es la entrada de texto que se clasificará.

Representación JSON
{
  "languageCode": string,

  // Union field source can be only one of the following:
  "content": string
  // End of list of possible types for union field source.
}
Campos
languageCode

string

Opcional. Idioma del texto en formato ISO 639-1. Si el idioma no es válido o no se especifica, el sistema intentará detectarlo.

Campo de unión source. Es la fuente del texto que se clasificará. Las direcciones (source) solo pueden ser una de las siguientes opciones:
content

string

Es el fragmento de texto real que se clasificará.

Contexto

Es el contexto sobre la entrada que se usará para ayudar en la clasificación.

Representación JSON
{
  "prompt": string
}
Campos
prompt

string

Opcional. Es la instrucción que generó la respuesta del modelo.

PolicyConfig

Es la lista de políticas con las que se realizará la clasificación.

Representación JSON
{
  "policyType": enum (PolicyType),
  "threshold": number
}
Campos
policyType

enum (PolicyType)

Es obligatorio. Es el tipo de política.

threshold

number

Opcional. Es el umbral de puntuación que se usa para decidir si el contenido incumple las políticas o no. Si no se especifica, se usará el umbral predeterminado de 0.5 para la política.

PolicyType

Es el identificador único de una política de seguridad.

Enumeraciones
POLICY_TYPE_UNSPECIFIED Predeterminado.
DANGEROUS_CONTENT El modelo facilita, promueve o habilita el acceso a bienes, servicios y actividades perjudiciales.
PII_SOLICITING_RECITING El modelo revela la información y los datos personales de un individuo.
HARASSMENT El modelo genera contenido malicioso, intimidante, de bullying o abusivo hacia otra persona.
SEXUALLY_EXPLICIT El modelo genera contenido de naturaleza sexual explícita.
HATE_SPEECH El modelo promueve la violencia, el odio y la discriminación en función de la raza, la religión, etcétera.
MEDICAL_INFO El modelo facilita el daño al proporcionar asesoramiento o guía sobre la salud.
VIOLENCE_AND_GORE El modelo genera contenido que incluye descripciones realistas y gratuitas de violencia o gore.
OBSCENITY_AND_PROFANITY

ClassifierVersion

Es la versión del clasificador que se usará.

Enumeraciones
CLASSIFIER_VERSION_UNSPECIFIED Versión no especificada.
STABLE Versión estable.
LATEST Es la versión más reciente.

PolicyResult

Es el resultado de una política en relación con la entrada correspondiente.

Representación JSON
{
  "policyType": enum (PolicyType),
  "score": number,
  "violationResult": enum (ViolationResult)
}
Campos
policyType

enum (PolicyType)

Es el tipo de política.

score

number

Es la puntuación final de los resultados de esta política.

violationResult

enum (ViolationResult)

Es el resultado de la clasificación de la política.

ViolationResult

Es el resultado de la clasificación de la política.

Enumeraciones
VIOLATION_RESULT_UNSPECIFIED Resultado no especificado.
VIOLATIVE La puntuación final es mayor o igual que el umbral de puntuación de entrada.
NON_VIOLATIVE La puntuación final es menor que el umbral de puntuación de entrada.
CLASSIFICATION_ERROR Se produjo un error y no se pudo determinar el resultado del incumplimiento.