- בקשת HTTP
- גוף הבקשה
- גוף התגובה
- היקפי הרשאה
- InputContent
- TextInput
- Context
- PolicyConfig
- PolicyType
- ClassifierVersion
- PolicyResult
- ViolationResult
- רוצים לנסות?
לנתח פריט תוכן באמצעות קבוצת המדיניות שצוינה.
בקשת HTTP
POST https://checks.googleapis.com/v1alpha/aisafety:classifyContent
כתובת ה-URL משתמשת בתחביר של gRPC Transcoding.
גוף הבקשה
גוף הבקשה מכיל נתונים עם המבנה הבא:
ייצוג ב-JSON |
---|
{ "input": { object ( |
שדות | |
---|---|
input |
חובה. התוכן שרוצים לסווג. |
context |
אופציונלי. הקשר לגבי הקלט שישמש לעזרה בסיווג. |
policies[] |
חובה. רשימה של כללי מדיניות לסיווג. |
classifier |
אופציונלי. גרסת המסווג שבה רוצים להשתמש. אם לא מציינים גרסה, המערכת משתמשת בגרסה האחרונה. |
גוף התשובה
פרוטו של תגובה ל-RPC של aisafety.classifyContent.
אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:
ייצוג ב-JSON |
---|
{
"policyResults": [
{
object ( |
שדות | |
---|---|
policy |
תוצאות הסיווג לכל מדיניות. |
היקפי הרשאה
נדרש היקף ההרשאות הבא של OAuth:
https://www.googleapis.com/auth/checks
מידע נוסף זמין במאמר סקירה כללית על OAuth 2.0.
InputContent
התוכן שרוצים לסווג.
ייצוג ב-JSON |
---|
{ // Union field |
שדות | |
---|---|
שדה איחוד input . התוכן שרוצים לסווג. הערך input יכול להיות רק אחד מהבאים: |
|
text |
תוכן בפורמט טקסט. |
TextInput
קלט טקסט לסיווג.
ייצוג ב-JSON |
---|
{ "languageCode": string, // Union field |
שדות | |
---|---|
language |
אופציונלי. שפת הטקסט בפורמט ISO 639-1. אם השפה לא תקינה או לא צוינה, המערכת תנסה לזהות אותה. |
שדה איחוד source . המקור של הטקסט שרוצים לסווג. הערך source יכול להיות רק אחד מהבאים: |
|
content |
קטע הטקסט בפועל שצריך לסווג. |
הקשר
הקשר לגבי הקלט שישמש לעזרה בסיווג.
ייצוג ב-JSON |
---|
{ "prompt": string } |
שדות | |
---|---|
prompt |
אופציונלי. ההנחיה שיצרה את התשובה של המודל. |
PolicyConfig
רשימה של כללי מדיניות לסיווג.
ייצוג ב-JSON |
---|
{
"policyType": enum ( |
שדות | |
---|---|
policy |
חובה. סוג המדיניות. |
threshold |
אופציונלי. סף הניקוד שמשמש להחלטה אם התוכן מפר את כללי המדיניות או לא. אם לא מציינים ערך, המערכת תשתמש בערך ברירת המחדל של סף המדיניות, שהוא 0.5. |
PolicyType
המזהה הייחודי של מדיניות הבטיחות.
טיפוסים בני מנייה (enum) | |
---|---|
POLICY_TYPE_UNSPECIFIED |
ברירת מחדל. |
DANGEROUS_CONTENT |
המודל מסייע בגישה למוצרים, לשירותים ולפעילויות מזיקים, מקדם אותם או מאפשר גישה אליהם. |
PII_SOLICITING_RECITING |
המודל חושף מידע אישי ונתונים של אדם מסוים. |
HARASSMENT |
המודל יוצר תוכן זדוני, מאיים, בריוני או פוגעני כלפי אדם אחר. |
SEXUALLY_EXPLICIT |
המודל יוצר תוכן בעל אופי מיני בוטה. |
HATE_SPEECH |
המודל מקדם אלימות, שנאה, אפליה על בסיס גזע, דת וכו'. |
MEDICAL_INFO |
המודל מספק ייעוץ או הנחיות בתחום הבריאות, ובכך תורם לגרימת נזק. |
VIOLENCE_AND_GORE |
המודל יוצר תוכן שמכיל תיאורים מציאותיים ומיותרים של אלימות או דם. |
OBSCENITY_AND_PROFANITY |
ClassifierVersion
גרסת המסווג שבה רוצים להשתמש.
טיפוסים בני מנייה (enum) | |
---|---|
CLASSIFIER_VERSION_UNSPECIFIED |
גרסה לא צוינה. |
STABLE |
גרסה יציבה. |
LATEST |
הגרסה האחרונה. |
PolicyResult
התוצאה של מדיניות אחת בהשוואה לקלט התואם.
ייצוג ב-JSON |
---|
{ "policyType": enum ( |
שדות | |
---|---|
policy |
סוג המדיניות. |
score |
הציון הסופי של תוצאות המדיניות הזו. |
violation |
התוצאה של הסיווג לפי המדיניות. |
ViolationResult
התוצאה של הסיווג לפי המדיניות.
טיפוסים בני מנייה (enum) | |
---|---|
VIOLATION_RESULT_UNSPECIFIED |
תוצאה לא מזוהה. |
VIOLATIVE |
הציון הסופי גדול או שווה לסף הציון של הקלט. |
NON_VIOLATIVE |
הציון הסופי קטן מסף הציון של הקלט. |
CLASSIFICATION_ERROR |
אירעה שגיאה ולא ניתן לקבוע את תוצאת ההפרה. |