קל לארגן דפים בעזרת אוספים
אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.
בטיחות של AI כוללת קבוצה של שיטות תכנון ותפעול שצריך לפעול לפיהן כדי למנוע פעולות שעלולות לגרום נזק, בכוונה או בטעות, ולעצור אותן.
לדוגמה, האם מערכות ה-AI פועלות כמצופה, גם במקרה של פרצת אבטחה או התקפה ממוקדת? האם מערכת ה-AI חזקה מספיק כדי לפעול בבטחה גם כשהיא מופרעת? איך אתם מתכננים מראש כדי למנוע סיכונים או להימנע מהם? האם מערכת ה-AI אמינה ויציבה במצבי לחץ?
[[["התוכן קל להבנה","easyToUnderstand","thumb-up"],["התוכן עזר לי לפתור בעיה","solvedMyProblem","thumb-up"],["סיבה אחרת","otherUp","thumb-up"]],[["חסרים לי מידע או פרטים","missingTheInformationINeed","thumb-down"],["התוכן מורכב מדי או עם יותר מדי שלבים","tooComplicatedTooManySteps","thumb-down"],["התוכן לא עדכני","outOfDate","thumb-down"],["בעיה בתרגום","translationIssue","thumb-down"],["בעיה בדוגמאות/בקוד","samplesCodeIssue","thumb-down"],["סיבה אחרת","otherDown","thumb-down"]],["עדכון אחרון: 2025-02-25 (שעון UTC)."],[[["AI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack."],["Adversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness."],["Google's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks."]]],[]]