קל לארגן דפים בעזרת אוספים
אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.
אחריותיות היא היכולת לקחת אחריות על ההשפעות של מערכת בינה מלאכותית.
בדרך כלל, אחריות כוללת שקיפות, או שיתוף מידע על התנהגות המערכת ועל התהליך הארגוני. שיתוף המידע יכול לכלול תיעוד של האופן שבו המודלים ומערכי הנתונים נוצרו, הוכשרו והועברו להערכה, ושיתוף המידע הזה. באתרים הבאים מוסבר על שני אופנים חשובים לתיעוד של אחריות:
מימד אחר של אחריות הוא יכולת הפרשנות, שכוללת את ההבנה של ההחלטות של מודל הלמידה העמוקה, שבהן בני אדם יכולים לזהות את המאפיינים שמובילים לחיזוי. בנוסף, יכולת ההסבר היא היכולת להסביר את ההחלטות האוטומטיות של מודל באופן שאנשים יכולים להבין.
[[["התוכן קל להבנה","easyToUnderstand","thumb-up"],["התוכן עזר לי לפתור בעיה","solvedMyProblem","thumb-up"],["סיבה אחרת","otherUp","thumb-up"]],[["חסרים לי מידע או פרטים","missingTheInformationINeed","thumb-down"],["התוכן מורכב מדי או עם יותר מדי שלבים","tooComplicatedTooManySteps","thumb-down"],["התוכן לא עדכני","outOfDate","thumb-down"],["בעיה בתרגום","translationIssue","thumb-down"],["בעיה בדוגמאות/בקוד","samplesCodeIssue","thumb-down"],["סיבה אחרת","otherDown","thumb-down"]],["עדכון אחרון: 2025-02-25 (שעון UTC)."],[[["Accountability in AI involves taking ownership for the effects of a system, often achieved through transparency about the system's development and behavior."],["Transparency can be enhanced using documentation practices like Model Cards and Data Cards, which provide information about models and datasets."],["Interpretability and explainability are crucial aspects of accountability, enabling understanding of model decisions and providing human-understandable explanations for automated actions."],["Fostering user trust in AI systems requires focusing on explainability and transparency, with further resources available in Google's Responsible AI Practices and Explainability Resources."]]],[]]