קל לארגן דפים בעזרת אוספים
אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.
אחריותיות היא היכולת לקחת אחריות על ההשפעות של מערכת בינה מלאכותית.
בדרך כלל, אחריות כוללת שקיפות, או שיתוף מידע על התנהגות המערכת ועל התהליך הארגוני. שיתוף המידע יכול לכלול תיעוד של האופן שבו המודלים ומערכי הנתונים נוצרו, הוכשרו והועברו להערכה, ושיתוף המידע הזה. באתרים הבאים מוסבר על שני אופנים חשובים לתיעוד של אחריות:
מימד אחר של אחריות הוא יכולת הפרשנות, שכוללת את ההבנה של ההחלטות של מודל הלמידה העמוקה, שבהן בני אדם יכולים לזהות את המאפיינים שמובילים לחיזוי. בנוסף, יכולת ההסבר היא היכולת להסביר את ההחלטות האוטומטיות של מודל באופן שאנשים יכולים להבין.
[[["התוכן קל להבנה","easyToUnderstand","thumb-up"],["התוכן עזר לי לפתור בעיה","solvedMyProblem","thumb-up"],["סיבה אחרת","otherUp","thumb-up"]],[["חסרים לי מידע או פרטים","missingTheInformationINeed","thumb-down"],["התוכן מורכב מדי או עם יותר מדי שלבים","tooComplicatedTooManySteps","thumb-down"],["התוכן לא עדכני","outOfDate","thumb-down"],["בעיה בתרגום","translationIssue","thumb-down"],["בעיה בדוגמאות/בקוד","samplesCodeIssue","thumb-down"],["סיבה אחרת","otherDown","thumb-down"]],["עדכון אחרון: 2025-07-27 (שעון UTC)."],[],[]]