קל לארגן דפים בעזרת אוספים
אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.
כדי להעריך מודל למידת מכונה (ML) בצורה אחראית, צריך לעשות יותר מאשר רק לחשב מדדי אובדן כוללים. לפני שמפעילים מודל בסביבת הייצור, חשוב מאוד לבדוק את נתוני האימון ולהעריך את ההטיות בחיזויים.
במודול הזה נסקור סוגים שונים של הטיות אנושיות שעשויות להתבטא בנתוני האימון. לאחר מכן, הכלי מספק אסטרטגיות לזיהוי ולצמצום שלהן, ולאחר מכן מעריך את ביצועי המודל תוך התמקדות בשוויון.
[[["התוכן קל להבנה","easyToUnderstand","thumb-up"],["התוכן עזר לי לפתור בעיה","solvedMyProblem","thumb-up"],["סיבה אחרת","otherUp","thumb-up"]],[["חסרים לי מידע או פרטים","missingTheInformationINeed","thumb-down"],["התוכן מורכב מדי או עם יותר מדי שלבים","tooComplicatedTooManySteps","thumb-down"],["התוכן לא עדכני","outOfDate","thumb-down"],["בעיה בתרגום","translationIssue","thumb-down"],["בעיה בדוגמאות/בקוד","samplesCodeIssue","thumb-down"],["סיבה אחרת","otherDown","thumb-down"]],["עדכון אחרון: 2025-01-03 (שעון UTC)."],[[["This module focuses on identifying and mitigating human biases that can negatively impact machine learning models."],["You'll learn how to proactively examine data for potential bias before model training and how to evaluate your model's predictions for fairness."],["The module explores various types of human biases that can unintentionally be replicated by machine learning algorithms, emphasizing responsible AI development."],["It builds upon foundational machine learning knowledge, including linear and logistic regression, classification, and handling numerical and categorical data."]]],[]]