קל לארגן דפים בעזרת אוספים
אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.
הוגנות מתייחסת לתוצאות שונות שאולי משתמשי הקצה יחוו, שקשורות למאפיינים רגישים כמו גזע, הכנסה, נטייה מינית או מגדר, באמצעות קבלת החלטות אלגוריתמית. לדוגמה, האם אלגוריתם לגיוס עובדים עלול להפלות לטובה או לרעה מועמדים שהשמות שלהם משויכים למגדר או למוצא אתני מסוים?
בסרטון הזה אפשר לקבל מידע נוסף על האופן שבו מערכות למידת מכונה עשויות להיות רגישות להטיות אנושיות:
כדי לראות דוגמה מהעולם האמיתי, אפשר לקרוא על האופן שבו מוצרים כמו חיפוש Google ו-Google Photos שיפרו את הייצוג של גווני העור באמצעות הסולם של Monk לגווני עור.
יש שיטות אמינות לזיהוי הטיות במודלים, למדידתן ולצמצום שלהן. מודול ההוגנות של קורס מקוצר על למידת מכונה מספק מבט מעמיק על הוגנות ועל טכניקות לצמצום הטיה.
[[["התוכן קל להבנה","easyToUnderstand","thumb-up"],["התוכן עזר לי לפתור בעיה","solvedMyProblem","thumb-up"],["סיבה אחרת","otherUp","thumb-up"]],[["חסרים לי מידע או פרטים","missingTheInformationINeed","thumb-down"],["התוכן מורכב מדי או עם יותר מדי שלבים","tooComplicatedTooManySteps","thumb-down"],["התוכן לא עדכני","outOfDate","thumb-down"],["בעיה בתרגום","translationIssue","thumb-down"],["בעיה בדוגמאות/בקוד","samplesCodeIssue","thumb-down"],["סיבה אחרת","otherDown","thumb-down"]],["עדכון אחרון: 2025-07-27 (שעון UTC)."],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]