Zadbaj o dobrą organizację dzięki kolekcji
Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.
Obiektywność odnosi się do możliwych nierównych wyników, jakie mogą uzyskać użytkownicy w związku z wrażliwymi cechami, takimi jak rasa, dochód, orientacja seksualna czy płeć, w procesie podejmowania decyzji przez algorytmy. Na przykład czy algorytm rekrutacyjny może być stronniczy wobec kandydatów o imionach i nazwiskach kojarzonych z określoną płcią lub pochodzeniem etnicznym?
Więcej informacji o tym, jak systemy uczące się mogą być podatne na ludzkie uprzedzenia, znajdziesz w tym filmie:
Aby zobaczyć przykład z życia, przeczytaj, jak usługi takie jak wyszukiwarka Google i Zdjęcia Google zwiększyły różnorodność reprezentacji odcieni skóry dzięki skali odcieni skóry Monka.
Istnieją niezawodne metody identyfikowania, mierzenia i minimalizowania uprzedzeń w modelach. Moduł Obiektywność w szybkim szkoleniu z uczenia maszynowego
zawiera szczegółowe informacje o obiektywności i technikach ograniczania uprzedzeń.
[[["Łatwo zrozumieć","easyToUnderstand","thumb-up"],["Rozwiązało to mój problem","solvedMyProblem","thumb-up"],["Inne","otherUp","thumb-up"]],[["Brak potrzebnych mi informacji","missingTheInformationINeed","thumb-down"],["Zbyt skomplikowane / zbyt wiele czynności do wykonania","tooComplicatedTooManySteps","thumb-down"],["Nieaktualne treści","outOfDate","thumb-down"],["Problem z tłumaczeniem","translationIssue","thumb-down"],["Problem z przykładami/kodem","samplesCodeIssue","thumb-down"],["Inne","otherDown","thumb-down"]],["Ostatnia aktualizacja: 2025-07-27 UTC."],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]