Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
L'equità si occupa dei possibili risultati disparati che gli utenti finali potrebbero riscontrare
in relazione a caratteristiche sensibili come razza, reddito, orientamento sessuale
o genere attraverso il processo decisionale algoritmico. Ad esempio, un algoritmo di assunzione potrebbe avere pregiudizi a favore o contro i candidati con nomi associati a un genere o un'etnia particolari?
Scopri di più su come i sistemi di machine learning potrebbero essere soggetti a pregiudizi umani
in questo video:
Per un esempio reale, leggi come prodotti come la Ricerca Google e
Google Foto hanno migliorato la diversità della rappresentazione della carnagione grazie alla
Monk Skin Tone Scale.
Esistono metodi affidabili per identificare, misurare e mitigare i bias nei modelli. Il modulo Equità
di Machine Learning Crash Course
fornisce un'analisi approfondita delle tecniche di mitigazione dell'equità e dei bias.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Mancano le informazioni di cui ho bisogno","missingTheInformationINeed","thumb-down"],["Troppo complicato/troppi passaggi","tooComplicatedTooManySteps","thumb-down"],["Obsoleti","outOfDate","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Problema relativo a esempi/codice","samplesCodeIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-07-27 UTC."],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]