Equità

L'equità si occupa dei possibili risultati disparati che gli utenti finali potrebbero riscontrare in relazione a caratteristiche sensibili come razza, reddito, orientamento sessuale o genere attraverso il processo decisionale algoritmico. Ad esempio, un algoritmo di assunzione potrebbe avere pregiudizi a favore o contro i candidati con nomi associati a un genere o un'etnia particolari?

Scopri di più su come i sistemi di machine learning potrebbero essere soggetti a pregiudizi umani in questo video:

Per un esempio reale, leggi come prodotti come la Ricerca Google e Google Foto hanno migliorato la diversità della rappresentazione della carnagione grazie alla Monk Skin Tone Scale.

Esistono metodi affidabili per identificare, misurare e mitigare i bias nei modelli. Il modulo Equità di Machine Learning Crash Course fornisce un'analisi approfondita delle tecniche di mitigazione dell'equità e dei bias.

People + AI Research (PAIR) offre esplorazioni interattive dell'AI su Misurazione dell'equità e Bias nascosto per illustrare questi concetti. Per altri termini relativi all'equità dell'ML, consulta Glossario del machine learning: equità | Google for Developers.