Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Equità
L'equità si occupa dei possibili risultati diversi che gli utenti finali potrebbero riscontrare in relazione a caratteristiche sensibili come gruppo etnico, reddito, orientamento sessuale o genere tramite il processo decisionale algoritmico. Ad esempio, un algoritmo di selezione potrebbe avere pregiudizi a favore o contro i candidati con nomi associati a un determinato genere o etnia?
Scopri di più su come i sistemi di machine learning potrebbero essere soggetti ai pregiudizi umani in questo video:
Per un esempio pratico, scopri in che modo prodotti come la Ricerca Google e
Google Foto hanno migliorato la diversità della rappresentazione della carnagione tramite la
scala Monk Skin Tone.
Esistono metodi affidabili per identificare, misurare e mitigare i bias nei modelli. Il modulo Equità
del corso introduttivo al machine learning
offre un'analisi approfondita delle tecniche di mitigazione dell'equità e del bias.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Mancano le informazioni di cui ho bisogno","missingTheInformationINeed","thumb-down"],["Troppo complicato/troppi passaggi","tooComplicatedTooManySteps","thumb-down"],["Obsoleti","outOfDate","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Problema relativo a esempi/codice","samplesCodeIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2024-11-14 UTC."],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]