Glossario del machine learning: equità

Mantieni tutto organizzato con le raccolte Salva e classifica i contenuti in base alle tue preferenze.

Questa pagina contiene termini relativi al glossario di equità. Per tutti i termini del glossario, fai clic qui.

A

attributo

#fairness

Sinonimo di feature.

Nella correttezza del machine learning, spesso gli attributi si riferiscono alle caratteristiche relative a singoli individui.

bias di automazione

#fairness

Quando un responsabile delle decisioni umano preferisce i consigli basati su un sistema decisionale automatizzato rispetto alle informazioni fatte senza l'automazione, anche quando si tratta di errori.

B

bias (etica/equità)

#fairness
#fundamentals

1. Eventuali stereotipi, pregiudizi o favoritismi nei confronti di alcuni soggetti, persone o gruppi rispetto ad altri. Questi bias possono influire sulla raccolta e sull'interpretazione dei dati, sulla progettazione di un sistema e sul modo in cui gli utenti interagiscono con un sistema. I tipi di bias comprendono:

2. Errore sistematico introdotto da una procedura di campionamento o di reporting. I tipi di bias comprendono:

Da non confondere con il termine di bias nei modelli di machine learning o di pregiudizio di previsione.

C

bias di conferma

#fairness

La tendenza a cercare, interpretare, favorire e richiamare le informazioni in un modo che conferma le convinzioni o le ipotesi preesistenti di un altro. Gli sviluppatori di machine learning potrebbero inavvertitamente raccogliere o etichettare dati in modi che influenzano un risultato a supporto delle loro confessioni esistenti. Il bias di conferma è un tipo di bias implicito.

Il bias dell'esperimento è una forma di bias di conferma in cui uno sperimentatore continua ad addestrare i modelli fino a quando non viene confermata un'ipotesi preesistente.

equità controfattuale

#fairness
Una metrica di correttezza che controlla se un classificatore genera lo stesso risultato per un individuo come per un altro individuo identico al primo, tranne che per uno o più attributi sensibili. La valutazione di un classificatore per garantire l'equità controfattuaria è uno dei metodi per far emergere potenziali fonti di bias in un modello.

Consulta "when Worlds Collide: Integration Different Counterfactual Assumptions in Fairness" per una discussione più dettagliata dell'equità controfattuale.

bias di copertura

#fairness

Consulta la sezione Bias di selezione.

D

parità demografica

#fairness

Una metrica di equità che viene soddisfatta se i risultati della classificazione di un modello non dipendono da un determinato attributo sensibile.

Ad esempio, se sia i lilliputiani sia i Brobdingnagiani si applicano all'Università di Glubbdubdrib, viene raggiunta la parità demografica se la percentuale di lilliputi ammessi è la stessa di quella dei brobdingnagi, indipendentemente dal fatto che un gruppo sia in media più qualificato dell'altro.

Contrasto con le probabilità di parità e con la uguaglianza di opportunità, che consentono la classificazione complessiva dei dati in modo da dipendere dagli attributi sensibili, ma non consentono che determinati risultati di classificazione basati su dati empirici reali siano basati su attributi sensibili. Consulta la sezione "attacco di discriminazione con machine learning più intelligente" per una visualizzazione che esplora i compromessi quando si ottimizza la parità demografica.

impatto diverso

#fairness

Prendiamo decisioni in modo sproporzionato su persone che influiscono su diversi sottogruppi della popolazione. In genere si riferisce a situazioni in cui un processo decisionale algoritmico danneggia o fornisce vantaggi ad alcuni sottogruppi più di altri.

Ad esempio, supponiamo che un algoritmo che determini l'idoneità di un proprietario di Lilliputian per un mutuo per la casa in miniatura ha maggiori probabilità di classificarlo come "non idoneo" se il suo indirizzo postale contiene un determinato codice postale. Se è più probabile che gli indirizzi di questo tipo postale vengano inviati con questo codice postale rispetto a Lilliputiani di Little-Endian, questo algoritmo può determinare un impatto diverso.

Contrasto con il trattamento dispensa, che si concentra sulle disparità che si traducono quando le caratteristiche dei sottogruppi sono input espliciti in un processo decisionale algoritmico.

trattamento variegato

#fairness

Fattorizzazione dei soggetti' attributi sensibili in un processo decisionale algoritmico in modo che i diversi sottogruppi di persone siano trattati in modo diverso.

Ad esempio, prendi in considerazione un algoritmo che determina l'idoneità di Lilliputians a un mutuo per la casa in miniatura in base ai dati forniti nella richiesta di mutuo. Se l'algoritmo utilizza l'affiliazione di un Lilliputian come Big-Endian o Little Endian come input, applica un trattamento disomogeneo a questa dimensione.

Contrasto con l'impatto disprezzativo, che si concentra sulle disparità negli impatti sociali delle decisioni algoritmiche sui sottogruppi, indipendentemente dal fatto che questi sottogruppi vengano inseriti nel modello.

E

uguaglianza di opportunità

#fairness
Una metrica di equità che controlla se, per un'etichetta preferita (che conferisce un vantaggio o un vantaggio a una persona) e per un determinato attributo, un classificatore prevede che l'etichetta preferita sia altrettanto valida per tutti i valori di quell'attributo. In altre parole, l'uguaglianza di opportunità misura se le persone che dovrebbero essere idonee per un'opportunità hanno le stesse probabilità di farlo indipendentemente dall'iscrizione al gruppo.

Ad esempio, supponiamo che l'Università Glubbdubdrib ammetta sia Lilliputians che Brobdingnagians a un rigoroso programma di matematica. Le scuole secondarie di Lilliputiani offrono un vasto programma di lezioni di matematica e la stragrande maggioranza degli studenti è qualificata per il programma universitario. Le scuole secondarie di Brobdingnagians non offrono alcuna lezione di matematica e, di conseguenza, sono molto meno qualificati gli studenti. L'uguaglianza di opportunità è soddisfatta per l'etichetta preferita "ammessi" con rispetto alla nazionalità (Lilliputiano o Brobdingnagian) se è probabile che gli studenti qualificati siano ugualmente ammessi indipendentemente dal fatto che siano o meno un Lilliputiano o un Brobdingnagiano.

Ad esempio, supponiamo che 100 Lilliputiani e 100 Brobdingnagiani si applichino alla Glubbdubdrib University e le decisioni relative alle ammissioni vengono prese come segue:

Tabella 1. Candidati lilliputani (90% qualificato)

  Qualificato Non qualificato
Ammesso 45 3
Rifiutato 45 7
Totale 90 10
Percentuale di studenti qualificati ammessi: 45/90 = 50%
Percentuale di studenti non qualificati rifiutati: 7/10 = 70%
Percentuale totale di studenti lilliputani ammessi: (45+3)/100 = 48%

 

Tabella 2. Candidati brobdingnagiani (10% idoneo):

  Qualificato Non qualificato
Ammesso 5 9
Rifiutato 5 81
Totale 10 90
Percentuale di studenti qualificati ammessi: 5/10 = 50%
Percentuale di studenti non qualificati rifiutati: 81/90 = 90%
Percentuale totale di studenti Brobdingnagiani ammessi: (5+9)/100 = 14%

Gli esempi precedenti soddisfano l'uguaglianza di opportunità per l'accettazione di studenti qualificati, perché entrambi i Lilliputiani e i Brobdingnagiani hanno entrambi la probabilità del 50% di essere ammessi.

Per una discussione più dettagliata sull'uguaglianza di opportunità, consulta la pagina "Uguaglianza di opportunità nell'apprendimento supervisionato". Vedi anche "Attacco discriminazione con un machine learning più intelligente" per una visualizzazione esplorare i compromessi quando si ottimizza per la parità di opportunità.

probabilità uguali

#fairness
Una metrica di correttezza che controlla se, per una determinata etichetta e un determinato attributo, un classificatore prevede che l'etichetta sia altrettanto buona per tutti i valori di tale attributo.

Ad esempio, supponiamo che l'Università di Glubbdubdrib ammetta sia Lilliputiani che Bodingdingnagias a un rigoroso programma di matematica. I Lilliputians' le scuole secondarie offrono un vasto programma di lezioni di matematica e la stragrande maggioranza degli studenti è qualificata per il programma universitario. Le scuole secondarie di Brobdingnagians non offrono alcuna lezione di matematica e, di conseguenza, molti dei loro studenti sono più qualificati. Le probabilità di parità sono soddisfatte, a prescindere dal fatto che un candidato sia un Lilliputiano o un Brobdingnagiano, se ha ottenuto la qualifica avrà le stesse probabilità di essere ammesso al programma e, se non è idoneo, avrà lo stesso probabilità di essere rifiutato.

Diciamo che 100 Lilliputiani e 100 Brobdingnagiani si applicano alla Glubbdubdrib University e le decisioni di ammissione vengono prese come segue:

Tabella 3. Candidati lilliputani (90% qualificato)

  Qualificato Non qualificato
Ammesso 45 2
Rifiutato 45 8
Totale 90 10
Percentuale di studenti qualificati ammessi: 45/90 = 50%
Percentuale di studenti non qualificati rifiutati: 8/10 = 80%
Percentuale totale di studenti lilliputiani ammessi: (45+2)/100 = 47%

 

Tabella 4. Candidati brobdingnagiani (10% idoneo):

  Qualificato Non qualificato
Ammesso 5 18
Rifiutato 5 72
Totale 10 90
Percentuale di studenti qualificati ammessi: 5/10 = 50%
Percentuale di studenti non qualificati rifiutati: 72/90 = 80%
Percentuale totale di studenti Brobdingnagiani ammessi: (5+18)/100 = 23%

Le probabilità di parità sono soddisfatte perché entrambi gli studenti idonei di Lilliputian e Brobdingnagian hanno una probabilità del 50% di essere ammessi, mentre il Lilliputian e il Brobdingnagian hanno una probabilità dell'80% di essere rifiutati.

Le probabilità di parità sono formalmente definite in "Equità di opportunità nell'apprendimento supervisionato" come segue: "previsione Ŷ soddisfa le probabilità eguagliate rispetto all'attributo protetto A e al risultato Y se Ŷ e A sono indipendenti, condizionali su Y."

bias dell'esperimento

#fairness

Consulta la sezione Bias di conferma.

F

vincolo di equità

#fairness
Applicare un vincolo a un algoritmo per garantire che una o più definizioni di equità siano soddisfatte. Ecco alcuni esempi di vincoli di equità:

metrica di equità

#fairness

Una definizione matematica di "equità" che è misurabile. Alcune metriche di equità comunemente utilizzate includono:

Molte metriche di equità si escludono a vicenda; consulta incompatibilità delle metriche di equità.

G

bias attribuzione gruppo

#fairness

Supponendo che ciò che è vero per una persona si verifichi per tutti i membri del gruppo. Gli effetti del bias di attribuzione del gruppo possono essere esacerbati se viene utilizzato un campionamento di convenienza per la raccolta dei dati. In un campione non rappresentativo è possibile effettuare attribuzioni che non riflettono la realtà.

Vedi anche Bias di omogeneità fuori gruppo e Bias di gruppo.

I

bias implicito

#fairness

Creare automaticamente un'associazione o una supposizione basata sui propri modelli mentali e sui propri ricordi. I bias impliciti possono influire sui seguenti aspetti:

  • Modalità di raccolta e classificazione dei dati.
  • Come vengono progettati e sviluppati i sistemi di machine learning.

Ad esempio, quando crei un classificatore per identificare le foto di matrimonio, un ingegnere può utilizzare la presenza di un abito bianco in una foto come funzionalità. Tuttavia, gli abiti bianchi erano consueti solo in certi periodi e in determinate culture.

Vedi anche il Bias di conferma.

incompatibilità delle metriche di equità

#fairness

L'idea che alcune nozioni di equità non siano reciprocamente incompatibili e non possano essere soddisfatte contemporaneamente. Di conseguenza, non esiste una metrica universale per quantificare l'equità che possa essere applicata a tutti i problemi di ML.

Per quanto questo possa sembrare scoraggiante, l'incompatibilità delle metriche di equità non implica che gli sforzi di equità siano infruttuosi. Al contrario, suggerisce che l'equità deve essere definita contestualmente per un dato problema di machine learning, con l'obiettivo di prevenire danni specifici per i casi d'uso.

Consulta "Sulle (im)possibilità di equità" per una discussione più dettagliata su questo argomento.

equità individuale

#fairness

Una metrica di equità che verifica se singoli individui simili sono classificati in modo analogo. Ad esempio, la Brobdingnagian Academy potrebbe voler soddisfare l'equità individuale assicurando che due studenti con voti identici e punteggi di test standardizzati abbiano altrettanto probabilità di ottenere l'ammissione.

Tieni presente che l'equità individuale si basa interamente sul modo in cui definisci la "similianza" (in questo caso, i voti e i punteggi dei test) e puoi correre il rischio di introdurre nuovi problemi di equità se nella tua metrica di similituzione mancano informazioni importanti (come il rigore del programma di uno studente).

Consulta "Fairness through Awareness" per una discussione più dettagliata sull'equità individuale.

bias nel gruppo

#fairness

Mostrare la particolarità al proprio gruppo o alle proprie caratteristiche. Se i tester o i revisori sono costituiti da amici, familiari o colleghi dello sviluppatore di machine learning, i pregiudizi interni al gruppo potrebbero invalidare i test dei prodotti o il set di dati.

Il bias interno al gruppo è un tipo di bias di attribuzione dei gruppi. Vedi anche Bias di omogeneità esterno.

No

bias non risposta

#fairness

Consulta la sezione Bias di selezione.

O

bias di omogeneità esterno

#fairness

La tendenza a vedere i membri del gruppo più simili ai membri del gruppo quando si confrontano atteggiamenti, valori, tratti della personalità e altre caratteristiche. Nel gruppo si riferisce alle persone con cui interagisci regolarmente; fuori gruppo si riferisce alle persone con cui non interagisci regolarmente. Se crei un set di dati chiedendo alle persone di fornire attributi relativi ai gruppi esterni, questi attributi potrebbero essere meno precisi e più stereotipati rispetto a quelli elencati per i membri del gruppo.

Ad esempio, Lilliputian potrebbe descrivere le case di altri Lilliputiani in grande dettaglio, citando piccole differenze di stili architettonici, finestre, porte e dimensioni. Tuttavia, gli stessi Lilliputiani potrebbero semplicemente dichiarare che i Robdingnagiani vivono tutti in case identiche,

Il bias di omogeneità esterna è una forma di bias di attribuzione del gruppo.

Vedi anche Bias nel gruppo.

R

bias di partecipazione

#fairness

Sinonimo per bias non risposta. Consulta la sezione Bias di selezione.

post-elaborazione

#fairness
#fundamentals

Regolazione dell'output di un modello dopo l'esecuzione del modello. La post-elaborazione può essere utilizzata per applicare vincoli di equità senza modificare i modelli stessi.

Ad esempio, è possibile applicare la post-elaborazione a una categoria di classificazione binari impostando una soglia di classificazione in modo che la uguaglianza di opportunità venga mantenuta per un determinato attributo controllando che la percentuale positiva positiva sia la stessa per tutti i valori di quell'attributo.

parità predittiva

#fairness

Una metrica di correttezza che verifica se, per un determinato classificatore, i tassi di precisione sono equivalenti per i sottogruppi presi in considerazione.

Ad esempio, un modello che prevede l'accettazione dell'università soddisfi la parità predittiva per la nazionalità se il tasso di precisione è lo stesso per Lilliputians e Brobdingnagians.

La parità predittiva è talvolta definita parità di tassi predittivi.

Leggi "Fairness Definitions Explained" (sezione 3.2.1) per una discussione più dettagliata della parità predittiva.

parità del tasso predittivo

#fairness

Un altro nome per parità predittiva.

pre-elaborazione

#fairness
Elaborazione dei dati prima che venga utilizzata per addestrare un modello. La pre-elaborazione potrebbe essere una semplice operazione di rimozione di parole da un corpus di testo inglese che non si verifica nel dizionario inglese oppure può essere un'operazione così complessa come riesprimere i punti dati in modo da eliminare il maggior numero possibile di attributi correlati agli attributi sensibili. La pre-elaborazione può aiutare a soddisfare i vincoli di equità.

proxy (attributi sensibili)

#fairness
Un attributo utilizzato come componente alternativo di un attributo sensibile. Ad esempio, un codice postale di un individuo può essere utilizzato come proxy per le entrate, la razza o il gruppo etnico.

R

bias dei report

#fairness

Il fatto che le frequenze con cui le persone scrivono su azioni, risultati o proprietà non riflettano le loro frequenze reali o il grado di caratteristica di una classe di individui. I bias dei rapporti possono influenzare la composizione dei dati da cui imparano i sistemi di machine learning.

Ad esempio, nei libri la parola risata è più prevalente di respirato. Un modello di machine learning che stima la frequenza relativa di riso e respirazione di un corpus di libri probabilmente determinerebbe che ridere è più comune della respirazione.

S

bias di campionamento

#fairness

Consulta la sezione Bias di selezione.

bias selezione

#fairness

Errori nelle conclusioni tratte da dati campionati a causa di un processo di selezione che genera differenze sistematiche tra campioni osservati nei dati e quelli non osservati. Esistono le seguenti forme di bias di selezione:

  • Bias di copertura: la popolazione rappresentata nel set di dati non corrisponde alla popolazione su cui il modello di machine learning sta effettuando previsioni.
  • Bias di campionamento: i dati non vengono raccolti in modo casuale dal gruppo di destinazione.
  • Bias di non risposta (noto anche come Bias di partecipazione): gli utenti di determinati gruppi disattivano i sondaggi a frequenze diverse rispetto agli utenti di altri gruppi.

Ad esempio, supponi di creare un modello di machine learning che prevede la fruizione di un film da parte delle persone. Per raccogliere i dati sulla formazione, distribuisci un sondaggio a tutti i partecipanti in prima fila di un cinema che mostrano il film. A prima vista, potrebbe sembrare un modo ragionevole per raccogliere un set di dati. Tuttavia, questa forma di raccolta dati può introdurre le seguenti forme di bias di selezione:

  • bias di copertura: il campionamento di una popolazione che ha scelto di vedere il film potrebbe non generalizzare le persone che non hanno già espresso tale livello di interesse per il film.
  • bias del campionamento: anziché il campionamento casuale dalla popolazione prevista (tutte le persone al film), hai campionato solo le persone in prima fila. È possibile che le persone sedute in prima fila siano più interessate al film rispetto a quelle in altre righe.
  • bias non risposta: in generale, le persone con un'opinione forte tendono a rispondere ai sondaggi facoltativi con maggiore frequenza rispetto alle persone con un'opinione moderata. Poiché il sondaggio cinematografico è facoltativo, le risposte hanno più probabilità di formare una distribuzione bimodale rispetto a una distribuzione normale (a forma di campana).

attributo sensibile

#fairness
Un attributo umano che può essere preso in considerazione per motivi legali, etici, sociali o personali.

U

inconsapevolezza (per un attributo sensibile)

#fairness

Una situazione in cui gli attributi sensibili sono presenti, ma non inclusi nei dati di addestramento. Poiché gli attributi sensibili sono spesso correlati ad altri attributi dei dati, un modello addestrato con consapevolezza per un attributo sensibile potrebbe comunque avere un impatto disprezzativo rispetto a tale attributo o violare altri limiti di equità.