Glosario de aprendizaje automático: Equidad

Esta página contiene términos del glosario de equidad. Para ver todos los términos del glosario, haz clic aquí.

A

atributo

#fairness

Sinónimo de función.

En la equidad del aprendizaje automático, los atributos a menudo se refieren a características propias de las personas.

sesgo de automatización

#fairness

Cuando una persona que toma decisiones favorece las recomendaciones hechas por un sistema automático de decisión por sobre la información hecha sin automatización, incluso cuando el sistema de decisión automatizado comete un error.

B

sesgo (ética/equidad)

#fairness
#fundamentals

1. Estereotipo, prejuicio o preferencia de cosas, personas o grupos por sobre otros. Estos sesgos pueden afectar la recopilación y la interpretación de datos, el diseño de un sistema y la forma en que los usuarios interactúan con él. Entre los tipos de este sesgo, se incluyen los siguientes:

2. Error sistemático debido a un procedimiento de muestreo o de elaboración de informes. Entre los tipos de este sesgo, se incluyen los siguientes:

No se debe confundir con el término de sesgo en los modelos de aprendizaje automático o el sesgo de predicción.

C

sesgo de confirmación

#fairness

La tendencia a buscar, interpretar, favorecer y recuperar información de una manera que confirme las creencias o hipótesis preexistentes propias. Los desarrolladores de aprendizaje automático pueden recopilar o etiquetar inadvertidamente los datos de formas que influyan en un resultado que respalde sus creencias. El sesgo de confirmación es una forma de sesgo implícito.

El sesgo de investigación es una forma de sesgo de confirmación en el cual un experimentador continúa entrenando modelos hasta confirmar una hipótesis preexistente.

equidad justificada

#fairness
Una métrica de equidad que verifica si un clasificador produce el mismo resultado para una persona que para otro, que es idéntico al primero, excepto con respecto a uno o más atributos sensibles Evaluar un clasificador en cuanto a la equidad contrafactual es un método para mostrar las posibles fuentes de sesgo en un modelo.

Consulta “Cuándo se colisionan los mundos: Integra diferentes suposiciones contrafactuales en equidad” para obtener un análisis más detallado de la equidad contrafactual.

sesgo de cobertura

#fairness

Consulta el sesgo de selección.

D.

paridad demográfica

#fairness

Una métrica de equidad que se cumpla si los resultados de la clasificación de un modelo no dependen de un atributo sensible determinado

Por ejemplo, si tanto los lilliputianos como los brocheteros se postulan a la Universidad de Glubbdubdrib, se obtiene la paridad demográfica si se admite el mismo porcentaje de brochetas, independientemente de que un grupo esté mejor calificado que el otro en promedio.

Compara esto con las probabilidades ecualizadas y la igualdad de oportunidades, que permiten que los resultados de la clasificación en su conjunto dependan de atributos sensibles, pero no permiten que los resultados de clasificación de ciertas etiquetas de verdad fundamental especificadas dependan de atributos sensibles. Consulta el artículo “Ataque a la discriminación con un aprendizaje automático más inteligente” para obtener una visualización que explore las compensaciones cuando se realizan optimizaciones para mejorar la paridad demográfica.

impacto dispar

#fairness

Tomar decisiones sobre personas que afectan a diferentes subgrupos de población de manera desproporcionada Por lo general, se refiere a situaciones en las que un proceso de toma de decisiones algorítmico daña o beneficia a algunos subgrupos más que a otros.

Por ejemplo, supongamos que es más probable que un algoritmo que determina la elegibilidad de un lilliputiano para un préstamo a una vivienda en miniatura los clasifique como “no apto” si su dirección de correo postal contiene un código postal determinado. Si los lilliputios Big-Endian tienen más probabilidades de tener direcciones de correo postal con este código postal que los lilliputios Litio-Endian, este algoritmo puede generar un impacto dispar.

Compara esto con el trato dispar, que se enfoca en las disparidades que surgen cuando las características del subgrupo son entradas explícitas a un proceso de toma de decisiones algorítmica.

tratamiento dispar

#fairness

Factorizar los atributos sensibles de los sujetos en un proceso de toma de decisiones algorítmica, de modo que los diferentes subgrupos de personas se traten de manera diferente

Por ejemplo, considera un algoritmo que determina la elegibilidad de los lilianas para un préstamo a una vivienda en miniatura según los datos que proporcionan en su solicitud de préstamo. Si el algoritmo usa una afiliación de Litigino como Big-Endian o Little-Endian como entrada, aplica un tratamiento dispar en esa dimensión.

Compara esto con el impacto dispar, que se enfoca en las disparidades en el impacto social de las decisiones algorítmicas en subgrupos, independientemente de si esos subgrupos son entradas para el modelo.

E

igualdad de oportunidades

#fairness
Una métrica de equidad que verifica si, para una etiqueta preferida (una que confiere una ventaja o un beneficio para una persona) y un atributo determinado, un clasificador predice esa etiqueta preferida de la misma manera en todos los valores de ese atributo. En otras palabras, la igualdad de oportunidades mide si las personas que deberían calificar para una oportunidad tienen las mismas probabilidades de hacerlo, independientemente de sus membresías del grupo.

Por ejemplo, supongamos que la Universidad de Glubbdubdrib admite tanto a los lilliputianos como a los Brobdingnagis en un riguroso programa de matemáticas. Las escuelas secundarias de Lilliputian ofrecen un plan de estudios sólido de clases de matemáticas, y la mayoría de los estudiantes calificados están calificados para el programa universitario. Las escuelas secundarias de Brobdingnagi no ofrecen clases de matemáticas y, como resultado, muchos menos están calificados. Igualdad de oportunidades para la etiqueta preferida de "admitido" con respecto a la nacionalidad (iliglioputi o brondingia) si es probable que los estudiantes calificados sean admitidos independientemente de que sean lilliputianos o brodinges.

Por ejemplo, supongamos que 100 lilliputianos y 100 brobdingnagianos aplican a la Universidad de Glubbdubdrib, y las decisiones de admisión se toman de la siguiente manera:

Tabla 1: Postulantes de liliputián (un 90% son aptos)

  Calificado No cumple con los requisitos
Admitido 45 3
Rechazado 45 7
Total 90 10
Porcentaje de alumnos calificados admitidos: 45/90 = 50%
Porcentaje de estudiantes no calificados rechazados: 7/10 = 70%
Porcentaje total de alumnos admitidos: (45+3)/100 = 48%

 

Tabla 2: Postulantes de Brobdingagian (un 10% son aptos):

  Calificado No cumple con los requisitos
Admitido 5 9
Rechazado 5 81
Total 10 90
Porcentaje de alumnos calificados admitidos: 5/10 = 50%
Porcentaje de estudiantes no calificados rechazados: 81/90 = 90%
Porcentaje total de estudiantes bromados admitidos: (5+9)/100 = 14%

Los ejemplos anteriores satisfacen la igualdad de oportunidades en cuanto a la aceptación de estudiantes calificados, ya que ambos tienen una probabilidad del 50% de la admisión.

Consulta “Igualdad de oportunidades en el aprendizaje supervisado” para obtener un análisis más detallado de la igualdad de oportunidades. Además, puedes consultar el artículo “Ataque a la discriminación con un aprendizaje automático más inteligente” para visualizar las compensaciones cuando se realizan optimizaciones a fin de lograr la igualdad de oportunidades.

probabilidades igualadas

#fairness
Una métrica de equidad que verifica si, para cualquier etiqueta y atributo en particular, un clasificador predice esa etiqueta de la misma manera en todos los valores de ese atributo.

Por ejemplo, supongamos que la Universidad de Glubbdubdrib admite tanto a los lilliputianos como a los bradingagianos en un riguroso programa de matemáticas. Las escuelas secundarias de Lilliputian ofrecen un plan de estudios sólido de clases de matemáticas, y la gran mayoría de ellos están calificados para el programa universitario. Las escuelas secundarias de Brobdingnagi no ofrecen clases de matemáticas y, como resultado, muchos menos de sus alumnos están calificados. Las probabilidades de igualdad también están satisfechas siempre y cuando un solicitante sea un miembro de la Orden de los Milenios o del Reino Unido; si son aptos, tienen la misma probabilidad de ser aceptados en el programa y, si no cumplen con los requisitos, se rechaza de igual manera.

Digamos que 100 lilliputianos y 100 brobdingnagianos aplican a la Universidad de Glubbdubdrib, y las decisiones de admisión se toman de la siguiente manera:

Tabla 3: Postulantes de liliputián (un 90% son aptos)

  Calificado No cumple con los requisitos
Admitido 45 2
Rechazado 45 8
Total 90 10
Porcentaje de alumnos calificados admitidos: 45/90 = 50%
Porcentaje de estudiantes no calificados rechazados: 8/10 = 80%
Porcentaje total de estudiantes hospitalizados admitidos: (45+2)/100 = 47%

 

Tabla 4. Postulantes de Brobdingagian (un 10% son aptos):

  Calificado No cumple con los requisitos
Admitido 5 18
Rechazado 5 72
Total 10 90
Porcentaje de alumnos admitidos: 5/10 = 50%
Porcentaje de estudiantes no calificados rechazados: 72/90 = 80%
Porcentaje total de estudiantes bromados admitidos: (5+18)/100 = 23%

Las probabilidades equitativas son satisfechas, ya que los alumnos calificados de Lilliputi y Brobdingnagian tienen un 50% de probabilidades de ser admitidos, y los descalificados de Lilliputian y Brobdingnagian tienen un 80% de probabilidades de ser rechazados.

Las probabilidades ecualizadas se definen formalmente en "Igualdad de oportunidades en el aprendizaje supervisado" de la siguiente manera: "Predictor Ŷ satisface las probabilidades ecualizadas con respecto al atributo A protegido y el resultado Y si Ŷ y A son independientes y condicionales en Y".

sesgo de experimentador

#fairness

Consulta el sesgo de confirmación.

V

restricción de equidad

#fairness
Aplicar una restricción a un algoritmo para garantizar que se cumplan una o más definiciones de equidad. Estos son algunos ejemplos de restricciones de equidad:

métrica de equidad

#fairness

Definición matemática de "equidad" que se puede medir Estas son algunas de las métricas de equidad más utilizadas:

Muchas métricas de equidad son mutuamente excluyentes; consulta incompatibilidad de las métricas de equidad.

G

sesgo de correspondencia

#fairness

Suponer que lo que es verdadero para una persona también lo es para todos los miembros de ese grupo. Los efectos del sesgo de correspondencia pueden agravarse si se utiliza un muestreo de conveniencia para la recopilación de datos. En una muestra no representativa, se pueden realizar atribuciones que no reflejen la realidad.

Consulta también el sesgo de homogeneidad de los demás y el sesgo endogrupal.

I

sesgo implícito

#fairness

Hacer una asociación o suposición automáticamente según los modelos mentales y los recuerdos de cada uno El sesgo implícito puede afectar lo siguiente:

  • Cómo se recopilan y clasifican los datos
  • Cómo se diseñan y desarrollan los sistemas de aprendizaje automático.

Por ejemplo, cuando se compila un clasificador para identificar fotos de bodas, un ingeniero puede usar como atributo la presencia de un vestido blanco en la foto. Sin embargo, los vestidos blancos han sido habituales durante ciertas épocas y en ciertas culturas.

Consulta también el sesgo de confirmación.

incompatibilidad de las métricas de equidad

#fairness

La idea de que algunas nociones de equidad son incompatibles entre sí y no se pueden satisfacer de forma simultánea. Como resultado, no hay una sola métrica universal para cuantificar la equidad que se pueda aplicar a todos los problemas de AA.

Si bien esto puede parecer desalentador, la incompatibilidad de las métricas de equidad no implica que los esfuerzos de equidad no sean fructíferos. En cambio, sugiere que la equidad debe definirse de manera contextual para un problema de AA determinado, con el objetivo de evitar daños específicos para sus casos de uso.

Consulta "Sobre la (posibilidad) de equidad" para ver un análisis más detallado de este tema.

equidad individual

#fairness

Una métrica de equidad que verifica si personas similares se clasifican de manera similar. Por ejemplo, la Academia Brobdingnagian puede querer satisfacer la equidad individual porque se asegura de que dos estudiantes con calificaciones idénticas y puntuaciones de exámenes estandarizados tengan la misma probabilidad de ingresar.

Ten en cuenta que la equidad individual depende por completo de cómo defines la “similitud” (en este caso, las calificaciones y las calificaciones de las pruebas) y puedes correr el riesgo de introducir nuevos problemas de equidad si tu métrica de similitud omite información importante (como el rigor del plan de estudios de un alumno).

Consulta Equidad a través del reconocimiento para obtener un análisis más detallado de la equidad individual.

sesgo endogrupal

#fairness

Mostrar parcialidad en el grupo o en las características propias Si los verificadores o los evaluadores son los amigos, la familia o los colegas del desarrollador de aprendizaje automático, el sesgo endogrupal puede invalidar las pruebas del producto o el conjunto de datos.

El sesgo endogrupal es una forma de sesgo de correspondencia. Consulta también el sesgo de homogeneidad de los demás.

N

sesgo de no respuesta

#fairness

Consulta el sesgo de selección.

O

sesgo de homogeneidad de los demás

#fairness

La tendencia a ver a los miembros externos a un grupo como más parecidos que los miembros del grupo cuando se comparan actitudes, valores, rasgos de personalidad y otras características. Endogrupal refiere a las personas con las que interactúas regularmente; los demás refiere a las personas con las que no interactúas regularmente. Si les pides a los usuarios que proporcionen atributos sobre grupos externos, es posible que esos atributos tengan menos matices y sean más estereotipos que los atributos que los participantes establecen para las personas del grupo.

Por ejemplo, los lilliputianos podrían describir las casas de otros lilliputianos con gran detalle, citando pequeñas diferencias en estilos arquitectónicos, ventanas, puertas y tamaños. Sin embargo, los mismos lilliputianos podrían simplemente declarar que todos los broddingagianos viven en casas idénticas.

El sesgo de homogeneidad de los demás es un tipo de sesgo de correspondencia.

Consulta también el sesgo endogrupal.

P

sesgo de participación

#fairness

Sinónimo de sesgo de no respuesta. Consulta el sesgo de selección.

posprocesamiento

#fairness
#fundamentals

Ajustar la salida de un modelo después de que este se haya ejecutado El procesamiento posterior se puede usar para aplicar restricciones de equidad sin modificar los modelos.

Por ejemplo, se puede aplicar el procesamiento posterior a un clasificador binario estableciendo un umbral de clasificación, de modo que se mantenga la igualdad de oportunidades para algunos atributos si verificas que la tasa de verdaderos positivos sea la misma para todos los valores de ese atributo.

paridad predictiva

#fairness

Una métrica de equidad que verifica si, para un clasificador determinado, las tarifas de precisión son equivalentes para los subgrupos en cuestión.

Por ejemplo, un modelo que predice la aceptación de la universidad satisfaría la paridad predictiva de la nacionalidad si su tasa de precisión es la misma para los lilliputianos y los brodinganos.

La paridad predictiva a veces también se denomina paridad predictiva de la tasa.

Consulta “Explicación de definiciones de equidad” (sección 3.2.1) para obtener un análisis más detallado de la paridad predictiva.

paridad de tasa predictiva

#fairness

Otro nombre para la paridad predictiva.

procesamiento previo

#fairness
Procesar datos antes de usarlos para entrenar un modelo El procesamiento previo puede ser tan simple como quitar palabras de un corpus de texto en inglés que no aparecen en el diccionario en inglés o puede ser tan complejo como volver a expresar datos de una manera que quite la mayor cantidad de atributos correlacionados con los atributos sensibles. El procesamiento previo puede ayudar a satisfacer las restricciones de equidad.

proxy (atributos sensibles)

#fairness
Atributo que se usa como reemplazo de un atributo sensible. Por ejemplo, el código postal de una persona puede usarse como un proxy para su ingreso, raza o etnia.

(der.)

sesgo de reporte

#fairness

El hecho de que la frecuencia con la que las personas escriben sobre acciones, resultados o propiedades no es un reflejo de sus frecuencias reales o en qué medida una propiedad es característica de una clase de personas. El sesgo de informes puede influir en la composición de los datos de los que aprenden los sistemas de aprendizaje automático.

Por ejemplo, en los libros, la palabra reír es más frecuente que la que se respirar. Es probable que un modelo de aprendizaje automático que estima la frecuencia relativa de reír y respirar de un corpus de libros determine que reír es más común que respirar.

S

sesgo muestral

#fairness

Consulta el sesgo de selección.

sesgo de selección

#fairness

Errores en las conclusiones que se extraen de los datos muestreados debido a un proceso de selección que genera diferencias sistemáticas entre las muestras observadas en los datos y las que no se observan. Existen las siguientes formas de sesgo de selección:

  • sesgo de cobertura: La población representada en el conjunto de datos no coincide con la población sobre la cual el modelo de aprendizaje automático realiza predicciones.
  • sesgo muestral: Los datos no se recopilan al azar del grupo objetivo.
  • sesgo de no respuesta (también llamado sesgo de participación): Los usuarios de ciertos grupos rechazan realizar encuestas con frecuencias diferentes que los usuarios de otros grupos.

Por ejemplo, supongamos que creas un modelo de aprendizaje automático que predice el disfrute de una película por parte de las personas. Para recopilar datos de entrenamiento, debes entregar una encuesta a todos los que están en la primera fila de un cine donde se muestra la película. A primera vista, esto puede parecer una forma razonable de recopilar un conjunto de datos; sin embargo, esta forma de recopilación de datos puede introducir las siguientes formas de sesgo de selección:

  • sesgo de cobertura: Si se toma una muestra de una población que eligió ver la película, es posible que las predicciones del modelo no generalicen a personas que aún no expresaron ese nivel de interés en la película.
  • sesgo muestral: En lugar de muestrear aleatoriamente de la población prevista (todas las personas en la película), solo se muestrearon las personas en la primera fila. Es posible que las personas sentadas en la primera fila estén más interesadas en la película que aquellas en otras filas.
  • sesgo de no respuesta: en general, las personas con opiniones sólidas tienden a responder encuestas opcionales con mayor frecuencia que las personas con opiniones leves. Como la encuesta de la película es opcional, es más probable que las respuestas formen una distribución bimodal en lugar de una distribución normal (con forma de campana).

atributo sensible

#fairness
Un atributo humano que puede tener una consideración especial por motivos legales, éticos, sociales o personales.

U

inconsciencia (en un atributo sensible)

#fairness

Situación en la que los atributos sensibles están presentes, pero no se incluyen en los datos de entrenamiento. Debido a que los atributos sensibles suelen correlacionarse con otros atributos de los datos propios, un modelo entrenado con la falta de conocimiento sobre un atributo sensible aún puede tener impacto desigual con respecto a ese atributo, o puede infringir otras restricciones de equidad.