Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Equidad
La equidad aborda los posibles resultados dispares que los usuarios finales pueden experimentar en relación con características sensibles, como la raza, los ingresos, la orientación sexual o el género, a través de la toma de decisiones algorítmica. Por ejemplo, ¿es posible que un algoritmo de contratación tenga sesgos a favor o en contra de los postulantes con nombres asociados a un género o etnia en particular?
Obtén más información sobre cómo los sistemas de aprendizaje automático pueden ser susceptibles al sesgo humano en este video:
Para ver un ejemplo real, lee sobre cómo productos como la Búsqueda de Google y
Google Fotos mejoraron la diversidad de la representación de los tonos de piel a través de la
escala Monk Skin Tone.
Existen métodos confiables para identificar, medir y mitigar los sesgos en los modelos. El módulo Equidad del Curso intensivo de aprendizaje automático proporciona un análisis detallado de la equidad y las técnicas de mitigación de sesgos.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Falta la información que necesito","missingTheInformationINeed","thumb-down"],["Muy complicado o demasiados pasos","tooComplicatedTooManySteps","thumb-down"],["Desactualizado","outOfDate","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Problema con las muestras o los códigos","samplesCodeIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2024-11-14 (UTC)"],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]