Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Justiça
A imparcialidade aborda os possíveis resultados diferentes que os usuários finais podem ter
relacionados a características sensíveis, como raça, renda, orientação sexual
ou gênero, por meio da tomada de decisões algorítmicas. Por exemplo, um algoritmo de contratação
pode ter vieses a favor ou contra candidatos com nomes associados a um
gênero ou etnia específicos?
Saiba mais sobre como os sistemas de aprendizado de máquina podem ser suscetíveis a vieses humanos
neste vídeo:
Para um exemplo do mundo real, leia sobre como produtos como a Pesquisa Google e o Google Fotos melhoraram a diversidade da representação do tom de pele usando a escala Monk Skin Tone.
Há métodos confiáveis para identificar, medir e reduzir o viés nos modelos. O módulo Imparcialidade
do Curso intensivo de machine learning
oferece uma análise detalhada das técnicas de imparcialidade e mitigação de viés.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Não contém as informações de que eu preciso","missingTheInformationINeed","thumb-down"],["Muito complicado / etapas demais","tooComplicatedTooManySteps","thumb-down"],["Desatualizado","outOfDate","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Problema com as amostras / o código","samplesCodeIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2024-11-14 UTC."],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]