Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Avaliar um modelo de machine learning (ML) de forma responsável requer mais do que
apenas calcular as métricas de perda geral. Antes de colocar um modelo em produção,
é fundamental auditar os dados de treinamento e avaliar as previsões em busca de
viés.
Este módulo analisa diferentes tipos de vieses humanos que podem se manifestar nos
dados de treinamento. Ele fornece estratégias para identificá-los e mitigá-los
e, em seguida, avaliar a performance do modelo com imparcialidade.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Não contém as informações de que eu preciso","missingTheInformationINeed","thumb-down"],["Muito complicado / etapas demais","tooComplicatedTooManySteps","thumb-down"],["Desatualizado","outOfDate","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Problema com as amostras / o código","samplesCodeIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-01-03 UTC."],[[["This module focuses on identifying and mitigating human biases that can negatively impact machine learning models."],["You'll learn how to proactively examine data for potential bias before model training and how to evaluate your model's predictions for fairness."],["The module explores various types of human biases that can unintentionally be replicated by machine learning algorithms, emphasizing responsible AI development."],["It builds upon foundational machine learning knowledge, including linear and logistic regression, classification, and handling numerical and categorical data."]]],[]]