Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Evaluar un modelo de aprendizaje automático (AA) de forma responsable requiere hacer más que solo calcular las métricas de pérdida generales. Antes de implementar un modelo en producción, es fundamental controlar los datos de entrenamiento y evaluar las predicciones para detectar sesgos.
En este módulo, se analizan los distintos tipos de sesgos cognitivos humanos que se pueden manifestar en los datos de entrenamiento. Luego, ofrece estrategias para identificarlos y mitigarlos, y, luego, evaluar el rendimiento del modelo con equidad.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Falta la información que necesito","missingTheInformationINeed","thumb-down"],["Muy complicado o demasiados pasos","tooComplicatedTooManySteps","thumb-down"],["Desactualizado","outOfDate","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Problema con las muestras o los códigos","samplesCodeIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-01-03 (UTC)"],[[["This module focuses on identifying and mitigating human biases that can negatively impact machine learning models."],["You'll learn how to proactively examine data for potential bias before model training and how to evaluate your model's predictions for fairness."],["The module explores various types of human biases that can unintentionally be replicated by machine learning algorithms, emphasizing responsible AI development."],["It builds upon foundational machine learning knowledge, including linear and logistic regression, classification, and handling numerical and categorical data."]]],[]]