Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Valutare un modello di machine learning (ML) in modo responsabile richiede più del semplice calcolo delle metriche di perdita complessive. Prima di mettere un modello in produzione,
è fondamentale eseguire la revisione dei dati di addestramento e valutare le previsioni per verificare la presenza di bias.
Questo modulo esamina i diversi tipi di bias umani che possono manifestarsi nei
dati di addestramento. Fornisce quindi strategie per identificarli e mitigarli, nonché per valutare le prestazioni del modello tenendo conto dell'equità.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Mancano le informazioni di cui ho bisogno","missingTheInformationINeed","thumb-down"],["Troppo complicato/troppi passaggi","tooComplicatedTooManySteps","thumb-down"],["Obsoleti","outOfDate","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Problema relativo a esempi/codice","samplesCodeIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-01-03 UTC."],[[["This module focuses on identifying and mitigating human biases that can negatively impact machine learning models."],["You'll learn how to proactively examine data for potential bias before model training and how to evaluate your model's predictions for fairness."],["The module explores various types of human biases that can unintentionally be replicated by machine learning algorithms, emphasizing responsible AI development."],["It builds upon foundational machine learning knowledge, including linear and logistic regression, classification, and handling numerical and categorical data."]]],[]]