Découvrez les options ci-dessous.

Prenons l'exemple d'un modèle de classification qui divise les e-mails en deux catégories: "spam" ou "non-spam". Si vous augmentez la valeur du seuil de classification, à la précision ?
Augmenter sans aucun doute.
En général, l'augmentation du seuil de classification augmente la précision. Cependant, il n'est pas garanti que la précision augmente de façon monotone. à mesure que nous augmentons le seuil.
Probablement une augmentation.
En général, l'augmentation du seuil de classification réduit positifs, ce qui augmente la précision.
Probablement diminuer.
En général, l'augmentation du seuil de classification réduit positifs, ce qui augmente la précision.
Certainement diminuer.
En général, l'augmentation du seuil de classification réduit positifs, ce qui augmente la précision.

Découvrez les options ci-dessous.

Prenons l'exemple d'un modèle de classification qui divise les e-mails en deux catégories: "spam" ou "non-spam". Si vous augmentez la valeur du seuil de classification, se souvient-ils ?
Toujours augmenter.
L'augmentation du seuil de classification aura les deux conséquences suivantes: <ph type="x-smartling-placeholder">
    </ph>
  • Le nombre de vrais positifs diminue ou diminue restent les mêmes.
  • Le nombre de faux négatifs augmente restent les mêmes.
Le rappel n'augmentera donc jamais.
Toujours diminuer ou rester inchangés.
Si vous élevez notre seuil de classification, des vrais positifs diminuent ou stagnent, ce qui entraîne de faux négatifs à augmenter ou à rester le même. Ainsi, le rappel va rester constant ou diminuer.
Restez constant(e).
Si vous élevez notre seuil de classification, des vrais positifs diminuent ou stagnent, ce qui entraîne de faux négatifs à augmenter ou à rester le même. Ainsi, le rappel va rester constant ou diminuer.

Découvrez les options ci-dessous.

Prenons l'exemple de deux modèles A et B évaluant chacun le même ensemble de données. Quelle affirmation est vraie ?
Si le modèle A offre une meilleure précision que le modèle B, alors le modèle A est meilleur.
Bien qu'une meilleure précision soit bonne, cela peut se faire au détriment. d'une forte réduction du rappel. En général, nous devons examiner la précision et le rappel simultanément, ou des métriques récapitulatives comme l'AUC dont nous parlerons ensuite.
Si le modèle A offre un meilleur rappel que le modèle B, alors le modèle A est mieux encore.
Un meilleur rappel est bon, mais il peut arriver ce qui réduit considérablement la précision. En général, nous avons besoin pour examiner à la fois la précision et le rappel, ou des métriques récapitulatives comme l'AUC, dont nous parlerons ensuite.
Si le modèle A offre une meilleure précision et un meilleur rappel que le modèle B, alors le modèle A est probablement le meilleur.
En général, un modèle qui surpasse un autre modèle à la fois la précision et le rappel sont probablement le meilleur modèle. Évidemment, nous devons nous assurer que la comparaison est effectuée à un un point de précision / rappel utile en pratique. pour avoir du sens. Par exemple, supposons que notre modèle de détection de spam doit avoir une précision d'au moins 90% pour être utile et de fausses alertes inutiles. Dans ce cas, la comparaison d'un modèle à {20% de précision, 99% de rappel} à un autre à {15% precision, 98% rappel} n'est pas particulièrement instructif, car aucun des deux modèles ne répond à l'exigence de précision de 90 %. Mais avec cette mise en garde à l'esprit qu'il s'agit d'un bon moyen de comparer les modèles lorsque vous les utilisez comme la précision et le rappel.