Confira as opções abaixo.
Considere um modelo de classificação que separa os e-mails em duas categorias:
"spam" ou "não é spam". Se você aumentar o limiar de classificação, o que
acontecer com a precisão?
Definitivamente, aumentar.
Em geral, aumentar o limiar de classificação aumenta a precisão.
No entanto, não há garantia de que a precisão aumente monotonicamente
quando aumentarmos o limite.
Provavelmente aumentar.
Em geral, aumentar o limiar de classificação reduz falsos
positivos, aumentando assim a precisão.
Provavelmente diminuir.
Em geral, aumentar o limiar de classificação reduz falsos
positivos, aumentando assim a precisão.
Definitivamente diminuir.
Em geral, aumentar o limiar de classificação reduz falsos
positivos, aumentando assim a precisão.
Confira as opções abaixo.
Considere um modelo de classificação que separa os e-mails em duas categorias:
"spam" ou "não é spam". Se você aumentar o limiar de classificação, o que
se lembra?
Sempre aumentar.
Aumentar o limiar de classificação causará o seguinte:
- O número de verdadeiros positivos diminui ou permanecem os mesmos.
- O número de falsos negativos aumentará ou permanecem os mesmos.
Sempre diminuir ou permanecer igual.
Aumentar nosso limiar de classificação fará com que o número de
verdadeiros positivos diminuam ou permaneçam os mesmos e fará com que
de falsos negativos aumenta ou permanece o mesmo. Assim,
recall vai permanecer constante
ou diminuir.
Permaneça sempre constante.
Aumentar nosso limiar de classificação fará com que o número de
verdadeiros positivos diminuam ou permaneçam os mesmos e fará com que
de falsos negativos aumenta ou permanece o mesmo. Assim,
recall vai permanecer constante
ou diminuir.
Confira as opções abaixo.
Considere dois modelos, A e B, que avaliam o mesmo conjunto de dados.
Qual das afirmações a seguir é verdadeira?
Se o modelo A tiver uma precisão melhor do que o modelo B,
o modelo A é melhor.
Embora uma precisão melhor seja boa, ela pode ser prejudicada
de uma grande redução no recall. Em geral, precisamos analisar
precisão e recall juntos ou métricas resumidas, como AUC
sobre o qual falaremos a seguir.
Se o modelo A tiver um recall melhor do que o modelo B, o modelo A será
melhor.
Embora um recall melhor seja bom, ele pode vir
o custo de uma grande redução na precisão. Em geral, precisamos
para analisar a precisão e o recall juntos ou as métricas resumidas
como AUC, sobre a qual falaremos a seguir.
Se o modelo A tiver melhor precisão e recall do que o modelo B,
então o modelo A provavelmente é melhor.
Em geral, um modelo tem desempenho melhor que outro modelo em ambos
precisão e recall provavelmente é o melhor modelo. Obviamente,
precisaremos garantir que a comparação seja feita
ponto de precisão / recall que é útil na prática para este
tenha significado. Por exemplo, suponha que nosso modelo de detecção de spam
precisa ter pelo menos 90% de precisão para ser útil e evitar
alarmes falsos desnecessários. Nesse caso, comparar
um modelo com {20% de precisão, 99% de recall} para outro
{15% de precisão, 98% de recall} não é muito instrutivo,
nenhum dos modelos atende ao requisito de precisão de 90%. Mas com essa ressalva,
essa é uma boa forma de comparar modelos ao usar
precisão e recall.