Inferencia estática o dinámica: Comprueba tu comprensión

Inferencia fuera de línea

Explora las opciones que aparecen a continuación.

En la inferencia fuera de línea, realizamos predicciones en función de un gran lote de datos de una sola vez. Luego colocamos esas predicciones en una tabla de búsqueda para utilizarlas más adelante. ¿Cuáles de las siguientes afirmaciones son verdaderas sobre la inferencia fuera de línea?
Tendremos predicciones de todas las entradas posibles.
No, no tendremos predicciones de todas las entradas posibles. Esta es una de las desventajas de la inferencia fuera de línea. Solo podremos proporcionar predicciones de aquellos ejemplos que ya conocemos. Esto es eficaz si el conjunto de elementos que estamos prediciendo es limitado, como las ciudades del mundo. Pero, para entradas como las consultas de los usuarios que tienen una larga cola de elementos inusuales o extraños, es posible que no podamos proporcionar una cobertura completa con un sistema de inferencia fuera de línea.
Después de generar las predicciones, podemos verificarlas antes de aplicarlas.
De hecho, esto es algo útil sobre la inferencia fuera de línea. Podemos realizar una comprobación de estado y verificar todas nuestras predicciones antes de que se utilicen.
Para una entrada específica, podemos proporcionar una predicción más rápidamente que con la inferencia en línea.
Uno de los aspectos interesantes de la inferencia fuera de línea es que, una vez que las predicciones se escriben en una tabla de búsqueda, estas se pueden procesar con una latencia mínima. No es necesario realizar cómputo de atributos o inferencia del modelo en el momento de la solicitud.
Las señales de entrada se deberán supervisar atentamente durante un período de tiempo prolongado.
En realidad, este es el único caso en el que no necesitamos supervisar las señales de entrada durante un período de tiempo prolongado. Esto se debe a que, una vez que las predicciones se escriben en una tabla de búsqueda, ya no dependemos de los atributos de entrada. Ten en cuenta que cualquier actualización posterior del modelo requerirá una nueva serie de verificación de entrada.
Podremos reaccionar rápidamente a los cambios en el mundo.
No, esta es una desventaja de la inferencia fuera de línea. Tendremos que esperar hasta que se haya escrito un nuevo conjunto de clasificaciones en la tabla de búsqueda para poder responder de manera diferente en función de los cambios en el mundo.

Inferencia en línea

Explora las opciones que aparecen a continuación.

Inferencia en línea significa realizar predicciones a petición. Esto quiere decir que, en la inferencia en línea, colocamos el modelo entrenado en un servidor y emitimos solicitudes de inferencia según sea necesario. ¿Cuáles de las siguientes afirmaciones son verdaderas sobre la inferencia en línea?
Puedes proporcionar predicciones para todos los elementos posibles.
Sí, este es un aspecto positivo de la inferencia en línea. Se clasificarán todas las solicitudes que ingresen. La inferencia en línea maneja las distribuciones de larga estela (aquellas con muchos elementos extraños), como el espacio de todas las oraciones posibles escritas en reseñas de películas.
Puedes realizar una verificación posterior de las predicciones antes de que se utilicen.
En general, no es posible realizar una verificación posterior de todas las predicciones antes de que se utilicen, porque las predicciones se realizan a petición. Sin embargo, puedes supervisar potencialmente las calidades de predicción totales para proporcionar cierto nivel de comprobación de estado, pero estas señalarán las alertas recién después de que los problemas se hayan propagado.
Debes supervisar cuidadosamente las señales de entrada.
Sí. Las señales pueden cambiar de manera repentina debido a problemas de nivel superior, lo cual afectaría nuestras predicciones de manera negativa.
Al realizar la inferencia en línea, no necesitas preocuparte por la latencia de predicción (el tiempo de retardo para devolver predicciones) como cuando realizas inferencia fuera de línea.
Con frecuencia, la latencia de predicción es una preocupación real en la inferencia en línea. Lamentablemente, los problemas de latencia de predicción no necesariamente se solucionan al agregar más servidores de inferencia.