Inférences statique et dynamique : testez vos connaissances

Inférence hors ligne

Examinez les options suivantes.

L'inférence hors ligne consiste à effectuer des prédictions sur de nombreuses données à la fois. Ces prédictions sont ensuite importées dans une table de recherche dans le but de permettre leur utilisation ultérieure. Parmi les propositions suivantes, lesquelles s'appliquent à l'inférence hors ligne ?
Les prédictions sont à même de répondre à toutes les entrées possibles.
Non, ces prédictions ne répondent pas à toutes les entrées possibles. C'est l'un des inconvénients de l'inférence hors ligne. Des prédictions ne sont proposées que pour les exemples que nous connaissons déjà. Ce type d'inférence suffit si les éléments sur lesquels portent les prédictions sont limités, tels que les grandes villes dans le monde. Toutefois, pour les requêtes utilisateur qui comportent de nombreux termes rares ou inhabituels, le système d'inférence hors ligne risque de ne pas pouvoir y répondre.
Après avoir généré les prédictions, il est possible de les vérifier avant de les appliquer.
C'est l'un des avantages de l'inférence hors ligne. Nous pouvons nous assurer que toutes les prédictions sont correctes avant qu'elles soient utilisées.
Les prédictions sont obtenues plus rapidement qu'avec l'inférence en ligne.
L'un des points forts de l'inférence hors ligne est que les prédictions apparaissent avec une latence minime, étant donné qu'elles sont déjà importées dans une table de recherche. Aucun calcul de caractéristique ni aucune inférence de modèle n'est nécessaire au moment de la requête.
Avec l'inférence hors ligne, il est indispensable de suivre minutieusement les signaux d'entrée sur une longue période de temps.
L'inférence hors ligne est un cas à part : elle ne nécessite pas que les signaux d'entrée soient surveillés sur une longue période de temps. En effet, une fois que les prédictions sont ajoutées à une table de recherche, nous ne dépendons plus des caractéristiques d'entrée. Notez que toute mise à jour ultérieure du modèle nécessitera une nouvelle série de vérification des entrées.
L'inférence hors ligne permet de s'adapter rapidement aux changements qui interviennent.
Non. C'est d'ailleurs l'un des inconvénients de l'inférence hors ligne. Pour que les prédictions tiennent compte des évolutions du monde qui nous entoure, un nouvel ensemble de prédictions devra être importé dans la table de recherche.

Inférence en ligne

Examinez les options suivantes.

L'inférence en ligne implique des prédictions à la demande. Dans ce cas, nous hébergeons le modèle entraîné sur un serveur et procédons aux requêtes d'inférence nécessaires. Parmi les propositions suivantes, lesquelles s'appliquent à l'inférence en ligne ?
Il est possible de fournir des prédictions pour tous les éléments possibles.
C'est effectivement l'un des avantages de l'inférence en ligne. Un score est attribué à toutes les requêtes effectuées. L'inférence en ligne traite les distributions de longue traîne (qui contiennent de nombreux éléments rares), telles que l'éventail de toutes les phrases qu'une personne est susceptible d'utiliser pour donner son avis sur un film.
Il est possible de vérifier toutes les prédictions avant qu'elles soient utilisées.
En général, cela n'est pas possible, car il s'agit de prédictions à la demande. Toutefois, vous pouvez analyser les qualités des prédictions agrégées afin d'effectuer certaines vérifications, mais celles-ci ne génèrent des alertes qu'après la détection du problème.
Il est nécessaire de surveiller attentivement les signaux d'entrée.
Oui. Les signaux peuvent changer soudainement en raison de problèmes en amont, ce qui peut altérer les prédictions.
Avec l'inférence en ligne, la latence des prédictions (délai entre la requête et la prédiction renvoyée) n'est pas aussi longue qu'avec l'inférence hors ligne.
La latence des prédictions est souvent une préoccupation majeure avec l'inférence en ligne. Malheureusement, il n'est pas toujours possible de résoudre les problèmes de latence en ajoutant plus de serveurs pour l'inférence.