Meridian utilise un modèle de régression bayésien, qui combine les connaissances préalables avec les signaux appris à partir des données pour estimer les effets média et quantifier l'incertitude. Les connaissances préalables sont intégrées au modèle à l'aide de distributions a priori, qui peuvent être basées sur des données de test, l'expérience dans le secteur ou des modèles mix média précédents.
Les méthodes d'échantillonnage bayésiennes MCMC (Markov Chain Monte Carlo) sont utilisées pour estimer conjointement tous les coefficients et paramètres du modèle. Cela inclut les paramètres des fonctions de transformation média non linéaires, telles que les courbes Adstock et de rendement décroissant. Tous les paramètres et l'incertitude correspondante sont pris en compte lors du calcul des estimations ponctuelles et des intervalles crédibles pour le ROI et d'autres insights clés.
Théorème de Bayes
Le théorème de Bayes indique comment utiliser des données observables pour faire des inférences sur des paramètres non observables, ce qui peut être exprimé par l'équation suivante :
Où :
- \(\theta\) est le paramètre non observable de l'intérêt.
- \(P(\theta|data)\) est le posterior et correspond au résultat de l'équation bayésienne.
- \(P(data|\theta)\) est la probabilité
- \(P(\theta)\) est le prior
La probabilité et le prior doivent être spécifiés pour effectuer une inférence sur le posterior.
Probabilité, priors et posteriors
La probabilité est la spécification du modèle. Il s'agit d'une distribution qui spécifie la probabilité des valeurs de données en fonction des valeurs de paramètres du modèle \(\theta\). Une fois l'analyse bayésienne exécutée, des inférences et des estimations sont effectuées sur les paramètres \(\theta\). Les probabilités peuvent être d'une complexité très variable. La probabilité de Meridian repose sur un modèle de régression hiérarchique. Pour en savoir plus sur la probabilité de Meridian, consultez la spécification du modèle.
Un prior représente la conviction concernant la distribution de la probabilité d'un paramètre avant la prise en compte de données. L'intégration de connaissances préalables est nécessaire pour l'approche bayésienne de quantification de l'incertitude. Dans Meridian, la distribution a priori représente les convictions concernant les effets des canaux marketing avant que les données ne soient visibles. Les priors informatifs expriment une certitude élevée dans \(\theta\), ce qui nécessite une grande quantité de preuves de données pour surmonter la conviction. Un prior non informatif est une expression qui ne donne que très peu d'informations sur la valeur de \(\theta\) . Il a donc peu d'influence. Le modèle Meridian fournit des priors bien fondés avec des valeurs par défaut. Vous pouvez personnaliser les priors, par exemple pour la calibration du ROI.
La distribution a posteriori représente la force de la conviction pour les différentes valeurs possibles de \(\theta\) une fois les données prises en compte. Le posterior est basé sur le prior, les données et la probabilité selon le théorème de Bayes. Si les données contiennent peu d'informations, le posterior est davantage pondéré vers les priors. Si les données sont riches en informations, le posterior est davantage pondéré vers les données.
Le modèle Meridian génère la distribution a posteriori conjointe pour tous les paramètres du modèle, ainsi que pour toutes les métriques estimées, telles que le ROI, le ROIm et les courbes de réponse. La distribution a posteriori représente les convictions actualisées concernant les effets des canaux marketing, compte tenu des données observées.
Convergence MCMC
Avec la méthode de Monte-Carlo par chaînes de Markov (MCMC, Markov Chain Monte Carlo), l'échantillonnage a posteriori converge vers une distribution cible. La convergence du modèle peut être évaluée en exécutant plusieurs chaînes MCMC et en vérifiant que toutes les chaînes atteignent la même distribution cible.
Meridian utilise la méthode d'échantillonnage MCMC de l'échantillonneur No U-Turn (NUTS, No U-Turn Sampler). Les valeurs des paramètres sont tirées d'une distribution de la probabilité où la distribution de la valeur actuelle dépend des valeurs de l'itération précédente. Les valeurs forment une chaîne, dans laquelle chaque itération est un ensemble complet de valeurs de paramètres du modèle. Plusieurs chaînes sont exécutées indépendamment pour évaluer la convergence. Lorsque la convergence est atteinte, chaque chaîne représente un échantillon de la distribution a posteriori cible. Les chaînes peuvent ensuite être fusionnées pour l'inférence a posteriori.
Il est essentiel d'examiner les valeurs R-hat pour évaluer la convergence MCMC. Ces valeurs sont fournies dans la sortie du modèle. Nous vous recommandons d'obtenir un R-hat inférieur à 1,1 pour tous les paramètres, bien qu'il ne s'agisse pas d'un seuil strict. Si les valeurs R-hat sont légèrement supérieures à 1,1, la convergence est généralement possible en exécutant des chaînes plus longues. Si les valeurs R-hat sont beaucoup plus élevées (par exemple, 2,0 ou plus), il peut être possible d'obtenir une convergence en exécutant des chaînes plus longues. Toutefois, le temps de calcul et les contraintes de mémoire peuvent être prohibitifs. Il est donc possible qu'il soit nécessaire d'ajuster le modèle pour obtenir la convergence.