Treten Sie der neuen
Discord-Community bei. Sie können sich dort in Echtzeit austauschen, Unterstützung von anderen Nutzern erhalten und direkt mit dem Meridian-Team interagieren.
ROI-Priors und ‑Abstimmung
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
ROI-Priors bieten eine intuitive Möglichkeit, Fachwissen wie bisherige Testergebnisse in Ihr Modell einzubinden, um den Modelltrainingsprozess zu unterstützen.
Wenn ROI-Testergebnisse verwendet werden, um channelspezifische ROI-Priors festzulegen, wird das in Meridian als Abstimmung bezeichnet Es sind keine Testergebnisse erforderlich, um ROI-Priors zu verwenden. ROI-Priors sind unabhängig von den verfügbaren Daten der empfohlene Ansatz.
Mithilfe von ROI-Priors wird sichergestellt, dass der effektive Koeffizienten-Prior auf einer Skala liegt, die den Ausgaben für den jeweiligen Channel entspricht. Oft wird angenommen, dass diese Priors bessere nicht informative Priors sind, aber das ist nicht der Fall. Wenn Sie für alle Channels denselben nicht informativen Koeffizienten-Prior verwenden, legen Sie für diese Channels effektiv sehr unterschiedliche ROI-Priors fest, die sich um Größenordnungen unterscheiden können.
Beachten Sie beim Festlegen von ROI-Priors Folgendes:
Es gibt keine bestimmte Formel, um ein Testergebnis in einen Prior zu übersetzen.
Eine Möglichkeit besteht darin, die Punktschätzung des Tests und den Standardfehler an den Prior-Mittelwert und ‑Standardfehler anzupassen. Ein Beispiel finden Sie unter Benutzerdefinierte Priors anhand früherer Tests festlegen.
Vorwissen im bayesschen Sinne ist jedoch weiter gefasst und muss nicht auf einer Formel beruhen. Anderes Fachwissen kann in Kombination mit Testergebnissen verwendet werden, um die Priors subjektiv festzulegen.
Die Standardverteilung für ROI-Priors bei Meridian ist log-normal. Diese Verteilung wurde als Standard ausgewählt, da sie zwei Parameter hat, mit denen sich sowohl der Mittelwert als auch die Standardabweichung steuern lassen. Anstelle der log-normalen Verteilung kann jedoch jede beliebige Verteilung mit beliebiger Anzahl von Parametern verwendet werden. Im Allgemeinen sollten keine negativen ROI-Werte verwendet werden, da dies die Posterior-Varianz erhöhen und zu einer Überanpassung führen kann.
Der ROI, der mit einem Test gemessen wird, stimmt nie genau mit dem ROI überein, der mit MMM gemessen wird. Statistisch gesehen haben Test und MMM unterschiedliche Schätzgrößen. Tests beziehen sich immer auf die spezifischen Bedingungen des Tests, z. B. den Zeitraum, die geografischen Einheiten und die Kampagneneinstellungen.
Testergebnisse können sehr relevante Informationen zum MMM-ROI liefern. Die Übertragung von Testergebnissen auf einen MMM-Prior birgt jedoch eine zusätzliche Unsicherheit, die über den Standardfehler des Tests hinausgeht.
Beim Festlegen von Prior-Verteilungen und insbesondere von Standardabweichungen ist Folgendes zu beachten:
In der Regel ist ein gewisses Maß an Regularisierung erforderlich, um einen akzeptablen Kompromiss zwischen Bias und Varianz zu finden. Einige Modellierer sind eventuell geneigt, flache, nicht informative Priors für Channels ohne vorherige Tests zu verwenden. Das kann jedoch zu einer Überanpassung und schlechten Ergebnissen führen (geringer Bias, aber hohe Varianz).
Ein geeignetes Maß an Regularisierung zu finden, kann ein iterativer Prozess sein, bei dem die Modellanpassung außerhalb der Stichprobe bei unterschiedlich starker Regularisierung getestet wird. Bayessche Puristen könnten dagegen argumentieren, dass es keine eindeutige Interpretation für die Posterior-Verteilung gibt, es sei denn, die Prior-Verteilung spiegelt das Vorwissen genau wider. Das ist zwar richtig, aber ein solcher Ansatz ist für MMM nicht unbedingt praktikabel. Darüber hinaus ist es nicht möglich, Fachwissen zu erlangen und für jeden einzelnen Parameter im Modell eine echte Prior-Verteilung festzulegen. Die bayessche Inferenz sollte entsprechend interpretiert werden.
Weitere Informationen finden Sie unter:
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2025-08-04 (UTC).
[null,null,["Zuletzt aktualisiert: 2025-08-04 (UTC)."],[[["\u003cp\u003eROI priors allow you to incorporate domain knowledge, like past experiment results, to guide model training and improve accuracy.\u003c/p\u003e\n"],["\u003cp\u003eMeridian's calibration process uses channel-specific ROI priors, ideally informed by experiment results but not strictly required.\u003c/p\u003e\n"],["\u003cp\u003eWhile experiment results offer valuable insights for setting ROI priors, they should be interpreted cautiously, considering the inherent differences between experimental and MMM measurements.\u003c/p\u003e\n"],["\u003cp\u003eFinding the optimal level of regularization for your model often involves an iterative process to balance bias and variance, even if it deviates from a purely Bayesian approach.\u003c/p\u003e\n"],["\u003cp\u003eThe default Log-normal distribution for ROI priors is recommended, but other distributions can be used as long as they avoid negative ROI values to prevent overfitting.\u003c/p\u003e\n"]]],["ROI priors incorporate domain knowledge into model training, ideally using past experiment results for channel-specific *calibration*. Though, experiment data isn't mandatory for setting priors. The default log-normal distribution is recommended, avoiding negative values. Translating experiment outcomes to MMM priors involves uncertainty, as experiments don't perfectly align with MMM ROI. Setting priors, especially standard deviations, requires regularization to avoid overfitting. The degree of regularization may require iteration.\n"],null,["# ROI priors and calibration\n\nROI priors offer an intuitive way to incorporate domain knowledge, such as past\nexperiment results, into your model to help guide the model training process.\n\nWhen ROI experiment results are used to set channel-specific ROI priors,\nMeridian refers to this as *calibration*. It isn't necessary to have\nexperiment results in order to utilize ROI priors. ROI priors are the recommended\napproach regardless of what data is available to inform them.\n\nROI priors ensure that the effective coefficient prior is on a scale that is\nappropriate relative to the spend for each channel. It can be tempting to think\nthat coefficient priors make better non-informative priors, but this isn't the\ncase. If you use the same non-informative coefficient prior on all channels, you\nare effectively placing very different ROI priors on these channels that could\ndiffer by orders of magnitude.\n\nHere are some important considerations when setting ROI priors:\n\n- There is no specific formula to translate an experiment result into a prior.\n One option is to align the experiment's point estimate and standard error with\n the prior mean and standard error (see an example in [Set custom priors using\n past experiments](/meridian/docs/advanced-modeling/set-custom-priors-past-experiments)).\n However, prior knowledge in the Bayesian sense is more broadly defined, and\n doesn't need to be a formulaic calculation. Other domain knowledge can be used\n in combination with experiment results to subjectively set the priors.\n\n- Meridian's default ROI prior distribution is Log-normal. This\n distribution was chosen as the default because it has two parameters, which\n gives control over both the mean and standard deviation. However, any\n distribution with any number of parameters can be used in place of\n Log-normal. Generally, it's not recommended to allow negative ROI values\n because this can inflate the posterior variance and lead to overfitting.\n\n- The ROI measured by an experiment never aligns perfectly with the ROI measured\n by MMM. (In statistical terms, the experiment and MMM have different\n estimands.) Experiments are always related to the specific conditions of the\n experiment, such as the time window, geographic regions, campaign settings.\n Experiment results can provide highly relevant information about the MMM ROI,\n but translating experiment results to an MMM prior involves an additional\n layer of uncertainty beyond only the experiment's standard error.\n\n- When setting prior distributions, and prior standard deviations in particular:\n\n - Consider that some degree of regularization is typically necessary to\n achieve a suitable bias-variance tradeoff. Although some modelers might be\n inclined to use flat, noninformative priors for channels with no prior\n experiments, this can lead to overfitting and poor results (low bias but\n high variance).\n\n - Finding an appropriate degree of regularization can be an iterative process\n that involves checking out-of-sample model fit at various regularization\n strengths. Bayesian purists might argue against this because the posterior\n distribution doesn't have a clear interpretation unless the prior\n distribution precisely reflects prior knowledge. Although this is true, such\n an approach is not necessarily practical for MMM. Furthermore, it is\n infeasible to obtain domain knowledge and set a true prior on every single\n parameter in the model, and Bayesian inference should be interpreted\n accordingly.\n\nFor more information, see:\n\n- [ROI priors](/meridian/docs/advanced-modeling/roi-priors-and-calibration) for technical details.\n- [Tune the ROI calibration](/meridian/docs/user-guide/configure-model#tune-roi-calibration) for how to set ROI priors based on experiment results.\n- [Set the ROI calibration period](/meridian/docs/user-guide/configure-model#set-roi-calibration-period) for using the `roi_calibration_period` argument to apply your ROI prior to a narrower time window."]]