Únete a la comunidad recientemente lanzada de
Discord para participar en debates en tiempo real, obtener asistencia de otros miembros y comunicarte directamente con el equipo de Meridian.
Distribución a priori y calibración del ROI
Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Las distribuciones a priori del ROI ofrecen una manera intuitiva de incorporar el conocimiento del dominio, como los resultados de experimentos anteriores, en tu modelo para guiar su proceso de entrenamiento.
Cuando se usan los resultados de un experimento del ROI para establecer distribuciones a priori del ROI específicas de cada canal, Meridian se refiere a este proceso como calibración. No es necesario tener resultados de experimentos para utilizar las distribuciones a priori del ROI. Las distribuciones a priori del ROI son el enfoque recomendado, independientemente de los datos disponibles para fundamentarlos.
Las distribuciones a priori del ROI garantizan que la distribución a priori del coeficiente efectivo utilice una escala adecuada en relación con la inversión de cada canal. Puede ser tentador pensar que las distribuciones a priori del coeficiente son mejores como distribuciones a priori no informativas, pero eso no es así. Si usas la misma distribución a priori del coeficiente no informativa en todos los canales, estarás asignando efectivamente distribuciones a priori del ROI muy diferentes en esos canales, que podrían diferir por órdenes de magnitud.
A continuación, se incluyen algunas consideraciones importantes para tener en cuenta a la hora de establecer distribuciones a priori del ROI:
No existe ninguna fórmula específica para traducir el resultado de un experimento en una distribución a priori.
Una opción es alinear la estimación puntual y el error estándar del experimento con la media y el error estándar de la distribución a priori (consulta un ejemplo en Cómo establecer distribuciones a priori personalizadas con experimentos anteriores).
Sin embargo, si hablamos de la fórmula bayesiana, el conocimiento de la distribución a priori se define de manera más amplia y no necesita ser un cálculo formulado. Se pueden usar otros conocimientos del dominio en combinación con resultados de un experimento para establecer las distribuciones a priori de forma subjetiva.
En Meridian, la distribución a priori del ROI predeterminada es log-normal. Esta distribución se eligió como predeterminada porque tiene dos parámetros, lo que brinda control sobre la desviación media y estándar. Sin embargo, se puede usar cualquier distribución con cualquier cantidad de parámetros en lugar de la distribución log-normal. En general, no se recomienda permitir valores de ROI negativos, ya que esto puede aumentar la varianza posterior y generar un sobreajuste.
El ROI que se mide a través de un experimento nunca coincide perfectamente con el que se mide con el MMM. (En términos estadísticos, el experimento y el MMM tienen diferentes variables por estimar). Los experimentos siempre se relacionan con condiciones específicas, como el período, las regiones geográficas y la configuración de la campaña.
Los resultados del experimento pueden proporcionar información muy pertinente sobre el ROI del MMM, pero conseguir que se correspondan esos resultados con una distribución a priori del MMM supone una capa adicional de incertidumbre más allá del error estándar del experimento.
Cuando configures distribuciones a priori y desviaciones estándar a priori en particular, haz lo siguiente:
Ten en cuenta que, por lo general, es necesario cierto grado de regularización para lograr una compensación adecuada entre el sesgo y la varianza. Aunque algunos modeladores podrían tender a usar distribuciones a priori planas y no informativas para canales que no cuenten con experimentos de distribuciones a priori, esto puede generar un sobreajuste y resultados deficientes (sesgo bajo, pero varianza alta).
Encontrar un grado de regularización adecuado puede ser un proceso iterativo que implique consultar la adecuación del modelo fuera de la muestra en varios niveles de regularización. Los puristas bayesianos podrían oponerse a esto porque la distribución a posteriori no tiene una interpretación clara, a menos que la distribución a priori refleje con precisión el conocimiento previo. Si bien esto es cierto, este enfoque no es necesariamente práctico para MMM. Además, no es posible obtener conocimientos del dominio y establecer una distribución a priori verdadera en cada parámetro del modelo, y la inferencia bayesiana debe interpretarse en función de esto.
Para obtener más información, consulta:
Salvo que se indique lo contrario, el contenido de esta página está sujeto a la licencia Atribución 4.0 de Creative Commons, y los ejemplos de código están sujetos a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
Última actualización: 2025-08-04 (UTC)
[null,null,["Última actualización: 2025-08-04 (UTC)"],[[["\u003cp\u003eROI priors allow you to incorporate domain knowledge, like past experiment results, to guide model training and improve accuracy.\u003c/p\u003e\n"],["\u003cp\u003eMeridian's calibration process uses channel-specific ROI priors, ideally informed by experiment results but not strictly required.\u003c/p\u003e\n"],["\u003cp\u003eWhile experiment results offer valuable insights for setting ROI priors, they should be interpreted cautiously, considering the inherent differences between experimental and MMM measurements.\u003c/p\u003e\n"],["\u003cp\u003eFinding the optimal level of regularization for your model often involves an iterative process to balance bias and variance, even if it deviates from a purely Bayesian approach.\u003c/p\u003e\n"],["\u003cp\u003eThe default Log-normal distribution for ROI priors is recommended, but other distributions can be used as long as they avoid negative ROI values to prevent overfitting.\u003c/p\u003e\n"]]],["ROI priors incorporate domain knowledge into model training, ideally using past experiment results for channel-specific *calibration*. Though, experiment data isn't mandatory for setting priors. The default log-normal distribution is recommended, avoiding negative values. Translating experiment outcomes to MMM priors involves uncertainty, as experiments don't perfectly align with MMM ROI. Setting priors, especially standard deviations, requires regularization to avoid overfitting. The degree of regularization may require iteration.\n"],null,["# ROI priors and calibration\n\nROI priors offer an intuitive way to incorporate domain knowledge, such as past\nexperiment results, into your model to help guide the model training process.\n\nWhen ROI experiment results are used to set channel-specific ROI priors,\nMeridian refers to this as *calibration*. It isn't necessary to have\nexperiment results in order to utilize ROI priors. ROI priors are the recommended\napproach regardless of what data is available to inform them.\n\nROI priors ensure that the effective coefficient prior is on a scale that is\nappropriate relative to the spend for each channel. It can be tempting to think\nthat coefficient priors make better non-informative priors, but this isn't the\ncase. If you use the same non-informative coefficient prior on all channels, you\nare effectively placing very different ROI priors on these channels that could\ndiffer by orders of magnitude.\n\nHere are some important considerations when setting ROI priors:\n\n- There is no specific formula to translate an experiment result into a prior.\n One option is to align the experiment's point estimate and standard error with\n the prior mean and standard error (see an example in [Set custom priors using\n past experiments](/meridian/docs/advanced-modeling/set-custom-priors-past-experiments)).\n However, prior knowledge in the Bayesian sense is more broadly defined, and\n doesn't need to be a formulaic calculation. Other domain knowledge can be used\n in combination with experiment results to subjectively set the priors.\n\n- Meridian's default ROI prior distribution is Log-normal. This\n distribution was chosen as the default because it has two parameters, which\n gives control over both the mean and standard deviation. However, any\n distribution with any number of parameters can be used in place of\n Log-normal. Generally, it's not recommended to allow negative ROI values\n because this can inflate the posterior variance and lead to overfitting.\n\n- The ROI measured by an experiment never aligns perfectly with the ROI measured\n by MMM. (In statistical terms, the experiment and MMM have different\n estimands.) Experiments are always related to the specific conditions of the\n experiment, such as the time window, geographic regions, campaign settings.\n Experiment results can provide highly relevant information about the MMM ROI,\n but translating experiment results to an MMM prior involves an additional\n layer of uncertainty beyond only the experiment's standard error.\n\n- When setting prior distributions, and prior standard deviations in particular:\n\n - Consider that some degree of regularization is typically necessary to\n achieve a suitable bias-variance tradeoff. Although some modelers might be\n inclined to use flat, noninformative priors for channels with no prior\n experiments, this can lead to overfitting and poor results (low bias but\n high variance).\n\n - Finding an appropriate degree of regularization can be an iterative process\n that involves checking out-of-sample model fit at various regularization\n strengths. Bayesian purists might argue against this because the posterior\n distribution doesn't have a clear interpretation unless the prior\n distribution precisely reflects prior knowledge. Although this is true, such\n an approach is not necessarily practical for MMM. Furthermore, it is\n infeasible to obtain domain knowledge and set a true prior on every single\n parameter in the model, and Bayesian inference should be interpreted\n accordingly.\n\nFor more information, see:\n\n- [ROI priors](/meridian/docs/advanced-modeling/roi-priors-and-calibration) for technical details.\n- [Tune the ROI calibration](/meridian/docs/user-guide/configure-model#tune-roi-calibration) for how to set ROI priors based on experiment results.\n- [Set the ROI calibration period](/meridian/docs/user-guide/configure-model#set-roi-calibration-period) for using the `roi_calibration_period` argument to apply your ROI prior to a narrower time window."]]