Participe da nova comunidade do
Discord para discussões em tempo real, suporte de colegas e interação direta com a equipe do Meridian.
Calibragem e distribuições a priori de ROI
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
As distribuições a priori de ROI oferecem uma maneira intuitiva de incorporar conhecimento do domínio ao modelo, como resultados de experimentos anteriores, para orientar o processo de treinamento.
O Meridian chama de calibragem o uso dos resultados de experimentos de ROI para definir distribuições a priori de ROI específicas do canal. Os resultados de experimentos não são necessários para usar distribuições a priori de ROI. Elas são a abordagem recomendada independente dos dados disponíveis.
As distribuições a priori de ROI garantem que a distribuição de coeficiente eficaz esteja em uma escala adequada em relação ao gasto de cada canal. É comum achar que as distribuições a priori de coeficiente criam distribuições não informativas melhores, mas não é verdade. Usar a mesma distribuição a priori de coeficiente não informativa em todos os canais significa colocar neles distribuições a priori de ROI com diferenças de ordem de grandeza.
Considerações importantes ao definir as distribuições a priori de ROI:
Não existe uma fórmula específica para transformar o resultado de um experimento em uma distribuição a priori.
Uma opção é alinhar a estimativa pontual e o erro padrão do experimento com a média e o erro padrão da distribuição (exemplo: Definir distribuições a priori personalizadas usando experimentos anteriores).
No entanto, o pensamento bayesiano define o conhecimento de distribuições a priori de maneira mais ampla, sem precisar de fórmulas. Outros conhecimentos do domínio podem ser usados com os resultados do experimento para definir as distribuições de modo subjetivo.
A distribuição a priori padrão de ROI no Meridian é lognormal e foi escolhida porque tem dois parâmetros, o que dá controle sobre a média e o desvio padrão. No entanto, qualquer distribuição com qualquer número de parâmetros pode ser usada. Geralmente, não recomendamos permitir valores negativos de ROI para não inflar a variância da distribuição a posteriori e gerar overfitting.
Os valores de ROI medidos por um experimento e pela MMM nunca são perfeitamente alinhados. Em termos estatísticos, o experimento e a MMM têm estimadores diferentes. Os experimentos estão sempre relacionados a condições específicas, como período, regiões geográficas e configurações da campanha.
Os resultados podem fornecer informações muito relevantes sobre o ROI da MMM, mas transformá-los em uma distribuição a priori da MMM envolve uma camada a mais de incerteza além do erro padrão do experimento.
Ao definir distribuições a priori e especialmente desvios padrão:
Geralmente, é necessário ter um certo grau de regularização para alcançar uma compensação de viés-variância adequada. Embora alguns modeladores sejam propensos a usar distribuições a priori constantes e não informativas para canais sem experimentos, isso pode gerar overfitting e resultados ruins (baixo viés, mas alta variância).
Encontrar um grau adequado de regularização pode ser um processo iterativo que envolve verificar o ajuste do modelo fora da amostra em vários níveis. Puristas bayesianos são contra isso porque a distribuição a posteriori só tem uma interpretação clara quando a distribuição a priori reflete precisamente o próprio conhecimento. No entanto, essa abordagem não é necessariamente prática para a MMM. Além disso, é inviável ter conhecimento do domínio e definir uma distribuição a priori verdadeira em cada parâmetro do modelo, e a inferência bayesiana deve ser interpretada adequadamente.
Para mais informações, consulte:
Exceto em caso de indicação contrária, o conteúdo desta página é licenciado de acordo com a Licença de atribuição 4.0 do Creative Commons, e as amostras de código são licenciadas de acordo com a Licença Apache 2.0. Para mais detalhes, consulte as políticas do site do Google Developers. Java é uma marca registrada da Oracle e/ou afiliadas.
Última atualização 2025-08-04 UTC.
[null,null,["Última atualização 2025-08-04 UTC."],[[["\u003cp\u003eROI priors allow you to incorporate domain knowledge, like past experiment results, to guide model training and improve accuracy.\u003c/p\u003e\n"],["\u003cp\u003eMeridian's calibration process uses channel-specific ROI priors, ideally informed by experiment results but not strictly required.\u003c/p\u003e\n"],["\u003cp\u003eWhile experiment results offer valuable insights for setting ROI priors, they should be interpreted cautiously, considering the inherent differences between experimental and MMM measurements.\u003c/p\u003e\n"],["\u003cp\u003eFinding the optimal level of regularization for your model often involves an iterative process to balance bias and variance, even if it deviates from a purely Bayesian approach.\u003c/p\u003e\n"],["\u003cp\u003eThe default Log-normal distribution for ROI priors is recommended, but other distributions can be used as long as they avoid negative ROI values to prevent overfitting.\u003c/p\u003e\n"]]],["ROI priors incorporate domain knowledge into model training, ideally using past experiment results for channel-specific *calibration*. Though, experiment data isn't mandatory for setting priors. The default log-normal distribution is recommended, avoiding negative values. Translating experiment outcomes to MMM priors involves uncertainty, as experiments don't perfectly align with MMM ROI. Setting priors, especially standard deviations, requires regularization to avoid overfitting. The degree of regularization may require iteration.\n"],null,["# ROI priors and calibration\n\nROI priors offer an intuitive way to incorporate domain knowledge, such as past\nexperiment results, into your model to help guide the model training process.\n\nWhen ROI experiment results are used to set channel-specific ROI priors,\nMeridian refers to this as *calibration*. It isn't necessary to have\nexperiment results in order to utilize ROI priors. ROI priors are the recommended\napproach regardless of what data is available to inform them.\n\nROI priors ensure that the effective coefficient prior is on a scale that is\nappropriate relative to the spend for each channel. It can be tempting to think\nthat coefficient priors make better non-informative priors, but this isn't the\ncase. If you use the same non-informative coefficient prior on all channels, you\nare effectively placing very different ROI priors on these channels that could\ndiffer by orders of magnitude.\n\nHere are some important considerations when setting ROI priors:\n\n- There is no specific formula to translate an experiment result into a prior.\n One option is to align the experiment's point estimate and standard error with\n the prior mean and standard error (see an example in [Set custom priors using\n past experiments](/meridian/docs/advanced-modeling/set-custom-priors-past-experiments)).\n However, prior knowledge in the Bayesian sense is more broadly defined, and\n doesn't need to be a formulaic calculation. Other domain knowledge can be used\n in combination with experiment results to subjectively set the priors.\n\n- Meridian's default ROI prior distribution is Log-normal. This\n distribution was chosen as the default because it has two parameters, which\n gives control over both the mean and standard deviation. However, any\n distribution with any number of parameters can be used in place of\n Log-normal. Generally, it's not recommended to allow negative ROI values\n because this can inflate the posterior variance and lead to overfitting.\n\n- The ROI measured by an experiment never aligns perfectly with the ROI measured\n by MMM. (In statistical terms, the experiment and MMM have different\n estimands.) Experiments are always related to the specific conditions of the\n experiment, such as the time window, geographic regions, campaign settings.\n Experiment results can provide highly relevant information about the MMM ROI,\n but translating experiment results to an MMM prior involves an additional\n layer of uncertainty beyond only the experiment's standard error.\n\n- When setting prior distributions, and prior standard deviations in particular:\n\n - Consider that some degree of regularization is typically necessary to\n achieve a suitable bias-variance tradeoff. Although some modelers might be\n inclined to use flat, noninformative priors for channels with no prior\n experiments, this can lead to overfitting and poor results (low bias but\n high variance).\n\n - Finding an appropriate degree of regularization can be an iterative process\n that involves checking out-of-sample model fit at various regularization\n strengths. Bayesian purists might argue against this because the posterior\n distribution doesn't have a clear interpretation unless the prior\n distribution precisely reflects prior knowledge. Although this is true, such\n an approach is not necessarily practical for MMM. Furthermore, it is\n infeasible to obtain domain knowledge and set a true prior on every single\n parameter in the model, and Bayesian inference should be interpreted\n accordingly.\n\nFor more information, see:\n\n- [ROI priors](/meridian/docs/advanced-modeling/roi-priors-and-calibration) for technical details.\n- [Tune the ROI calibration](/meridian/docs/user-guide/configure-model#tune-roi-calibration) for how to set ROI priors based on experiment results.\n- [Set the ROI calibration period](/meridian/docs/user-guide/configure-model#set-roi-calibration-period) for using the `roi_calibration_period` argument to apply your ROI prior to a narrower time window."]]