新しく開設された
Discord コミュニティに参加して、リアルタイムのディスカッション、ユーザー同士のサポート、メリディアン チームとの直接の交流をお楽しみください。
ROI 事前分布と調整
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
ROI 事前分布を使用すると、過去のテスト結果などの専門知識をモデルに直感的に組み込むことができるため、モデルのトレーニング プロセスの参考になります。
ROI のテスト結果を使用してチャネル固有の ROI 事前分布を設定することを、メリディアンでは「調整」と呼んでいます。ROI 事前分布を利用するのに、テスト結果は必要ありません。ROI 事前分布は、情報を伝えるためにどのようなデータが利用可能なのかにかかわらず推奨されるアプローチです。
ROI 事前分布により、効果的な係数の事前分布が、各チャネルの費用に応じた適切なスケールになります。係数の事前分布は無情報事前分布よりも優れていると思われがちですが、そうではありません。すべてのチャネルで同じ無情報係数事前分布を使用すると、事実上それらのチャネルに対して大幅に異なる ROI 事前分布を適用することになり、その差は桁違いに大きくなる可能性があります。
ROI 事前分布を設定するときに考慮すべき重要な事項は次のとおりです。
テスト結果を事前分布に変換する公式は特にありません。選択肢の一つとして、テストの点推定値と標準誤差を、事前分布の平均値と標準誤差に合わせる方法が挙げられます(過去のテストを基にカスタムの事前分布を設定するの例をご覧ください)。ただし、ベイズ推定における事前知識はより広範に定義されており、定式化された計算である必要はありません。他の専門知識をテスト結果と組み合わせて使用すると、事前分布を主観的に設定できます。
メリディアンのデフォルトの ROI 事前分布は対数正規分布です。この分布がデフォルトとして選択されたのは、平均と標準偏差の両方を制御できる 2 つのパラメータがあるためです。ただし、対数正規分布の代わりに、任意の数のパラメータを持つ分布を使用することもできます。通常、負の ROI 値を許可することはおすすめしません。事後分散が大きくなり、過剰適合につながるおそれがあるためです。
テストで測定した ROI と MMM で測定した ROI が完全に一致することは決してありません(統計用語で言うと、テストと MMM ではエスティマンドが異なります)。テストは常に、期間、地域、キャンペーン設定など、テストの特定の条件に関連しています。テスト結果から MMM の ROI に関連性の高い情報を得ることができますが、テスト結果を MMM の事前分布に変換する場合、テストの標準誤差を超える不確実性が生じます。
事前分布、特に事前標準偏差を設定する際は、次の点に注意してください。
通常、バイアスと分散の適切なトレードオフを実現するには、ある程度の正則化が必要になります。事前テストを実施していないチャネルに対して、フラットで情報のない事前分布を使用したいと考えるモデル作成者もいるかもしれませんが、これは過剰適合や不十分な結果(バイアスは小さいが分散が大きい)につながる可能性があります。
適切な正則化の程度を見つけるには、さまざまな正則化の強さでサンプル外のモデルの適合度をチェックする反復的なプロセスが必要になる場合があります。事前分布が事前知識を正確に反映していない限り、事後分布には明確な解釈がないため、ベイズ理論を厳密に捉える人はこれに反対するかもしれません。とはいえ、MMM ではそのようなアプローチは必ずしも実用的ではありません。さらに、専門知識を得てモデル内のパラメータ一つひとつに正しい事前分布を設定することは不可能です。ベイズ推定はそのことを踏まえて解釈する必要があります。
詳しくは以下をご覧ください。
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2025-08-04 UTC。
[null,null,["最終更新日 2025-08-04 UTC。"],[[["\u003cp\u003eROI priors allow you to incorporate domain knowledge, like past experiment results, to guide model training and improve accuracy.\u003c/p\u003e\n"],["\u003cp\u003eMeridian's calibration process uses channel-specific ROI priors, ideally informed by experiment results but not strictly required.\u003c/p\u003e\n"],["\u003cp\u003eWhile experiment results offer valuable insights for setting ROI priors, they should be interpreted cautiously, considering the inherent differences between experimental and MMM measurements.\u003c/p\u003e\n"],["\u003cp\u003eFinding the optimal level of regularization for your model often involves an iterative process to balance bias and variance, even if it deviates from a purely Bayesian approach.\u003c/p\u003e\n"],["\u003cp\u003eThe default Log-normal distribution for ROI priors is recommended, but other distributions can be used as long as they avoid negative ROI values to prevent overfitting.\u003c/p\u003e\n"]]],["ROI priors incorporate domain knowledge into model training, ideally using past experiment results for channel-specific *calibration*. Though, experiment data isn't mandatory for setting priors. The default log-normal distribution is recommended, avoiding negative values. Translating experiment outcomes to MMM priors involves uncertainty, as experiments don't perfectly align with MMM ROI. Setting priors, especially standard deviations, requires regularization to avoid overfitting. The degree of regularization may require iteration.\n"],null,["# ROI priors and calibration\n\nROI priors offer an intuitive way to incorporate domain knowledge, such as past\nexperiment results, into your model to help guide the model training process.\n\nWhen ROI experiment results are used to set channel-specific ROI priors,\nMeridian refers to this as *calibration*. It isn't necessary to have\nexperiment results in order to utilize ROI priors. ROI priors are the recommended\napproach regardless of what data is available to inform them.\n\nROI priors ensure that the effective coefficient prior is on a scale that is\nappropriate relative to the spend for each channel. It can be tempting to think\nthat coefficient priors make better non-informative priors, but this isn't the\ncase. If you use the same non-informative coefficient prior on all channels, you\nare effectively placing very different ROI priors on these channels that could\ndiffer by orders of magnitude.\n\nHere are some important considerations when setting ROI priors:\n\n- There is no specific formula to translate an experiment result into a prior.\n One option is to align the experiment's point estimate and standard error with\n the prior mean and standard error (see an example in [Set custom priors using\n past experiments](/meridian/docs/advanced-modeling/set-custom-priors-past-experiments)).\n However, prior knowledge in the Bayesian sense is more broadly defined, and\n doesn't need to be a formulaic calculation. Other domain knowledge can be used\n in combination with experiment results to subjectively set the priors.\n\n- Meridian's default ROI prior distribution is Log-normal. This\n distribution was chosen as the default because it has two parameters, which\n gives control over both the mean and standard deviation. However, any\n distribution with any number of parameters can be used in place of\n Log-normal. Generally, it's not recommended to allow negative ROI values\n because this can inflate the posterior variance and lead to overfitting.\n\n- The ROI measured by an experiment never aligns perfectly with the ROI measured\n by MMM. (In statistical terms, the experiment and MMM have different\n estimands.) Experiments are always related to the specific conditions of the\n experiment, such as the time window, geographic regions, campaign settings.\n Experiment results can provide highly relevant information about the MMM ROI,\n but translating experiment results to an MMM prior involves an additional\n layer of uncertainty beyond only the experiment's standard error.\n\n- When setting prior distributions, and prior standard deviations in particular:\n\n - Consider that some degree of regularization is typically necessary to\n achieve a suitable bias-variance tradeoff. Although some modelers might be\n inclined to use flat, noninformative priors for channels with no prior\n experiments, this can lead to overfitting and poor results (low bias but\n high variance).\n\n - Finding an appropriate degree of regularization can be an iterative process\n that involves checking out-of-sample model fit at various regularization\n strengths. Bayesian purists might argue against this because the posterior\n distribution doesn't have a clear interpretation unless the prior\n distribution precisely reflects prior knowledge. Although this is true, such\n an approach is not necessarily practical for MMM. Furthermore, it is\n infeasible to obtain domain knowledge and set a true prior on every single\n parameter in the model, and Bayesian inference should be interpreted\n accordingly.\n\nFor more information, see:\n\n- [ROI priors](/meridian/docs/advanced-modeling/roi-priors-and-calibration) for technical details.\n- [Tune the ROI calibration](/meridian/docs/user-guide/configure-model#tune-roi-calibration) for how to set ROI priors based on experiment results.\n- [Set the ROI calibration period](/meridian/docs/user-guide/configure-model#set-roi-calibration-period) for using the `roi_calibration_period` argument to apply your ROI prior to a narrower time window."]]