- AI BEST SEARCH
- AI関連用語集・キーワード一覧【AI BEST SEARCH】
- モデルモニタリング(Model Monitoring)
モデルモニタリング(Model Monitoring)
モデルモニタリング(Model Monitoring)とは、機械学習モデルやAIモデルを本番環境で運用する際に、その挙動や予測結果を継続的に監視し、異常や性能劣化を検知するためのプロセスです。 単にモデルをデプロイするだけでなく、運用中も品質を維持し続けるために不可欠なMLOps(Machine Learning Operations)の重要な要素です。 AIモデルは時間の経過とともに、学習時と異なるデータにさらされることで、**精度の低下やバイアスの偏り、ドリフト(分布の変化)**といった問題が発生します。これを放置すると、誤った意思決定や信頼性の低下につながるため、モデルモニタリングによって以下のような指標や挙動を監視します: • 予測精度の変化(Accuracy、F1スコアなど) • データドリフト・コンセプトドリフト(入力データや正解との関係の変化) • 異常な出力傾向(特定のラベルへの偏り、過剰な確信度など) • レスポンスタイムやスループット(パフォーマンス上の監視) • ユーザーからのフィードバックやA/Bテスト結果 モニタリングの結果をもとに、再学習のタイミングを判断したり、アラートを出して人手による確認や差し替え対応を行うこともあります。 代表的なツールには、**Evidently AI、Arize AI、WhyLabs、Prometheus + Grafana(メトリクス可視化)**などがあり、MLOpsパイプラインに組み込まれることが多くなっています。 モデルモニタリングは、**AIをビジネスに安全かつ持続的に活用するための“保守と信頼の仕組み”**であり、特に法規制や倫理要件が求められる業界(金融、医療など)では不可欠な運用体制となっています。