国内最大級の掲載数 × 最短1分で探せるAI検索

▶︎ 情報掲載をご希望の方へ

メルマガに登録(無料)
  1. AI BEST SEARCH
  2. AI関連用語集・キーワード一覧【AI BEST SEARCH】
  3. 過学習(Overfitting)

過学習(Overfitting)

過学習(Overfitting)とは、機械学習モデルが訓練データに過剰に適合しすぎた結果、未知のデータ(テストデータや実運用データ)に対して汎化性能が著しく低下する現象を指します。 モデルがノイズや例外的なデータまでも「学習」してしまうことで、見かけ上の精度は高くても、実際の予測精度は悪化してしまうのが特徴です。 たとえば、画像認識モデルが訓練画像の背景や影の特徴まで覚えてしまい、新しい画像では正しく分類できなくなるようなケースが典型です。 これは「記憶はしているが、理解していない」状態とも言え、本質的なパターンを捉えられていないことが問題となります。 過学習が発生する主な要因: • モデルの容量(パラメータ数)が大きすぎる • 学習データに対してモデルが複雑すぎる • 学習エポック数が多すぎる • 訓練データが少ない、または偏っている • 正則化やドロップアウトなどの対策が不十分 過学習を防ぐための代表的な対策: • モデルの複雑さを抑える(過剰な深層構造を避ける) • 早期終了(Early Stopping)で最適なタイミングで学習を止める • L1/L2正則化を加える • ドロップアウト(Dropout)などの汎化技術を活用する • データ拡張(Data Augmentation)やクロスバリデーションの実施 • 学習データを増やす、または分布を整える 過学習は、アンダーフィッティング(学習不足)と並んで、機械学習の性能チューニングで避けるべき代表的な落とし穴の一つです。 実務では、訓練精度とテスト精度のギャップを監視しながら、適切な汎化性能を持つモデルの構築が求められます。