- AI BEST SEARCH
- AI関連用語集・キーワード一覧【AI BEST SEARCH】
- 損失関数(Loss Function)
損失関数(Loss Function)
損失関数(Loss Function)とは、機械学習モデルが出力した予測値と、実際の正解ラベルとのズレ(誤差)を数値的に表す関数です。 モデルの性能を定量的に評価し、どれだけ「間違っているか」を測るための指標となります。 学習の過程では、この損失関数の値を最小化することを目標に、モデルのパラメータ(重みやバイアス)が調整されていきます。 損失関数の値が大きいほど予測が正解から遠く、小さいほど精度の高いモデルであることを意味します。 ニューラルネットワークでは、バックプロパゲーション(誤差逆伝播)を通じて、この損失をもとに勾配を計算し、パラメータを最適化していきます。 主な損失関数の種類は、タスクの種類によって使い分けられます: 【回帰問題で使われる損失関数】 • 平均二乗誤差(MSE:Mean Squared Error) → 誤差の2乗の平均。外れ値に敏感 • 平均絶対誤差(MAE:Mean Absolute Error) → 誤差の絶対値の平均。外れ値にやや強い 【分類問題で使われる損失関数】 • クロスエントロピー損失(Cross-Entropy Loss) → 確率的な出力に対する損失。クラス分類タスクで主流 • ヒンジ損失(Hinge Loss) → サポートベクターマシン(SVM)で使用 【その他の損失関数】 • KLダイバージェンス(Kullback–Leibler Divergence) • ハッジ損失、ハブアー損失など、タスクやモデルに応じて多種多様な設計がある 損失関数の選定は、モデルの精度や学習の安定性に大きく影響するため非常に重要です。 また、最近ではタスクごとに工夫されたカスタム損失関数や、複数の指標を組み合わせた複合的な設計も広く行われています。 損失関数は、AIが「何を間違っているのか」を知るための基盤的な仕組みであり、機械学習や深層学習において不可欠な要素のひとつです。