- AI BEST SEARCH
- AI関連用語集・キーワード一覧【AI BEST SEARCH】
- LSTM(Long Short-Term Memory)
LSTM(Long Short-Term Memory)
LSTM(Long Short-Term Memory)とは、時系列データや自然言語のような順序を持つ情報を扱うために設計された、リカレントニューラルネットワーク(RNN)の一種です。 1997年にSepp HochreiterとJürgen Schmidhuberによって提案され、従来のRNNが抱えていた「長期依存性の学習が難しい」という問題を解決した画期的なモデルとして広く利用されています。 LSTMの最大の特徴は、「記憶セル(Cell)」と呼ばれる構造を持ち、情報を長期間保持・忘却するメカニズムが組み込まれている点です。 この記憶の管理は、3つのゲート構造によって制御されます: 1. 入力ゲート(Input Gate):新しい情報をどれだけ記憶するかを決定 2. 忘却ゲート(Forget Gate):過去の情報をどれだけ忘れるかを決定 3. 出力ゲート(Output Gate):どの情報を出力するかを制御 これにより、LSTMは長期的な文脈やパターンを捉える能力に優れ、通常のRNNでは難しかった長期依存関係を扱うことが可能になります。 主な活用例: • 機械翻訳や文章生成などの自然言語処理タスク • 株価や需要などの時系列予測 • 音声認識や音楽生成 • センサーデータによる異常検知 • 動作・行動認識などの動画解析 LSTMは後に登場したTransformerベースのモデル(例:BERTやGPT)によって主役の座を譲りましたが、今なお軽量で堅実なアーキテクチャとして、リソース制限のある環境や構造がシンプルなタスクで活用され続けています。