• 意味
  • 例文
  • 慣用句
  • 画像

機械学習の多層化したニューラルネットワークにおいて、ある段階を越えると学習が進まなくなること。学習は予測値と実際の値の誤差を最小化する過程で進むが、活性化関数勾配がゼロに近づくことによって、ネットワークの重み付けの修正ができなくなり、結果的に層数が増えるほど学習困難となる。活性化関数としてシグモイド関数ではなく、ReLU関数を用いると勾配消失が起こりにくくなることが知られる。

goo辞書は無料で使える辞書・辞典の検索サービスです。1999年にポータルサイト初の辞書サービスとして提供を開始しました。出版社による信頼性の高い語学辞典(国語辞書、英和辞書、和英辞書、類語辞書、四字熟語、漢字など)と多種多様な専門用語集を配信しています。すべての辞書をまとめて検索する「横断検索」と特定の辞書を検索する「個別検索」が可能です。国語辞書ではニュース記事や青空文庫での言葉の使用例が確認でき、使い方が分からない時に便利です。