dポイントと交換できるWelcome!スタンプをあつめよう
辞書
機械学習の多層化したニューラルネットワークにおいて、ある段階を越えると学習が進まなくなること。学習は予測値と実際の値の誤差を最小化する過程で進むが、活性化関数の勾配がゼロに近づくことによって、ネットワークの重み付けの修正ができなくなり、結果的に層数が増えるほど学習が困難となる。活性化関数としてシグモイド関数ではなく、ReLU関数を用いると勾配消失が起こりにくくなることが知られる。
出典:デジタル大辞泉(小学館)
1位
2位
3位
4位
5位
6位
7位
8位
9位
10位
11位
12位
13位
14位
15位