regressionLayer中での計算について

4 visualizzazioni (ultimi 30 giorni)
Kenta
Kenta il 27 Set 2018
Modificato: Tohru Kikawada il 28 Set 2018
regressionLayer中で、どのような計算を行い、回帰を行っているかを知りたいです。(https://jp.mathworks.com/help/deeplearning/ref/regressionlayer.html) 例えば、畳み込みニューラル ネットワークを使用して回帰モデルにあてはめ、定量的な予測する場合(例:https://jp.mathworks.com/help/deeplearning/examples/train-a-convolutional-neural-network-for-regression.html)、畳み込み層などから抽出した特徴量に対して最小二乗法による線形回帰を行い、そこで得られた最適な式を用いて回帰予測を行っている、という解釈で正しいでしょうか。

Risposta accettata

Tohru Kikawada
Tohru Kikawada il 28 Set 2018
Modificato: Tohru Kikawada il 28 Set 2018
Deep Learning Toolboxの RegressionOutputLayer では損失関数を平均二乗誤差として定義しています。したがって、 畳み込み層、全結合層などの出力値と真値の平均二乗誤差が最小になるように、誤差逆伝搬アルゴリズムで各フィルタの重みやバイアスが調整されます。誤差逆伝搬アルゴリズム(ソルバー)がどのように係数を更新するかについては 確率的勾配降下法 の項目をご覧ください。
一方、ご自身で損失関数を定義することも可能です。 たとえば、 カスタム回帰出力層の定義 のように平均絶対誤差 (MAE) を損失関数として定義することも可能です。
  1 Commento
Kenta
Kenta il 28 Set 2018
ご回答いただき、誠にありがとうございます。 カスタム回帰出力層の定義も参考にし、他の損失関数も定義して、試してみようと思います。ありがとうございました。

Accedi per commentare.

Più risposte (0)

Categorie

Scopri di più su Deep Learning Toolbox in Help Center e File Exchange

Community Treasure Hunt

Find the treasures in MATLAB Central and discover how the community can help you!

Start Hunting!