誤差逆伝搬型ニューラ​ルネットワークの伝達​関数として ReLU (Rectified Linear Unit) は対応していますか?

5 visualizzazioni (ultimi 30 giorni)
現在、誤差逆伝搬型型ニューラルネットの出力関数にシグモイド関数を使用していますが、これを「ReLU(Rectified Linear Unit)」に変更したいと考えておりますがToolboxとして対応していますか?

Risposta accettata

MathWorks Support Team
MathWorks Support Team il 24 Mar 2017
ReLU(Rectified Linear Unit) 関数は、 poslin() としてご利用頂く事が可能です。 
>> doc poslin 
にて、伝達関数の形を確認することが可能です。 

Più risposte (0)

Categorie

Scopri di più su Deep Learning Toolbox in Help Center e File Exchange

Prodotti


Release

R2015b

Community Treasure Hunt

Find the treasures in MATLAB Central and discover how the community can help you!

Start Hunting!