誤差逆伝搬型ニューラルネットワークの伝達関数として ReLU (Rectified Linear Unit) は対応していますか?
5 visualizzazioni (ultimi 30 giorni)
Mostra commenti meno recenti
MathWorks Support Team
il 24 Mar 2017
Risposto: MathWorks Support Team
il 24 Mar 2017
現在、誤差逆伝搬型型ニューラルネットの出力関数にシグモイド関数を使用していますが、これを「ReLU(Rectified Linear Unit)」に変更したいと考えておりますがToolboxとして対応していますか?
Risposta accettata
MathWorks Support Team
il 24 Mar 2017
ReLU(Rectified Linear Unit) 関数は、 poslin() としてご利用頂く事が可能です。
>> doc poslin
にて、伝達関数の形を確認することが可能です。
0 Commenti
Più risposte (0)
Vedere anche
Categorie
Scopri di più su Deep Learning Toolbox in Help Center e File Exchange
Community Treasure Hunt
Find the treasures in MATLAB Central and discover how the community can help you!
Start Hunting!