reluLayer
Livello dell’unità lineare rettificata (ReLU)
Descrizione
Un livello ReLU esegue un'operazione di soglia su ciascun elemento di input, dove qualsiasi valore inferiore a zero viene impostato su zero.
Questa operazione è equivalente a
Creazione
Proprietà
Esempi
Ulteriori informazioni
Riferimenti
[1] Nair, Vinod, and Geoffrey E. Hinton. "Rectified linear units improve restricted boltzmann machines." In Proceedings of the 27th international conference on machine learning (ICML-10), pp. 807-814. 2010.
Funzionalità estese
Cronologia versioni
Introdotto in R2016a
Vedi anche
trainNetwork
| batchNormalizationLayer
| leakyReluLayer
| clippedReluLayer
| swishLayer
| Deep Network Designer