Main Content

reluLayer

Livello dell’unità lineare rettificata (ReLU)

Descrizione

Un livello ReLU esegue un'operazione di soglia su ciascun elemento di input, dove qualsiasi valore inferiore a zero viene impostato su zero.

Questa operazione è equivalente a

f(x)={x,x00,x<0.

Creazione

Descrizione

layer = reluLayer crea un livello ReLU.

esempio

layer = reluLayer('Name',Name) crea un livello ReLU e imposta la proprietà opzionale Name utilizzando una coppia nome-valore. Ad esempio, reluLayer('Name','relu1') crea un livello ReLU con il nome 'relu1'.

Proprietà

espandi tutto

Nome del livello, specificato come un vettore di carattere o uno scalare di stringa. Per l'input dell'array di Layer, le funzioni trainnet e dlnetwork assegnano automaticamente i nomi ai livelli con il nome "".

L'oggetto ReLULayer memorizza questa proprietà come vettore di carattere.

Tipi di dati: char | string

proprietà è di sola lettura.

Numero di input al livello, restituito come 1. Questo livello accetta solo un input singolo.

Tipi di dati: double

proprietà è di sola lettura.

Nomi di input, restituiti come {'in'}. Questo livello accetta solo un input singolo.

Tipi di dati: cell

proprietà è di sola lettura.

Numero di output dal livello, restituito come 1. Questo livello ha solo un output singolo.

Tipi di dati: double

proprietà è di sola lettura.

Nomi di output, restituiti come {'out'}. Questo livello ha solo un output singolo.

Tipi di dati: cell

Esempi

comprimi tutto

Creare un livello ReLU con il nome relu1.

layer = reluLayer(Name="relu1")
layer = 
  ReLULayer with properties:

    Name: 'relu1'

Includere un livello ReLU in un array di Layer.

layers = [ ...
    imageInputLayer([28 28 1])
    convolution2dLayer(5,20)
    reluLayer
    maxPooling2dLayer(2,Stride=2)
    fullyConnectedLayer(10)
    softmaxLayer]
layers = 
  6x1 Layer array with layers:

     1   ''   Image Input       28x28x1 images with 'zerocenter' normalization
     2   ''   2-D Convolution   20 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   ReLU              ReLU
     4   ''   2-D Max Pooling   2x2 max pooling with stride [2  2] and padding [0  0  0  0]
     5   ''   Fully Connected   10 fully connected layer
     6   ''   Softmax           softmax

Ulteriori informazioni

espandi tutto

Riferimenti

[1] Nair, Vinod, and Geoffrey E. Hinton. "Rectified linear units improve restricted boltzmann machines." In Proceedings of the 27th international conference on machine learning (ICML-10), pp. 807-814. 2010.

Funzionalità estese

Generazione di codice C/C++
Genera codice C e C++ con MATLAB® Coder™.

Generazione di codice GPU
Genera codice CUDA® per GPU NVIDIA® con GPU Coder™.

Cronologia versioni

Introdotto in R2016a