Main Content

La traduzione di questa pagina non è aggiornata. Fai clic qui per vedere l'ultima versione in inglese.

reluLayer

Livello dell’unità lineare rettificata (ReLU)

Descrizione

Un livello ReLU esegue un'operazione di soglia su ciascun elemento di input, dove qualsiasi valore inferiore a zero viene impostato su zero.

Questa operazione è equivalente a

f(x)={x,x00,x<0.

Creazione

Descrizione

layer = reluLayer crea un livello ReLU.

esempio

layer = reluLayer('Name',Name) crea un livello ReLU e imposta la proprietà opzionale Name utilizzando una coppia nome-valore. Ad esempio, reluLayer('Name','relu1') crea un livello ReLU con il nome 'relu1'.

Proprietà

espandi tutto

Nome del livello, specificato come un vettore di carattere o uno scalare di stringa. Per l’input dell’array di Layer, le funzioni trainNetwork, assembleNetwork, layerGraph e dlnetwork assegnano automaticamente i nomi ai livelli con il nome ''.

Tipi di dati: char | string

proprietà è di sola lettura.

Numero di input del livello. Questo livello accetta solo un input singolo.

Tipi di dati: double

proprietà è di sola lettura.

Nomi di input del livello. Questo livello accetta solo un input singolo.

Tipi di dati: cell

proprietà è di sola lettura.

Numero di output del livello. Questo livello ha solo un output singolo.

Tipi di dati: double

proprietà è di sola lettura.

Nomi di output del livello. Questo livello ha solo un output singolo.

Tipi di dati: cell

Esempi

comprimi tutto

Creare un livello ReLU con il nome 'relu1'.

layer = reluLayer('Name','relu1')
layer = 
  ReLULayer with properties:

    Name: 'relu1'

Includere un livello ReLU in un array di Layer.

layers = [ ...
    imageInputLayer([28 28 1])
    convolution2dLayer(5,20)
    reluLayer
    maxPooling2dLayer(2,'Stride',2)
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer]
layers = 
  7x1 Layer array with layers:

     1   ''   Image Input             28x28x1 images with 'zerocenter' normalization
     2   ''   2-D Convolution         20 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   ReLU                    ReLU
     4   ''   2-D Max Pooling         2x2 max pooling with stride [2  2] and padding [0  0  0  0]
     5   ''   Fully Connected         10 fully connected layer
     6   ''   Softmax                 softmax
     7   ''   Classification Output   crossentropyex

Ulteriori informazioni

espandi tutto

Riferimenti

[1] Nair, Vinod, and Geoffrey E. Hinton. "Rectified linear units improve restricted boltzmann machines." In Proceedings of the 27th international conference on machine learning (ICML-10), pp. 807-814. 2010.

Funzionalità estese

Generazione di codice C/C++
Genera codice C e C++ con MATLAB® Coder™.

Generazione di codice GPU
Genera codice CUDA® per GPU NVIDIA® con GPU Coder™.

Cronologia versioni

Introdotto in R2016a