Main Content

relu

Applicare l'attivazione dell'unità lineare rettificata

Da R2019b

Sintassi

Descrizione

L'operazione di attivazione dell'unità lineare rettificata ReLU esegue un'operazione di soglia non lineare, dove qualsiasi valore di input inferiore a zero viene impostato su zero.

Questa operazione è equivalente a

f(x)={x,x>00,x0.

Nota

Questa funzione applica l'operazione ReLU sui dati dlarray. Se si desidera applicare l’attivazione ReLU all'interno di un oggetto layerGraph o di un array di Layer, utilizzare il seguente livello:

esempio

Y = relu(X) calcola l’attivazione ReLU dell’input X applicando un’operazione di soglia. Tutti i valori in X inferiori a zero vengono impostati su zero.

Esempi

comprimi tutto

Creare un oggetto formattato dlarray contenente un batch di 128 immagini 28x28 con 3 canali. Specificare il formato 'SSCB' (spaziale, spaziale, canale, batch).

miniBatchSize = 128;
inputSize = [28 28];
numChannels = 3;
X = rand(inputSize(1),inputSize(2),numChannels,miniBatchSize);
X = dlarray(X,"SSCB");

Visualizzare la dimensione e il formato dei dati di input.

size(X)
ans = 1×4

    28    28     3   128

dims(X)
ans = 
'SSCB'

Applicare l’operazione ReLU utilizzando la funzione relu.

Y = relu(X);

Visualizzare la dimensione e il formato dell’output.

size(Y)
ans = 1×4

    28    28     3   128

dims(Y)
ans = 
'SSCB'

Argomenti di input

comprimi tutto

Dati di input, specificati come un oggetto dlarray formattato o non formattato.

Argomenti di output

comprimi tutto

Attivazioni ReLU, restituite come un dlarray. L’output Y ha lo stesso tipo di dati dei dati sottostanti dell’input X.

Se i dati di input X sono un dlarray formattato, Y ha la stessa dimensione di formato di X. Se i dati di input non sono un dlarray formattato, Y è un dlarray non formattato con lo stesso ordine di dimensione dei dati di input.

Funzionalità estese

Cronologia versioni

Introdotto in R2019b