relu
Sintassi
Descrizione
L'operazione di attivazione dell'unità lineare rettificata ReLU esegue un'operazione di soglia non lineare, dove qualsiasi valore di input inferiore a zero viene impostato su zero.
Questa operazione è equivalente a
Nota
Questa funzione applica l'operazione ReLU sui dati dlarray
. Se si desidera applicare l’attivazione ReLU all'interno di un oggetto layerGraph
o di un array di Layer
, utilizzare il seguente livello:
Esempi
Argomenti di input
Argomenti di output
Funzionalità estese
Cronologia versioni
Introdotto in R2019b