Main Content

La traduzione di questa pagina non è aggiornata. Fai clic qui per vedere l'ultima versione in inglese.

Operazioni

Sviluppare funzioni di Deep Learning personalizzate

È possibile utilizzare i livelli integrati per la maggior parte delle attività. Se non è presente un livello integrato necessario per l’attività, è possibile definire un proprio livello personalizzato. È possibile definire livelli personalizzati con parametri apprendibili e di stato. Dopo aver definito un livello personalizzato, è possibile verificare che il livello sia valido, compatibile con la GPU e che produca gradienti definiti correttamente. Per saperne di più, vedere Define Custom Deep Learning Layers. Per un elenco dei livelli di supportati, vedere List of Deep Learning Layers.

Se la funzione trainingOptions non fornisce le opzioni di addestramento necessarie per l'attività o se è presente una funzione di perdita non supportata dalla funzione trainnet, è possibile definire un loop di addestramento personalizzato. Per i modelli che non possono essere specificati come reti di livelli, è possibile definire il modello come funzione. Per saperne di più, vedere Define Custom Training Loops, Loss Functions, and Networks.

Utilizzare le operazioni di Deep Learning per sviluppare codice MATLAB® per i livelli personalizzati, i loop di addestramento e le funzioni del modello.

Funzioni

espandi tutto

dlarrayDeep learning array for customization
dimsEtichette della dimensione di dlarray
finddimFind dimensions with specified label
stripdimsRemove dlarray data format
extractdataEstrae i dati da dlarray
isdlarrayCheck if object is dlarray (Da R2020b)
dlconvDeep learning convolution
dltranspconvDeep learning transposed convolution
lstmLong short-term memory
gruGated recurrent unit (Da R2020a)
attentionDot-product attention (Da R2022b)
embedEmbed discrete data (Da R2020b)
fullyconnectSum all weighted input data and apply a bias
dlode45Deep learning solution of nonstiff ordinary differential equation (ODE) (Da R2021b)
batchnormNormalize data across all observations for each channel independently
crosschannelnormCross channel square-normalize using local responses (Da R2020a)
groupnormNormalize data across grouped subsets of channels for each observation independently (Da R2020b)
instancenormNormalize across each channel for each observation independently (Da R2021a)
layernormNormalize data across all channels for each observation independently (Da R2021a)
avgpoolPool data to average values over spatial dimensions
maxpoolPool data to maximum value
maxunpoolUnpool the output of a maximum pooling operation
reluApplicare l'attivazione dell'unità lineare rettificata
leakyreluApply leaky rectified linear unit activation
geluApply Gaussian error linear unit (GELU) activation (Da R2022b)
softmaxApply softmax activation to channel dimension
sigmoidApplica l’attivazione sigmoidea
crossentropyCross-entropy loss for classification tasks
l1lossL1 loss for regression tasks (Da R2021b)
l2lossL2 loss for regression tasks (Da R2021b)
huberHuber loss for regression tasks (Da R2021a)
mseHalf mean squared error
ctcConnectionist temporal classification (CTC) loss for unaligned sequence classification (Da R2021a)
dlaccelerateAccelerate deep learning function for custom training loops (Da R2021a)
AcceleratedFunctionAccelerated deep learning function (Da R2021a)
clearCacheClear accelerated deep learning function trace cache (Da R2021a)

Argomenti

Differenziazione automatica

Funzioni del modello

Accelerazione della funzione di Deep Learning

Esempi in primo piano