Main Content

Operazioni

Sviluppare funzioni di Deep Learning personalizzate

È possibile utilizzare i livelli integrati per la maggior parte delle attività. Se non è presente un livello integrato necessario per l’attività, è possibile definire un proprio livello personalizzato. È possibile definire livelli personalizzati con parametri apprendibili e di stato. Dopo aver definito un livello personalizzato, è possibile verificare che il livello sia valido, compatibile con la GPU e che produca gradienti definiti correttamente. Per saperne di più, vedere Define Custom Deep Learning Layers. Per un elenco dei livelli di supportati, vedere List of Deep Learning Layers.

Se la funzione trainingOptions non fornisce le opzioni di addestramento necessarie per l'attività o se è presente una funzione di perdita non supportata dalla funzione trainnet, è possibile definire un loop di addestramento personalizzato. Per i modelli che non possono essere specificati come reti di livelli, è possibile definire il modello come funzione. Per saperne di più, vedere Define Custom Training Loops, Loss Functions, and Networks.

Utilizzare le operazioni di Deep Learning per sviluppare codice MATLAB® per i livelli personalizzati, i loop di addestramento e le funzioni del modello.

Funzioni

espandi tutto

dlarrayDeep learning array for customization (Da R2019b)
dimsEtichette della dimensione di dlarray (Da R2019b)
finddimFind dimensions with specified label (Da R2019b)
stripdimsRemove dlarray data format (Da R2019b)
extractdataEstrae i dati da dlarray (Da R2019b)
isdlarrayCheck if object is dlarray (Da R2020b)
dlconvDeep learning convolution (Da R2019b)
dltranspconvDeep learning transposed convolution (Da R2019b)
lstmLong short-term memory (Da R2019b)
gruGated recurrent unit (Da R2020a)
attentionDot-product attention (Da R2022b)
embedEmbed discrete data (Da R2020b)
fullyconnectSum all weighted input data and apply a bias (Da R2019b)
dlode45Deep learning solution of nonstiff ordinary differential equation (ODE) (Da R2021b)
batchnormNormalize data across all observations for each channel independently (Da R2019b)
crosschannelnormCross channel square-normalize using local responses (Da R2020a)
groupnormNormalize data across grouped subsets of channels for each observation independently (Da R2020b)
instancenormNormalize across each channel for each observation independently (Da R2021a)
layernormNormalize data across all channels for each observation independently (Da R2021a)
avgpoolPool data to average values over spatial dimensions (Da R2019b)
maxpoolPool data to maximum value (Da R2019b)
maxunpoolUnpool the output of a maximum pooling operation (Da R2019b)
reluApplicare l'attivazione dell'unità lineare rettificata (Da R2019b)
leakyreluApply leaky rectified linear unit activation (Da R2019b)
geluApply Gaussian error linear unit (GELU) activation (Da R2022b)
softmaxApply softmax activation to channel dimension (Da R2019b)
sigmoidApplica l’attivazione sigmoidea (Da R2019b)
crossentropyCross-entropy loss for classification tasks (Da R2019b)
l1lossL1 loss for regression tasks (Da R2021b)
l2lossL2 loss for regression tasks (Da R2021b)
huberHuber loss for regression tasks (Da R2021a)
mseHalf mean squared error (Da R2019b)
ctcConnectionist temporal classification (CTC) loss for unaligned sequence classification (Da R2021a)
dlaccelerateAccelerate deep learning function for custom training loops (Da R2021a)
AcceleratedFunctionAccelerated deep learning function (Da R2021a)
clearCacheClear accelerated deep learning function trace cache (Da R2021a)

Argomenti

Differenziazione automatica

Funzioni del modello

Accelerazione della funzione di Deep Learning