Main Content

La traduzione di questa pagina non è aggiornata. Fai clic qui per vedere l'ultima versione in inglese.

Personalizzazione dei loop di addestramento

Personalizzare i loop di addestramento Deep Learning e le funzioni di perdita per le reti di immagini

Se la funzione trainingOptions non fornisce le opzioni di addestramento necessarie per l'attività o se è presente una funzione di perdita non supportata dalla funzione trainnet, è possibile definire un loop di addestramento personalizzato. Per i modelli che non possono essere specificati come reti di livelli, è possibile definire il modello come funzione. Per saperne di più, vedere Define Custom Training Loops, Loss Functions, and Networks.

Funzioni

espandi tutto

dlnetworkDeep learning neural network
trainingProgressMonitorMonitor and plot training progress for deep learning custom training loops (Da R2022b)
minibatchqueueCreate mini-batches for deep learning (Da R2020b)
dlarrayDeep learning array for customization
dlgradientCompute gradients for custom training loops using automatic differentiation
dlfevalEvaluate deep learning model for custom training loops
crossentropyCross-entropy loss for classification tasks
l1lossL1 loss for regression tasks (Da R2021b)
l2lossL2 loss for regression tasks (Da R2021b)
huberHuber loss for regression tasks (Da R2021a)
mseHalf mean squared error
dlconvDeep learning convolution
dltranspconvDeep learning transposed convolution
fullyconnectSum all weighted input data and apply a bias
batchnormNormalize data across all observations for each channel independently
crosschannelnormCross channel square-normalize using local responses (Da R2020a)
groupnormNormalize data across grouped subsets of channels for each observation independently (Da R2020b)
instancenormNormalize across each channel for each observation independently (Da R2021a)
layernormNormalize data across all channels for each observation independently (Da R2021a)
avgpoolPool data to average values over spatial dimensions
maxpoolPool data to maximum value
maxunpoolUnpool the output of a maximum pooling operation
reluApplicare l'attivazione dell'unità lineare rettificata
leakyreluApply leaky rectified linear unit activation
geluApply Gaussian error linear unit (GELU) activation (Da R2022b)
softmaxApply softmax activation to channel dimension
sigmoidApplica l’attivazione sigmoidea

Argomenti

Personalizzazione dei loop di addestramento

Differenziazione automatica

Esempi in primo piano