Main Content

Personalizzazione dei loop di addestramento

Personalizzare i loop di addestramento Deep Learning e le funzioni di perdita per le reti di immagini

Se la funzione trainingOptions non fornisce le opzioni di addestramento necessarie per l'attività o se è presente una funzione di perdita non supportata dalla funzione trainnet, è possibile definire un loop di addestramento personalizzato. Per i modelli che non possono essere specificati come reti di livelli, è possibile definire il modello come funzione. Per saperne di più, vedere Define Custom Training Loops, Loss Functions, and Networks.

Funzioni

espandi tutto

dlnetworkDeep learning neural network (Da R2019b)
trainingProgressMonitorMonitor and plot training progress for deep learning custom training loops (Da R2022b)
minibatchqueueCreate mini-batches for deep learning (Da R2020b)
dlarrayDeep learning array for customization (Da R2019b)
dlgradientCompute gradients for custom training loops using automatic differentiation (Da R2019b)
dlfevalEvaluate deep learning model for custom training loops (Da R2019b)
crossentropyCross-entropy loss for classification tasks (Da R2019b)
l1lossL1 loss for regression tasks (Da R2021b)
l2lossL2 loss for regression tasks (Da R2021b)
huberHuber loss for regression tasks (Da R2021a)
mseHalf mean squared error (Da R2019b)
dlconvDeep learning convolution (Da R2019b)
dltranspconvDeep learning transposed convolution (Da R2019b)
fullyconnectSum all weighted input data and apply a bias (Da R2019b)
batchnormNormalize data across all observations for each channel independently (Da R2019b)
crosschannelnormCross channel square-normalize using local responses (Da R2020a)
groupnormNormalize data across grouped subsets of channels for each observation independently (Da R2020b)
instancenormNormalize across each channel for each observation independently (Da R2021a)
layernormNormalize data across all channels for each observation independently (Da R2021a)
avgpoolPool data to average values over spatial dimensions (Da R2019b)
maxpoolPool data to maximum value (Da R2019b)
maxunpoolUnpool the output of a maximum pooling operation (Da R2019b)
reluApplicare l'attivazione dell'unità lineare rettificata (Da R2019b)
leakyreluApply leaky rectified linear unit activation (Da R2019b)
geluApply Gaussian error linear unit (GELU) activation (Da R2022b)
softmaxApply softmax activation to channel dimension (Da R2019b)
sigmoidApplica l’attivazione sigmoidea (Da R2019b)

Argomenti

Personalizzazione dei loop di addestramento

Differenziazione automatica