Main Content

Costruzione di reti neurali profonde

Costruire reti utilizzando le funzioni dalla riga di comando o in modo interattivo con l’applicazione Deep Network Designer

Costruite reti da zero utilizzando il codice MATLAB® o in modo interattivo utilizzando l’applicazione Deep Network Designer. Utilizzate i livelli integrati per costruire reti per attività come la classificazione e la regressione. Per consultare l'elenco dei livelli incorporati, vedere List of Deep Learning Layers. È quindi possibile analizzare la rete per comprenderne l'architettura e verificare la presenza di problemi prima dell'addestramento.

Se i livelli integrati non forniscono il livello necessario per l’attività, è possibile definire un livello di Deep Learning personalizzato. È possibile definire livelli personalizzati con parametri apprendibili e di stato. Dopo aver definito un livello personalizzato, è possibile verificare che il livello sia valido, compatibile con la GPU e che produca gradienti definiti correttamente.

Per i modelli che non possono essere specificati come reti di livelli, è possibile definire il modello come funzione. Per un esempio su come addestrare un modello di Deep Learning definito come una funzione, vedere Train Network Using Model Function.

App

Deep Network DesignerProgettare e visualizzare reti di Deep Learning

Funzioni

espandi tutto

Livelli di input

inputLayerInput layer (Da R2023b)
imageInputLayerImage input layer
image3dInputLayer3-D image input layer
sequenceInputLayerSequence input layer
featureInputLayerFeature input layer (Da R2020b)

Livelli convoluzionali e livelli completamente connessi

convolution2dLayer2-D convolutional layer
convolution3dLayer3-D convolutional layer
groupedConvolution2dLayer2-D grouped convolutional layer
transposedConv2dLayerTransposed 2-D convolution layer
transposedConv3dLayerTransposed 3-D convolution layer
fullyConnectedLayerFully connected layer

Livelli ricorrenti

lstmLayerLong short-term memory (LSTM) layer for recurrent neural network (RNN)
bilstmLayerBidirectional long short-term memory (BiLSTM) layer for recurrent neural network (RNN)
gruLayerGated recurrent unit (GRU) layer for recurrent neural network (RNN) (Da R2020a)
lstmProjectedLayerLong short-term memory (LSTM) projected layer for recurrent neural network (RNN) (Da R2022b)
gruProjectedLayerGated recurrent unit (GRU) projected layer for recurrent neural network (RNN) (Da R2023b)

Livelli transformer

selfAttentionLayerSelf-attention layer (Da R2023a)
attentionLayerDot-product attention layer (Da R2024a)
positionEmbeddingLayerPosition embedding layer (Da R2023b)
sinusoidalPositionEncodingLayerSinusoidal position encoding layer (Da R2023b)
embeddingConcatenationLayerEmbedding concatenation layer (Da R2023b)
indexing1dLayer1-D indexing layer (Da R2023b)

Livelli neurali ODE

neuralODELayerNeural ODE layer (Da R2023b)

Livelli di attivazione

reluLayerLivello dell’unità lineare rettificata (ReLU)
leakyReluLayerLeaky Rectified Linear Unit (ReLU) layer
preluLayerParametrized Rectified Linear Unit (PReLU) layer (Da R2024a)
clippedReluLayerClipped Rectified Linear Unit (ReLU) layer
eluLayerExponential linear unit (ELU) layer
tanhLayerHyperbolic tangent (tanh) layer
swishLayerSwish layer (Da R2021a)
geluLayerGaussian error linear unit (GELU) layer (Da R2022b)
softmaxLayerLivello softmax
sigmoidLayerSigmoid layer (Da R2020b)
functionLayerFunction layer (Da R2021b)

Livelli di normalizzazione

batchNormalizationLayerBatch normalization layer
groupNormalizationLayerGroup normalization layer (Da R2020b)
instanceNormalizationLayerInstance normalization layer (Da R2021a)
layerNormalizationLayerLayer normalization layer (Da R2021a)
crossChannelNormalizationLayer Channel-wise local response normalization layer

Livelli di utilità

dropoutLayerDropout layer
spatialDropoutLayerSpatial dropout layer (Da R2024a)
flattenLayerFlatten layer
crop2dLayer2-D crop layer
crop3dLayer3-D crop layer (Da R2019b)
networkLayerNetwork Layer (Da R2024a)

Livelli di pooling e unpooling

averagePooling2dLayerAverage pooling layer
averagePooling3dLayer3-D average pooling layer
adaptiveAveragePooling2dLayerAdaptive average pooling 2-D layer (Da R2024a)
globalAveragePooling2dLayer2-D global average pooling layer (Da R2019b)
globalAveragePooling3dLayer3-D global average pooling layer (Da R2019b)
globalMaxPooling2dLayerGlobal max pooling layer (Da R2020a)
globalMaxPooling3dLayer3-D global max pooling layer (Da R2020a)
maxPooling2dLayerMax pooling layer
maxPooling3dLayer3-D max pooling layer
maxUnpooling2dLayerMax unpooling layer

Livelli di combinazione

additionLayerAddition layer
multiplicationLayerMultiplication layer (Da R2020b)
concatenationLayerConcatenation layer
depthConcatenationLayerDepth concatenation layer
dlnetworkDeep learning neural network (Da R2019b)
imagePretrainedNetworkPretrained neural network for images (Da R2024a)
resnetNetwork2-D residual neural network (Da R2024a)
resnet3dNetwork3-D residual neural network (Da R2024a)
addLayersAdd layers to neural network
removeLayersRemove layers from neural network
replaceLayerReplace layer in neural network
getLayerLook up a layer by name or path (Da R2024a)
connectLayersConnect layers in neural network
disconnectLayersDisconnect layers in neural network
expandLayersExpand network layers (Da R2024a)
groupLayersGroup layers into network layers (Da R2024a)
analyzeNetworkAnalyze deep learning network architecture
addInputLayerAdd input layer to network (Da R2022b)
initializeInitialize learnable and state parameters of a dlnetwork (Da R2021a)
networkDataLayoutDeep learning network data layout for learnable parameter initialization (Da R2022b)
setL2FactorSet L2 regularization factor of layer learnable parameter
getL2FactorGet L2 regularization factor of layer learnable parameter
setLearnRateFactorSet learn rate factor of layer learnable parameter
getLearnRateFactorGet learn rate factor of layer learnable parameter
dag2dlnetworkConvert SeriesNetwork and DAGNetwork to dlnetwork (Da R2024a)
plotPlot neural network architecture
summaryStampare il riepilogo della rete (Da R2022b)
analyzeNetworkAnalyze deep learning network architecture
checkLayerCheck validity of custom or function layer
isequalCheck equality of neural networks (Da R2021a)
isequalnCheck equality of neural networks ignoring NaN values (Da R2021a)

Argomenti

Livelli integrati

Livelli personalizzati