Main Content

La traduzione di questa pagina non è aggiornata. Fai clic qui per vedere l'ultima versione in inglese.

Deep Learning con dati di serie temporali e dati di sequenza

Creare e addestrare reti per attività di classificazione, regressione e previsione delle serie temporali

Creare e addestrare reti per attività di classificazione, regressione e previsione delle serie temporali. Addestrare reti long short-term memory (LSTM) per problemi di classificazione e regressione da sequenza-a-uno o da sequenza-a-etichetta. È possibile addestrare le reti LSTM su dati di testo utilizzando livelli di incorporazione di parole (richiede Text Analytics Toolbox™) o reti neurali convoluzionali su dati audio utilizzando spettrogrammi (richiede Audio Toolbox™).

App

Deep Network DesignerProgetta, visualizza e addestra le reti di Deep Learning

Funzioni

espandi tutto

trainingOptionsOptions for training deep learning neural network
trainNetworkTrain deep learning neural network
analyzeNetworkAnalyze deep learning network architecture

Livelli di input

sequenceInputLayerSequence input layer
featureInputLayerFeature input layer

Livelli ricorrenti

lstmLayerLong short-term memory (LSTM) layer for recurrent neural network (RNN)
bilstmLayerBidirectional long short-term memory (BiLSTM) layer for recurrent neural network (RNN)
gruLayerGated recurrent unit (GRU) layer for recurrent neural network (RNN)
lstmProjectedLayerLong short-term memory (LSTM) projected layer for recurrent neural network (RNN)

Livelli convoluzionali e livelli completamente connessi

convolution1dLayer1-D convolutional layer
transposedConv1dLayerTransposed 1-D convolution layer
fullyConnectedLayerFully connected layer

Livelli di pooling

maxPooling1dLayer1-D max pooling layer
averagePooling1dLayer1-D average pooling layer
globalMaxPooling1dLayer1-D global max pooling layer
globalAveragePooling1dLayer1-D global average pooling layer

Livelli di attivazione e abbandono

reluLayerLivello dell’unità lineare rettificata (ReLU)
leakyReluLayerLeaky Rectified Linear Unit (ReLU) layer
clippedReluLayerClipped Rectified Linear Unit (ReLU) layer
eluLayerExponential linear unit (ELU) layer
tanhLayerHyperbolic tangent (tanh) layer
swishLayerSwish layer
geluLayerGaussian error linear unit (GELU) layer
softmaxLayerLivello softmax
dropoutLayerDropout layer
functionLayerFunction layer

Manipolazione dei dati

sequenceFoldingLayerSequence folding layer
sequenceUnfoldingLayerSequence unfolding layer
flattenLayerFlatten layer

Livelli di output

classificationLayerClassification output layer
regressionLayerLivello di output della regressione
classifyClassify data using trained deep learning neural network
predictPredict responses using trained deep learning neural network
activationsCompute deep learning network layer activations
predictAndUpdateStatePredict responses using a trained recurrent neural network and update the network state
classifyAndUpdateStateClassify data using a trained recurrent neural network and update the network state
resetStateReset state parameters of neural network
confusionchartCreate confusion matrix chart for classification problem
sortClassesSort classes of confusion matrix chart
padsequencesPad or truncate sequence data to same length

Blocchi

espandi tutto

PredictPredict responses using a trained deep learning neural network
Stateful PredictPredict responses using a trained recurrent neural network
Stateful ClassifyClassify data using a trained deep learning recurrent neural network

Proprietà

ConfusionMatrixChart PropertiesConfusion matrix chart appearance and behavior

Argomenti

Reti ricorrenti

Reti convoluzionali

Deep Learning con Simulink

Deep Learning con MATLAB