Contenuto principale

La traduzione di questa pagina non è aggiornata. Fai clic qui per vedere l'ultima versione in inglese.

Deep Learning con Simulink

Estendere i workflow di Deep Learning utilizzando Simulink

Implementare la funzionalità di Deep Learning nei modelli di Simulink® utilizzando i blocchi dalle librerie di blocchi Deep Neural Networks, Python Neural Networks e Deep Learning Layers incluse nella Deep Learning Toolbox™ o utilizzando il blocco Deep Learning Object Detector dalla libreria di blocchi Analysis & Enhancement (Analisi e miglioramento) inclusa nella Computer Vision Toolbox™.

Per generare un modello Simulink che utilizza la libreria di blocchi Deep Learning Layers per rappresentare una rete, utilizzare la funzione exportNetworkToSimulink.

In Simulink, alcune funzionalità di Deep Learning utilizzano un blocco MATLAB Function che richiede un compiler supportato. Per la maggior parte delle piattaforme, un compilatore C predefinito viene fornito con l'installazione di MATLAB®. Quando si utilizza il linguaggio C++, è necessario installare un compilatore C++. Per visualizzare un elenco dei compilatori supportati, aprire Supported and Compatible Compilers (Compilatori supportati e compatibili), fare clic sulla scheda corrispondente al sistema operativo in uso, individuare la tabella Simulink Product Family e andare alla colonna For Model Referencing, Accelerator mode, Rapid Accelerator mode, and MATLAB Function blocks. Se sul sistema sono installati più compilatori supportati da MATLAB, è possibile modificare il compilatore predefinito utilizzando il comando mex -setup. Vedere Change Default Compiler.

Funzioni

exportNetworkToSimulinkGenerate Simulink model that contains deep learning layer blocks and subsystems that correspond to deep learning layer objects (Da R2024b)

Blocchi

espandi tutto

Image ClassifierClassifica i dati utilizzando una rete neurale addestrata di Deep Learning
PredictPredict responses using a trained deep learning neural network
Stateful ClassifyClassify data using a trained deep learning recurrent neural network (Da R2021a)
Stateful PredictPredict responses using a trained recurrent neural network (Da R2021a)
Deep Learning Object DetectorDetect objects using trained deep learning object detector (Da R2021b)
TensorFlow Model PredictPredict responses using pretrained Python TensorFlow model (Da R2024a)
PyTorch Model PredictPredict responses using pretrained Python PyTorch model (Da R2024a)
ONNX Model PredictPredict responses using pretrained Python ONNX model (Da R2024a)
Custom Python Model PredictPredict responses using pretrained custom Python model (Da R2024a)
Clipped ReLU LayerClipped Rectified Linear Unit (ReLU) layer (Da R2024b)
GELU LayerGaussian error linear unit (GELU) layer (Da R2024b)
Leaky ReLU LayerLeaky rectified linear unit (ReLU) layer (Da R2024b)
ReLU LayerRectified linear unit (ReLU) layer (Da R2024b)
Sigmoid LayerSigmoid layer (Da R2024b)
Softmax LayerSoftmax layer (Da R2024b)
Tanh LayerHyperbolic tangent (tanh) layer (Da R2024a)
Addition LayerAddition layer (Da R2024b)
Concatenation LayerConcatenation layer (Da R2024b)
Depth Concatenation LayerDepth concatenation layer (Da R2024b)
Multiplication LayerMultiplication layer (Da R2024b)
Convolution 1D Layer1-D convolutional layer (Da R2024b)
Convolution 2D Layer2-D convolutional layer (Da R2024b)
Convolution 3D Layer3-D convolutional layer (Da R2024b)
Fully Connected LayerFully connected layer (Da R2024b)
Rescale-Symmetric 1D1-D input layer with rescale-symmetric normalization (Da R2024b)
Rescale-Symmetric 2D2-D input layer with rescale-symmetric normalization (Da R2024b)
Rescale-Symmetric 3D3-D input layer with rescale-symmetric normalization (Da R2024b)
Rescale-Zero-One 1D1-D input layer with rescale-zero-one normalization (Da R2024b)
Rescale-Zero-One 2D2-D input layer with rescale-zero-one normalization (Da R2024b)
Rescale-Zero-One 3D3-D input layer with rescale-zero-one normalization (Da R2024b)
Zerocenter 1D1-D input layer with zerocenter normalization (Da R2024b)
Zerocenter 2D2-D input layer with zerocenter normalization (Da R2024b)
Zerocenter 3D3-D input layer with zerocenter normalization (Da R2024b)
Zscore 1D1-D input layer with zscore normalization (Da R2024b)
Zscore 2D2-D input layer with zscore normalization (Da R2024b)
Zscore 3D3-D input layer with zscore normalization (Da R2024b)
Batch Normalization LayerBatch normalization layer (Da R2024b)
Layer Normalization LayerLayer normalization layer (Da R2024b)
Average Pooling 1D Layer1-D average pooling layer (Da R2024b)
Average Pooling 2D Layer2-D average pooling layer (Da R2024b)
Average Pooling 3D Layer3-D average pooling layer (Da R2024b)
Global Average Pooling 1D Layer1-D global average pooling layer (Da R2024b)
Global Average Pooling 2D Layer2-D global average pooling layer (Da R2024b)
Global Average Pooling 3D Layer3-D global average pooling layer (Da R2024b)
Global Max Pooling 1D Layer1-D global max pooling layer (Da R2024b)
Global Max Pooling 2D Layer2-D global max pooling layer (Da R2024b)
Global Max Pooling 3D Layer3-D global max pooling layer (Da R2024b)
Max Pooling 1D Layer1-D max pooling layer (Da R2024b)
Max Pooling 2D Layer2-D max pooling layer (Da R2024b)
Max Pooling 3D Layer3-D max pooling layer (Da R2024b)
Flatten LayerFlatten layer (Da R2024b)
GRU LayerGated recurrent unit (GRU) layer for recurrent neural network (RNN) (Da R2025a)
GRU Projected LayerGated recurrent unit (GRU) projected layer for recurrent neural network (RNN) (Da R2025a)
LSTM LayerLong short-term memory (LSTM) layer for recurrent neural network (RNN) (Da R2024b)
LSTM Projected LayerLong short-term memory (LSTM) projected layer for recurrent neural network (RNN) (Da R2024b)
Dropout LayerDropout layer (Da R2024b)

Argomenti

Blocchi dei livelli di Deep Learning

Immagini

Sequenze

Apprendimento di rinforzo

Esecuzione simultanea di Python

Generazione di codice

Esempi in primo piano