Simula, testa e distribuisci modelli di Machine Learning e di Deep Learning su dispositivi edge e sistemi embedded. Genera codice per applicazioni di IA complete, compresi gli algoritmi di pre-elaborazione e post-elaborazione.
Con MATLAB® e Simulink®, è possibile:
- Generare codice CUDA e C/C++ ottimizzato per la distribuzione su CPU e GPU
- Generare codice VHDL e Verilog sintetizzabile per la distribuzione su FPGA e SoC
- Accelerare l’inferenza con le librerie di Deep Learning ottimizzate per l’hardware, tra cui oneDNN, Arm Compute Library e TensorRT
- Integrare modelli TensorFlow Lite (TFLite) pre-addestrati nelle applicazioni distribuite sull’hardware
- Comprimere i modelli di IA per l’inferenza su hardware con risorse limitate tramite strumenti per la regolazione degli iperparametri, la quantizzazione e il pruning delle reti
CPU e microcontroller
Genera codice C/C++ ottimizzato e portatile a partire da modelli addestrati di Machine Learning e di Deep Learning con MATLAB Coder™ e Simulink Coder™. Eventualmente, includi chiamate a librerie di fornitori specifici, ottimizzate per l’inferenza di Deep Learning nel codice generato, come oneDNN e Arm® Compute Library.
GPU
Genera codice CUDA® ottimizzato per reti addestrate di Deep Learning con GPU Coder™. Insieme alle reti, includi la pre-elaborazione e la post-elaborazione per distribuire algoritmi completi su desktop, server e GPU embedded. Usa le librerie CUDA NVIDIA®, come TensorRT™ e cuDNN, per massimizzare le prestazioni.
FPGA e SoC
Prototipa e implementa reti di Deep Learning su FPGA e SoC con Deep Learning HDL Toolbox™. Programma i processori di Deep Learning e core IP di movimento dati con bitstream predefiniti per i kit di sviluppo di FPGA più usati. Genera bitstream e core IP per processori di Deep Learning personalizzati con HDL Coder™.
Compressione di modelli di IA
Riduci i requisiti di memoria per i modelli di Machine Learning e di Deep Learning con la regolazione degli iperparametri basata sulle dimensioni e la quantizzazione di pesi, bias e attivazioni. Riduci al minimo le dimensioni di una rete neurale profonda mediante il pruning dei collegamenti degli strati insignificanti.