IA embedded - MATLAB & Simulink

Deep Learning

MATLAB e Simulink per l’IA embedded

Distribuzione di applicazioni di Machine Learning e di Deep Learning su sistemi embedded

Con MATLAB e Simulink puoi progettare, simulare, testare, verificare e distribuire algoritmi di IA che migliorano le prestazioni e le funzionalità di sistemi embedded complessi.

Illustrazione del workflow dell’IA embedded.

Utilizzo di MATLAB e Simulink per la distribuzione di IA embedded

Scopri come preparare modelli di IA e generare automaticamente codice per distribuire applicazioni di IA embedded su CPU, GPU, FPGA e molto altro. Scopri tutorial, esempi e video per ottenere consigli pratici sull’IA embedded con MATLAB e Simulink.

Screenshot di un grafico stratificato, delle statistiche di calibrazione e dei risultati di validazione per ottimizzare i modelli di IA per la distribuzione embedded.

Distribuzione su CPU e microcontroller

Genera codice C/C++ ottimizzato e portatile a partire da modelli addestrati di Machine Learning e di Deep Learning con MATLAB Coder e Simulink Coder.

Screenshot della distribuzione di codice C/C++ in Simulink su immagini di un desktop NVIDIA e di una GPU embedded.

Distribuzione su GPU

Genera codice CUDA® ottimizzato per reti addestrate di Deep Learning con GPU Coder per la distribuzione su desktop, server e GPU embedded.

Esecuzione dell’inferenza di Deep Learning basata su FPGA su hardware di prototipi direttamente da MATLAB e successiva generazione di un core IP HDL di Deep Learning per la distribuzione su qualsiasi dispositivo FPGA o ASIC.

Distribuzione su FPGA e SoC

Prototipa e implementa reti di Deep Learning su FPGA e SoC con Deep Learning HDL Toolbox. Genera bitstream e core IP per processori di Deep Learning personalizzati con HDL Coder.

Screenshot di un grafico stratificato, delle statistiche di calibrazione e dei risultati di validazione per ottimizzare i modelli di IA per la distribuzione embedded.

Compressione di modelli di IA

Comprimi le tue reti di Deep Learning tramite quantizzazione, proiezione o pruning per ridurne il footprint di memoria e aumentare le prestazioni di inferenza.