Con MATLAB e Simulink puoi progettare, simulare, testare, verificare e distribuire algoritmi di IA che migliorano le prestazioni e le funzionalità di sistemi embedded complessi.
Utilizzo di MATLAB e Simulink per la distribuzione di IA embedded
Scopri come preparare modelli di IA e generare automaticamente codice per distribuire applicazioni di IA embedded su CPU, GPU, FPGA e molto altro. Scopri tutorial, esempi e video per ottenere consigli pratici sull’IA embedded con MATLAB e Simulink.

Distribuzione su CPU e microcontroller
Genera codice C/C++ ottimizzato e portatile a partire da modelli addestrati di Machine Learning e di Deep Learning con MATLAB Coder e Simulink Coder.

Distribuzione su GPU
Genera codice CUDA® ottimizzato per reti addestrate di Deep Learning con GPU Coder per la distribuzione su desktop, server e GPU embedded.

Distribuzione su FPGA e SoC
Prototipa e implementa reti di Deep Learning su FPGA e SoC con Deep Learning HDL Toolbox. Genera bitstream e core IP per processori di Deep Learning personalizzati con HDL Coder.

Compressione di modelli di IA
Comprimi le tue reti di Deep Learning tramite quantizzazione, proiezione o pruning per ridurne il footprint di memoria e aumentare le prestazioni di inferenza.