Deep Learning HDL Toolbox

 

Deep Learning HDL Toolbox

Prototipazione e distribuzione di reti di Deep Learning su FPGA e SoC

Screenshot della prototipazione e implementazione di reti di Deep Learning su FPGA per la distribuzione edge.
Schema a blocchi di un processore di Deep Learning programmabile.

Utilizzo di un processore di Deep Learning basato su FPGA

Il toolbox include un processore di Deep Learning con livelli generici di Deep Learning controllati dalla logica di pianificazione. Questo processore esegue  l’inferenza di reti basata su FPGA utilizzando Deep Learning Toolbox.

Rilevamento di un camion bianco con un riquadro di delimitazione.

Compilazione e distribuzione di reti

Compila la tua rete di Deep Learning con una serie di istruzioni eseguibili dal processore di Deep Learning. Distribuisci la rete sull’FPGA ed esegui una previsione acquisendo metriche delle prestazioni reali del dispositivo.

Introduzione ai bitstream predefiniti

Prototipa rapidamente una rete Long Short-Term Memory (LSTM) utilizzando i bitstream predefiniti disponibili. Personalizza la configurazione dei bitstream per soddisfare i requisiti di utilizzo delle risorse.

Frammento di codice con bitstream Xilinx, collegato a una scheda di sviluppo FPGA.

Distribuzione di reti su FPGA

Utilizza Deep Learning Toolbox per sviluppare reti RNN e CNN o importare una rete. Successivamente, programma una FPGA con il comando deploy, eseguendo la distribuzione su FPGA AMD o Intel.

Codice MATLAB con loop while per prevedere la chiamata.

Esecuzione dell’inferenza basata su FPGA nelle applicazioni MATLAB

Esegui un’applicazione completa in MATLAB, compresi test bench, algoritmi di pre-elaborazione e post-elaborazione e l’inferenza di Deep Learning basata su FPGA. Un unico comando MATLAB, predict, esegue l’inferenza sull’FPGA e restituisce i risultati nello spazio di lavoro MATLAB.

Profilazione dell’inferenza FPGA e ottimizzazione di progetti di rete

Utilizzando le metriche del profilo, ottimizza la configurazione della tua rete misurando la latenza a livello di layer mentre esegui previsioni sull’FPGA per individuare i colli di bottiglia prestazionali.

Compressione della rete di Deep Learning per la distribuzione su FPGA

Riduci l’utilizzo delle risorse comprimendo la tua rete di Deep Learning con la quantizzazione e il pruning. Analizza i tradeoff tra precisione e utilizzo delle risorse tramite il pacchetto di supporto Model Quantization Library.

Personalizzazione della configurazione del processore di Deep Learning

Specifica le opzioni dell’architettura hardware per l’implementazione del processore di Deep Learning, come il numero di thread paralleli o la dimensione massima dei layer.

Screenshot di una codifica di bitstream personalizzata.

Generazione di core RTL e IP sintetizzabili

Utilizza HDL Coder per generare RTL sintetizzabile dal processore di Deep Learning. Genera core IP con interfacce AXI standard per effettuare l’integrazione in progetti SoC AMD e Intel.