Deep Learning HDL Toolbox offre funzioni e strumenti per prototipare e implementare reti di Deep Learning su FPGA e SoC. Fornisce bitstream predefiniti per l’esecuzione di una varietà di reti di Deep Learning su dispositivi SoC e FPGA Intel® e AMD® supportati. Gli strumenti di profiling e stima consentono la personalizzazione di una rete di Deep Learning grazie all’esplorazione dei tradeoff di progettazione, prestazionali e relativi all’utilizzo delle risorse.
Deep Learning HDL Toolbox consente di personalizzare l’implementazione hardware della propria rete di Deep Learning e di generare codice Verilog®, SystemVerilog e VHDL® portabile e sintetizzabile per la distribuzione su qualsiasi FPGA (con HDL Coder e Simulink).
Utilizzo di un processore di Deep Learning basato su FPGA
Il toolbox include un processore di Deep Learning con livelli generici di Deep Learning controllati dalla logica di pianificazione. Questo processore esegue l’inferenza di reti basata su FPGA utilizzando Deep Learning Toolbox.
Compilazione e distribuzione di reti
Compila la tua rete di Deep Learning con una serie di istruzioni eseguibili dal processore di Deep Learning. Distribuisci la rete sull’FPGA ed esegui una previsione acquisendo metriche delle prestazioni reali del dispositivo.
Introduzione ai bitstream predefiniti
Prototipa rapidamente una rete Long Short-Term Memory (LSTM) utilizzando i bitstream predefiniti disponibili. Personalizza la configurazione dei bitstream per soddisfare i requisiti di utilizzo delle risorse.
Distribuzione di reti su FPGA
Utilizza Deep Learning Toolbox per sviluppare reti RNN e CNN o importare una rete. Successivamente, programma una FPGA con il comando deploy
, eseguendo la distribuzione su FPGA AMD o Intel.
Esecuzione dell’inferenza basata su FPGA nelle applicazioni MATLAB
Esegui un’applicazione completa in MATLAB, compresi test bench, algoritmi di pre-elaborazione e post-elaborazione e l’inferenza di Deep Learning basata su FPGA. Un unico comando MATLAB, predict
, esegue l’inferenza sull’FPGA e restituisce i risultati nello spazio di lavoro MATLAB.
Profilazione dell’inferenza FPGA e ottimizzazione di progetti di rete
Utilizzando le metriche del profilo, ottimizza la configurazione della tua rete misurando la latenza a livello di layer mentre esegui previsioni sull’FPGA per individuare i colli di bottiglia prestazionali.
Compressione della rete di Deep Learning per la distribuzione su FPGA
Riduci l’utilizzo delle risorse comprimendo la tua rete di Deep Learning con la quantizzazione e il pruning. Analizza i tradeoff tra precisione e utilizzo delle risorse tramite il pacchetto di supporto Model Quantization Library.
Personalizzazione della configurazione del processore di Deep Learning
Specifica le opzioni dell’architettura hardware per l’implementazione del processore di Deep Learning, come il numero di thread paralleli o la dimensione massima dei layer.
Generazione di core RTL e IP sintetizzabili
Utilizza HDL Coder per generare RTL sintetizzabile dal processore di Deep Learning. Genera core IP con interfacce AXI standard per effettuare l’integrazione in progetti SoC AMD e Intel.