Supporto di calcolo GPU MATLAB
per le GPU CUDA di NVIDIA
Esegui il calcolo MATLAB sulle GPU CUDA di NVIDIA
Esegui il calcolo MATLAB sulle GPU CUDA di NVIDIA
MATLAB ti consente di utilizzare le GPU NVIDIA® per accelerare le attività di intelligenza artificiale, deep learning e altre analisi computazionalmente onerose senza dover essere un programmatore CUDA®. Con MATLAB e Parallel Computing Toolbox, puoi:
“Il nostro codice precedente impiegava fino a 40 minuti per analizzare un singolo test in galleria del vento; utilizzando MATLAB e una GPU, ora il tempo di calcolo è sotto il minuto. Ci sono voluti 30 minuti per far funzionare il nostro algoritmo MATLAB sulla GPU e non è stata necessaria alcuna programmazione CUDA di basso livello.”
Christopher Bahr, NASA
MATLAB consente a un singolo utente di implementare un flusso di lavoro end-to-end per sviluppare e addestrare modelli di deep learning utilizzando Deep Learning Toolbox. È quindi possibile scalare l’addestramento utilizzando risorse cloud e cluster con Parallel Computing Toolbox e MATLAB Parallel Server e distribuire a data center o dispositivi embedded con GPU Coder.
MATLAB è una piattaforma di flusso di lavoro end-to-end per lo sviluppo di intelligenza artificiale e deep learning. MATLAB fornisce strumenti e app per l’importazione di set di dati da addestrare, visualizzazione e debug, scaling di CNN di addestramento e distribuzione.
Scala fino a risorse di calcolo e GPU aggiuntive su desktop, cloud e cluster con una sola riga di codice.
Scopri i nostri prodotti
Esegui il codice MATLAB sulle GPU NVIDIA utilizzando le oltre 1000 funzioni MATLAB per CUDA. Utilizza le funzioni per GPU nelle toolbox per applicazioni quali deep learning, machine learning, visione artificiale ed elaborazione di segnali. Parallel Computing Toolbox fornisce gpuArray, uno speciale tipo di array con funzioni associate, che consente di eseguire calcoli sulle GPU CUDA di NVIDIA direttamente da MATLAB senza dover imparare librerie di calcolo GPU a basso livello.
Gli ingegneri possono utilizzare le risorse GPU senza dover scrivere alcun codice aggiuntivo, in modo che possano concentrarsi sulle loro applicazioni piuttosto che sull’ottimizzazione delle prestazioni.
Utilizzando costrutti di linguaggio parallelo come parfor e spmd puoi eseguire calcoli su più GPU. Per addestrare un modello su più GPU è sufficiente modificare un’opzione di addestramento.
MATLAB consente inoltre di integrare i kernel CUDA esistenti in applicazioni MATLAB senza richiedere alcuna programmazione C aggiuntiva.
Scopri i nostri prodotti
Utilizza GPU Coder per generare un codice CUDA ottimizzato dal codice MATLAB per il deep learning, la visione embedded e i sistemi autonomi. Il codice generato consente di chiamare automaticamente le librerie NVIDIA CUDA ottimizzate, tra cui TensorRT, cuDNN e cuBLAS, per l’esecuzione su GPU NVIDIA con bassa latenza e throughput elevato. Integra il codice generato nel tuo progetto come codice sorgente, librerie statiche o librerie dinamiche e distribuiscili per l’esecuzione su GPU come NVIDIA Volta®, NVIDIA Tesla®, NVIDIA Jetson® e NVIDIA DRIVE®.
Scopri i nostri prodotti