Computer Vision Toolbox
Progettare e sperimentare sistemi di visione artificiale, visione 3D e di elaborazione video
Computer Vision Toolbox™ fornisce algoritmi, funzioni e app per la progettazione e il test di sistemi di visione artificiale, visione 3D e di elaborazione video. Puoi eseguire rilevazione e tracciamento di oggetti, rilevazione, estrazione e confronto di feature. Per quanto riguarda la visione 3D, il toolbox supporta calibrazione singola, stereo e della fotocamera fisheye; visione stereo; ricostruzione 3D ed elaborazione di nuvole di punti tridimensionali e LIDAR. Le app di visione artificiale automatizzano flussi di lavoro di calibrazione della fotocamera ed etichettatura sul campo.
Puoi addestrare rilevatori di oggetti personalizzati utilizzando algoritmi di deep learning e machine learning come YOLO v2, Faster R-CNN e ACF. Per la segmentazione semantica puoi utilizzare algoritmi di deep learning come SegNet, U-Net e DeepLab. I modelli pre-addestrati consentono di rilevare volti, pedoni e altri oggetti comuni.
È possibile velocizzare gli algoritmi eseguendoli su GPU e processori multicore. La maggior parte degli algoritmi del toolbox supporta la generazione di codice C/C++ per l’integrazione con il codice esistente, la prototipazione su desktop e su sistemi di visione embedded.
Inizia ora:
Rilevazione e riconoscimento di oggetti
Framework da addestrare, valutare e distribuire rilevatori di oggetti come YOLO v2, Faster R-CNN, ACF e Viola-Jones. La funzione di riconoscimento oggetti include Bag of Visual Words e OCR. I modelli pre-addestrati rilevano volti, pedoni e altri oggetti comuni.
Segmentazione semantica
Segmenta le immagini e i volumi 3D classificando i singoli pixel e voxel tramite reti quali SegNet, FCN, U-Net e DeepLab v3+.
Etichettatura sul campo
Etichettatura automatica per la rilevazione di oggetti, la segmentazione semantica e la classificazione delle scene attraverso le app Video Labeler e Image Labeler.
I/O nuvole di punti e LIDAR
Leggi, scrivi e visualizza le nuvole di punti da file, LIDAR e sensori RGB-D.
Registrazione di nuvole di punti
Registra le nuvole di punti 3D con gli algoritmi Normal-Distributions Transform (NDT), Iterative Closest Point (ICP) e Coherent Point Drift (CPD).
Segmentazione e fitting di forme
Segmenta le nuvole di punti in cluster e adatta le forme geometriche alle nuvole di punti. Segmenta il piano di terra in dati LIDAR per applicazioni di guida automatizzata e di robotica.
Calibrazione di fotocamera singola
Automatizza la rilevazione della scacchiera e calibra le fotocamere pinhole e fisheye con la app Camera Calibrator.
Calibrazione di fotocamera stereo
Calibra una coppia stereo per calcolare la profondità e ricostruire scene in 3D.
Visione 3D
Struttura dal movimento e dalla odometria visuale.
Visione stereo
Stima la profondità e ricostruisci una scena 3D utilizzando una coppia di fotocamere stereo.
Rilevazione, estrazione e confronto di feature
Rileva, estrai e confronta feature interessanti quali blob, contorni e angoli su più immagini.
Registrazione di immagine basata sulle feature
Confronta le feature in più immagini per stimare le trasformate geometriche tra immagini e registra le sequenze di immagini.
Tracciamento di oggetti
Traccia le traiettorie degli oggetti da un frame all’altro nelle sequenze video.
Stima del movimento
Stima il movimento tra frame video con il flusso ottico, il confronto di blocchi e il confronto di modelli.
Generazione di codice
Genera il codice C/C++, CUDA e le funzioni MEX per funzioni di toolbox, classi, system object e blocchi.
Video e Image Labeler
copia e incolla di etichette pixel; panoramica e zoom migliorati; navigazione dei frame migliorata; ROI di linea, attributi dell’etichetta ed etichette secondarie aggiunte a Image Labeler
Incremento di dati per rilevatori di oggetti
trasformazione di immagini e rettangoli di delimitazione
Segmentazione semantica
classificazione di singoli pixel in immagini e volumi 3D utilizzando reti DeepLab v3+ e 3D U-Net
Rilevazione di oggetti deep learning
esecuzione più rapida dell’addestramento end-to-end R-CNN e della stima del riquadro di ancoraggio e utilizzo dei dati di immagini multicanale
Accelerazione deep learning
ottimizzazione YOLO v2 e segmentazione semantica utilizzando l’accelerazione MEX
Guarda le note di rilascio per ulteriori informazioni su queste feature e sulle funzioni corrispondenti.