Computer Vision Toolbox

Progettazione e sperimentazione di sistemi di visione artificiale, visione 3D e di elaborazione video

Computer Vision Toolbox™ fornisce algoritmi, funzioni e app per la progettazione e il test di sistemi di visione artificiale, visione 3D e di elaborazione video. È possibile eseguire rilevazione e tracking di oggetti, nonché rilevazione, estrazione e confronto di feature. Per quanto riguarda la visione 3D, il toolbox supporta calibrazione singola, stereo e della fotocamera fisheye; visione stereo; ricostruzione 3D ed elaborazione di nuvole di punti 3D e LIDAR. Le app di visione artificiale automatizzano i workflow di calibrazione di fotocamere ed etichettatura di verità di base (ground truth).

È possibile addestrare rilevatori di oggetti personalizzati utilizzando algoritmi di deep learning e machine learning come YOLO v2, Faster R-CNN e ACF. Per la segmentazione semantica sono disponibili algoritmi di deep learning come SegNet, U-Net e DeepLab. I modelli pre-addestrati consentono di rilevare volti, pedoni e altri oggetti comuni.

È possibile velocizzare gli algoritmi eseguendoli su GPU e processori multicore. Gran parte degli algoritmi del toolbox supporta la generazione di codice C/C++ per l’integrazione con il codice esistente, la prototipazione desktop e la distribuzione su desktop e su sistemi di visione embedded.

Inizia ora:

Deep learning e machine learning

Rileva, riconosci e segmenta gli oggetti utilizzando deep learning e machine learning.

Rilevazione e riconoscimento di oggetti

Framework per addestrare, valutare e distribuire rilevatori di oggetti come YOLO v2, Faster R-CNN, ACF e Viola-Jones. La funzione di riconoscimento oggetti include Bag of Visual Words e OCR. I modelli pre-addestrati consentono di rilevare volti, pedoni e altri oggetti comuni.

Rilevazione di oggetti mediante Faster R-CNN. 

Segmentazione semantica

Segmenta le immagini e i volumi 3D classificando i singoli pixel e voxel tramite reti quali SegNet, FCN, U-Net e DeepLab v3+.

Etichettatura di verità di base (ground truth)

Automatizza l’etichettatura per la rilevazione di oggetti, la segmentazione semantica e la classificazione delle scene attraverso le app Video Labeler e Image Labeler.

Etichettatura di verità di base (ground truth) con l’app Video Labeler.

Elaborazione di nuvole di punti 3D e LIDAR

Segmenta, raggruppa, esegui il downsample, rimuovi il rumore, registra e adatta le forme geometriche con dati di nuvole di punti 3D o LIDAR. Lidar Toolbox™ fornisce ulteriori funzionalità per progettare, analizzare e testare i sistemi di elaborazione LIDAR.

I/O nuvole di punti e LIDAR

Leggi, scrivi e visualizza le nuvole di punti da file, LIDAR e sensori RGB-D.

Registrazione di nuvole di punti

Registra le nuvole di punti 3D con gli algoritmi Normal-Distributions Transform (NDT), Iterative Closest Point (ICP) e Coherent Point Drift (CPD).

Registrazione e stitching di una serie di nuvole di punti.

Segmentazione e fitting di forme

Segmenta le nuvole di punti in cluster e adatta le forme geometriche alle nuvole di punti. Segmenta l’impianto di terra in dati LIDAR per applicazioni di guida automatizzata e di robotica.

Nuvola di punti LIDAR segmentata.

Calibrazione di fotocamere

Stima i parametri intrinseci, estrinseci e di distorsione dell’obiettivo delle fotocamere.

Calibrazione di fotocamere singole

Automatizza la rilevazione della scacchiera e calibra le fotocamere pinhole e fisheye con l’app Camera Calibrator.

Calibrazione di fotocamere stereo

Calibra una coppia stereo per calcolare la profondità e ricostruire scene in 3D.

App Stereo Camera Calibrator.

Visione 3D e visione stereo

Estrai la struttura 3D di una scena da più viste 2D. Stima la posa ed il movimento della fotocamera utilizzando l’odometria visuale.

Visione stereo

Stima la profondità e ricostruisci una scena 3D utilizzando una coppia di fotocamere stereo.

Mappa di disparità stereo che rappresenta le profondità corrispondenti.

Rilevazione, estrazione e confronto di feature

Workflow basati sulle feature per la rilevazione di oggetti, la registrazione di immagini e il riconoscimento di oggetti.

Rilevazione di un oggetto in una scena caotica con rilevazione, estrazione e confronto di feature di punti.

Registrazione di immagini basata sulle feature

Confronta le feature in più immagini per stimare le trasformate geometriche tra immagini e registra le sequenze di immagini.

Panorama creato con registrazione basata sulle feature.

Tracking di oggetti e stima del movimento

Stima il movimento e traccia gli oggetti nelle sequenze video e di immagini.

Stima del movimento

Stima il movimento tra frame video con il flusso ottico, il confronto di blocchi e il confronto di modelli.

Rilevazione di oggetti in movimento con una fotocamera stazionaria.

Interfaccia OpenCV

È possibile interfacciare MATLAB e Simulink con progetti e funzioni basati su OpenCV.

Generazione di codice

Integra lo sviluppo degli algoritmi con i workflow di prototipazione rapida, implementazione e verifica.