Computer Vision Toolbox

Progettazione e sperimentazione di sistemi di visione artificiale, visione 3D e di elaborazione video

 

Computer Vision Toolbox™ fornisce algoritmi, funzioni e app per la progettazione e il test di sistemi di visione artificiale, visione 3D e di elaborazione video. È possibile eseguire rilevazione e tracking di oggetti, nonché rilevazione, estrazione e confronto di feature. Per quanto riguarda la visione 3D, il toolbox supporta calibrazione singola, stereo e della fotocamera fisheye; visione stereo; ricostruzione 3D ed elaborazione di nuvole di punti 3D e LIDAR. Le app di visione artificiale automatizzano i workflow di calibrazione di fotocamere ed etichettatura di verità di base (ground truth).

È possibile addestrare rilevatori di oggetti personalizzati utilizzando algoritmi di deep learning e machine learning come YOLO v2, Faster R-CNN e ACF. Per la segmentazione semantica sono disponibili algoritmi di deep learning come SegNet, U-Net e DeepLab. I modelli pre-addestrati consentono di rilevare volti, pedoni e altri oggetti comuni.

È possibile velocizzare gli algoritmi eseguendoli su GPU e processori multicore. Gran parte degli algoritmi del toolbox supporta la generazione di codice C/C++ per l’integrazione con il codice esistente, la prototipazione desktop e la distribuzione su desktop e su sistemi di visione embedded.

Inizia ora:

Deep learning e machine learning

Rileva, riconosci e segmenta gli oggetti utilizzando deep learning e machine learning.

Rilevazione e riconoscimento di oggetti

Framework per addestrare, valutare e distribuire rilevatori di oggetti come YOLO v2, Faster R-CNN, ACF e Viola-Jones. La funzione di riconoscimento oggetti include Bag of Visual Words e OCR. I modelli pre-addestrati consentono di rilevare volti, pedoni e altri oggetti comuni.

Rilevazione di oggetti mediante Faster R-CNN. 

Segmentazione semantica

Segmenta le immagini e i volumi 3D classificando i singoli pixel e voxel tramite reti quali SegNet, FCN, U-Net e DeepLab v3+.

Etichettatura di verità di base (ground truth)

Automatizza l’etichettatura per la rilevazione di oggetti, la segmentazione semantica e la classificazione delle scene attraverso le app Video Labeler e Image Labeler.

Etichettatura di verità di base (ground truth) con l’app Video Labeler.

Elaborazione di nuvole di punti 3D e LIDAR

Segmenta, raggruppa, esegui il downsample, rimuovi il rumore, registra e adatta le forme geometriche con dati di nuvole di punti 3D o LIDAR. Lidar ToolboxTM fornisce ulteriori funzionalità per progettare, analizzare e testare i sistemi di elaborazione LIDAR.

I/O nuvole di punti e LIDAR

Leggi, scrivi e visualizza le nuvole di punti da file, LIDAR e sensori RGB-D.

Registrazione di nuvole di punti

Registra le nuvole di punti 3D con gli algoritmi Normal-Distributions Transform (NDT), Iterative Closest Point (ICP) e Coherent Point Drift (CPD).

Registrazione e stitching di una serie di nuvole di punti.

Segmentazione e fitting di forme

Segmenta le nuvole di punti in cluster e adatta le forme geometriche alle nuvole di punti. Segmenta l’impianto di terra in dati LIDAR per applicazioni di guida automatizzata e di robotica.

Nuvola di punti LIDAR segmentata.

Calibrazione di fotocamere

Stima i parametri intrinseci, estrinseci e di distorsione dell’obiettivo delle fotocamere.

Calibrazione di fotocamere singole

Automatizza la rilevazione della scacchiera e calibra le fotocamere pinhole e fisheye con l’app Camera Calibrator.

Calibrazione di fotocamere stereo

Calibra una coppia stereo per calcolare la profondità e ricostruire scene in 3D.

App Stereo Camera Calibrator.

Visione 3D e visione stereo

Estrai la struttura 3D di una scena da più viste 2D. Stima la posa ed il movimento della fotocamera utilizzando l’odometria visuale.

Visione stereo

Stima la profondità e ricostruisci una scena 3D utilizzando una coppia di fotocamere stereo.

Mappa di disparità stereo che rappresenta le profondità corrispondenti.

Rilevazione, estrazione e confronto di feature

Workflow basati sulle feature per la rilevazione di oggetti, la registrazione di immagini e il riconoscimento di oggetti.

Rilevazione di un oggetto in una scena caotica con rilevazione, estrazione e confronto di feature di punti.

Registrazione di immagini basata sulle feature

Confronta le feature in più immagini per stimare le trasformate geometriche tra immagini e registra le sequenze di immagini.

Panorama creato con registrazione basata sulle feature.

Tracking di oggetti e stima del movimento

Stima il movimento e traccia gli oggetti nelle sequenze video e di immagini.

Stima del movimento

Stima il movimento tra frame video con il flusso ottico, il confronto di blocchi e il confronto di modelli.

Rilevazione di oggetti in movimento con una fotocamera stazionaria.

Interfaccia OpenCV

È possibile interfacciare MATLAB e Simulink con progetti e funzioni basati su OpenCV.

Generazione di codice

Integra lo sviluppo degli algoritmi con i workflow di prototipazione rapida, implementazione e verifica.

Ultime Novità

Mask-RCNN

Addestramento di reti Mask-RCNN per la segmentazione delle istanze con il deep learning

SLAM visivo

Gestione dei punti nei mondi 3D e delle corrispondenze delle proiezioni su punti di immagini 2D

Stima di pose AprilTag

Rilevamento e stima di pose per AprilTag in un’immagine

Registrazione di nuvole di punti

Registrazione di nuvole di punti usando la correlazione di fase per le applicazioni SLAM

Rilevazione dei loop closure nelle nuvole di punti

Descrittore delle feature delle nuvole di punti per la rilevazione dei loop closure di SLAM

Consulta le note della release per ulteriori informazioni su queste caratteristiche e sulle funzioni corrispondenti.