Main Content

Computer Vision Toolbox

Progettare e testare sistemi di visione artificiale

Computer Vision Toolbox™ fornisce algoritmi e applicazioni per progettare e testare sistemi di visione artificiale. È possibile eseguire l'ispezione visiva, il rilevamento e il tracking degli oggetti, nonché il rilevamento, l'estrazione e la corrispondenza delle feature. È possibile automatizzare i workflow di calibrazione per fotocamere singole, stereo e fish-eye. Per la visione tridimensionale, la toolbox supporta la visione stereo, l'elaborazione a nuvola di punti, la struttura dal movimento e lo SLAM visivo e a nuvole di punti in tempo reale. Le applicazioni di visione artificiale consentono l'etichettatura di verità di base (ground truth) team-based con automazione nonché la calibrazione della fotocamera.

È possibile utilizzare rilevatori di oggetti preaddestrati o addestrare rilevatori personalizzati utilizzando algoritmi di Deep Learning e Machine Learning, come YOLO, SSD e ACF. Per la segmentazione semantica e delle istanze è possibile utilizzare algoritmi di Deep Learning come U-Net, SOLO e Mask R-CNN. È possibile eseguire la classificazione delle immagini utilizzando trasformatori di visione come ViT. I modelli preaddestrati consentono di rilevare volti e pedoni, eseguire il riconoscimento ottico dei caratteri (OCR) e riconoscere altri oggetti comuni.

È possibile accelerare gli algoritmi eseguendoli su processori multicore e GPU. Gli algoritmi della toolbox supportano la generazione di codice C/C++ per l'integrazione con il codice esistente, la prototipazione desktop e l'implementazione di sistemi di visione incorporati.

Come iniziare a utilizzare Computer Vision Toolbox

Impara le nozioni di base di Computer Vision Toolbox

Rilevamento ed estrazione di feature

Registrazione di immagini, rilevamento del punto di interesse, estrazione dei descrittori delle feature, corrispondenza delle feature dei punti e recupero dell'immagine

Etichettatura di verità di base (ground truth) di immagini e video

Etichettatura interattiva di immagini e video, creazione di dati di addestramento per il Deep Learning con rilevamento dell'oggetto, segmentazione semantica, segmentazione dell'istanza e classificazione dell'immagine

Riconoscimento, rilevamento dell'oggetto e segmentazione semantica

Riconoscimento, classificazione, segmentazione semantica dell'immagine, segmentazione dell'istanza, rilevamento dell'oggetto tramite feature e rilevamento di oggetti di Deep Learning tramite CNN, YOLO e SSD

Calibrazione della fotocamera

Calibrare fotocamere singole o stereo e stimare i parametri intrinseci, estrinseci e di distorsione della fotocamera utilizzando modelli di fotocamere pinhole e fisheye

Struttura dal movimento e SLAM visivo

Visione stereo, triangolazione, ricostruzione tridimensionale e localizzazione e mappatura visiva simultanea (vSLAM)

Elaborazione a nuvola di punti

Pre-elaborare, visualizzare, registrare, adattare forme geometriche, costruire mappe, implementare algoritmi SLAM e utilizzare il Deep Learning con nuvole di punti tridimensionali

Tracking e stima del movimento

Flusso ottico, riconoscimento dell'attività, stima del movimento, reidentificazione degli oggetti e tracking

Supporto per la generazione di codice, GPU e di terze parti

Generazione e accelerazione di codice C/C++ e GPU, generazione di codice HDL e interfaccia OpenCV per MATLAB e Simulink

Visione artificiale con Simulink

Supporto Simulink® per le applicazioni di visione artificiale