Computer Vision Toolbox
Computer Vision Toolbox™ fornisce algoritmi e applicazioni per progettare e testare sistemi di visione artificiale. È possibile eseguire l'ispezione visiva, il rilevamento e il tracking degli oggetti, nonché il rilevamento, l'estrazione e la corrispondenza delle feature. È possibile automatizzare i workflow di calibrazione per fotocamere singole, stereo e fish-eye. Per la visione tridimensionale, la toolbox supporta la visione stereo, l'elaborazione a nuvola di punti, la struttura dal movimento e lo SLAM visivo e a nuvole di punti in tempo reale. Le applicazioni di visione artificiale consentono l'etichettatura di verità di base (ground truth) team-based con automazione nonché la calibrazione della fotocamera.
È possibile utilizzare rilevatori di oggetti preaddestrati o addestrare rilevatori personalizzati utilizzando algoritmi di Deep Learning e Machine Learning, come YOLO, SSD e ACF. Per la segmentazione semantica e delle istanze è possibile utilizzare algoritmi di Deep Learning come U-Net, SOLO e Mask R-CNN. È possibile eseguire la classificazione delle immagini utilizzando trasformatori di visione come ViT. I modelli preaddestrati consentono di rilevare volti e pedoni, eseguire il riconoscimento ottico dei caratteri (OCR) e riconoscere altri oggetti comuni.
È possibile accelerare gli algoritmi eseguendoli su processori multicore e GPU. Gli algoritmi della toolbox supportano la generazione di codice C/C++ per l'integrazione con il codice esistente, la prototipazione desktop e l'implementazione di sistemi di visione incorporati.
Come iniziare a utilizzare Computer Vision Toolbox
Impara le nozioni di base di Computer Vision Toolbox
Rilevamento ed estrazione di feature
Registrazione di immagini, rilevamento del punto di interesse, estrazione dei descrittori delle feature, corrispondenza delle feature dei punti e recupero dell'immagine
Etichettatura di verità di base (ground truth) di immagini e video
Etichettatura interattiva di immagini e video, creazione di dati di addestramento per il Deep Learning con rilevamento dell'oggetto, segmentazione semantica, segmentazione dell'istanza e classificazione dell'immagine
Riconoscimento, rilevamento dell'oggetto e segmentazione semantica
Riconoscimento, classificazione, segmentazione semantica dell'immagine, segmentazione dell'istanza, rilevamento dell'oggetto tramite feature e rilevamento di oggetti di Deep Learning tramite CNN, YOLO e SSD
Calibrazione della fotocamera
Calibrare fotocamere singole o stereo e stimare i parametri intrinseci, estrinseci e di distorsione della fotocamera utilizzando modelli di fotocamere pinhole e fisheye
Struttura dal movimento e SLAM visivo
Visione stereo, triangolazione, ricostruzione tridimensionale e localizzazione e mappatura visiva simultanea (vSLAM)
Elaborazione a nuvola di punti
Pre-elaborare, visualizzare, registrare, adattare forme geometriche, costruire mappe, implementare algoritmi SLAM e utilizzare il Deep Learning con nuvole di punti tridimensionali
Tracking e stima del movimento
Flusso ottico, riconoscimento dell'attività, stima del movimento, reidentificazione degli oggetti e tracking
Supporto per la generazione di codice, GPU e di terze parti
Generazione e accelerazione di codice C/C++ e GPU, generazione di codice HDL e interfaccia OpenCV per MATLAB e Simulink
Visione artificiale con Simulink
Supporto Simulink® per le applicazioni di visione artificiale