Sensor Fusion and Tracking Toolbox

Progettazione, simulazione e test dei sistemi di posizionamento e tracking multisensore

 

Sensor Fusion and Tracking Toolbox™ include algoritmi e strumenti per progettare, simulare e testare sistemi che consentono la fusione di dati provenienti da più sensori al fine di mantenere consapevolezza situazionale e localizzazione. Gli esempi di riferimento forniscono un punto di partenza per sviluppare il tracking multi-oggetto e la fusione dei sensori per sistemi autonomi e di sorveglianza, compresi i sistemi aerei, spaziali, terrestri, sottomarini e a bordo nave.

È possibile procedere alla fusione dei dati provenienti da sensori del mondo reale, compresi i sensori radar attivi e passivi, sonar, LiDAR, EO/IR, IMU e GPS. È anche possibile generare dati sintetici provenienti dai sensori virtuali per testare i propri algoritmi in scenari diversi. Il toolbox include tracker multi-oggetto e filtri per le stime, al fine di valutare le architetture che combinano una fusione a livello di griglia, rilevamento, oggetto o traccia. Contiene anche delle metriche, tra cui OSPA e GOSPA, per convalidare le prestazioni rispetto a scene di verità di base (ground truth).

Per l’accelerazione delle simulazioni o la prototipazione rapida, il toolbox supporta la generazione di codice C.

Inizia ora:

Tracking per sistemi di sorveglianza

Esegui il tracking di elementi target nelle regioni sottoposte a sorveglianza usando i dati provenienti da sensori attivi e passivi montati su piattaforme mobili o stazionarie.

Tracking di un aeromobile con scenari earth-centered.

Sorveglianza spaziale

Esegui il tracking di più oggetti presenti nello spazio usando i dati provenienti da sensori radar per generare consapevolezza situazionale spaziale. I tracker possono essere configurati in modo da usare un modello Kepleriano del moto o altri modelli orbitali.

Tracking di detriti spaziali con modelli Kepleriani di moto.

Sorveglianza terrestre e marittima

Esegui il tracking di oggetti estesi in applicazioni marittime e terrestri usando sensori LiDAR e radar ad alta risoluzione.

Tracking di oggetti estesi con LiDAR.

Tracking per sistemi autonomi

Migliora i sistemi di percezione nei veicoli autonomi effettuando il tracking di oggetti estesi con i dati provenienti da fotocamere, radar e LiDAR. Esegui la fusione di nuvole di punti, rilevamenti e tracce provenienti da più sensori per stimare la posizione, la cinematica, la portata e l’orientamento di questi oggetti.

Tracking con sensore singolo

Modella e simula tracker multi-oggetto per eseguire le elaborazioni richieste nei sensori smart. Tra queste operazioni è compresa la trasformazione di dati grezzi in tracklist di oggetti.

Tracking di oggetti con una bounding box 3D generata da una nuvola di punti LiDAR.

Fusione centralizzata

Esegui il tracking di oggetti estesi con un tracker centralizzato che fonde i dati provenienti da più sensori e da sensori che operano in modalità diverse. Usa un tracker PHD (densità di ipotesi di probabilità) per stimare la cinematica di oggetti in movimento, oltre alle dimensioni e all’orientamento degli oggetti stessi. Per gli ambienti urbani complessi, implementa un tracker RFS (Random Finite Set) basato su griglia, per eseguire il tracking dell’occupazione di ciascuna cella della griglia, oltre che della relativa cinematica.

Un tracker che esegue la fusione dei dati provenienti da più LiDAR in un ambiente urbano.

Fusione a livello di traccia

Esegui la fusione delle tracce provenienti da più fonti di tracking per ottenere una stima più completa dell’ambiente. Valuta le architetture di fusione track-to-track nei sistemi con vincoli della larghezza di banda e nei sistemi che impiegano il controllo del rumore per eliminare risultati obsoleti.

Fusione a livello di traccia con sensori LiDAR e radar.

Tracking multi-oggetto

Integra e configura filtri di Kalman e particellari, algoritmi di associazione dati e tracker multi-oggetto e multisensore. Formula una o più ipotesi sugli oggetti sottoposti a tracking.

Filtri per le stime e associazione dati

Stima gli stati degli oggetti utilizzando un’ampia libreria di filtri per le stime, tra cui i filtri di Kalman lineari e non lineari, i filtri multimodali e quelli particellari. Trova le soluzioni migliori o k-best per il problema di assegnazione 2D o il problema di assegnazione S-D. Assegna i rilevamenti ai rilevamenti, i rilevamenti alle tracce oppure le tracce alle tracce.

Tracking solo di intervalli con filtri non gaussiani.

Tracker multi-oggetto

Integra filtri di stima e algoritmi di assegnazione, quindi esegui il tracking della logica di gestione nei tracker multi-oggetto per eseguire la fusione dei rilevamenti in tracce. Converti i dati provenienti dai tuoi sensori in un formato di rilevamento e usa un tracker GNN (Global Nearest Neighbor) per scenari semplici. Passa in tutta semplicità a un tracker JPDA (Joint Probabilistic Data Association), un tracker MHT (Multiple Hypothesis) o a un tracker PHD per gli scenari più difficili come il tracking di target ravvicinati in cui sussistono ambiguità di misurazione.

Tracking di target ravvicinati in cui sussistono ambiguità di misurazione.

Oggetti estesi e tracker basati su griglia

Usa un tracker PHD per eseguire il tracking della cinematica, delle dimensioni e dell’orientamento di oggetti estesi. Sfruttando i dati provenienti da sensori ad alta risoluzione, come le nuvole di punti LiDAR e radar, usa i tracker RFS basati su griglia per stimare le caratteristiche dinamiche delle celle della griglia in ambienti urbani complessi.

Tracking di oggetti estesi con stima di dimensioni e orientamento.

Tracking centralizzato e decentralizzato

Costruisci architetture per il tracking centralizzate e decentralizzate in cui i report dei sensori vengono sottoposti a fusione entro i limiti della larghezza di banda di comunicazione. Usa metodi diversi per la fusione di stato e della covarianza di stato.

Fusione a livello di traccia

Procedi alla fusione delle tracce generate dai sensori di tracking o altri oggetti di fusione track-to-track. Crea architetture di sistemi decentralizzati per il tracking in sistemi a larghezza di banda limitata. Riduci la propagazione del rumore per eliminare i risultati obsoleti dei tracker.

Fusione track-to-track tra due veicoli.

Architetture di fusione

Esplora le architetture dei tracker e valuta i trade-off di progettazione tra la fusione track-to-track, il tracking a livello centrale o le architetture di tracking ibride. Usa la fusione (dei rilevamenti) statica per combinare i rilevamenti provenienti da sensori solo angolari e solo intervallari come IR, ESM o i radar di tipo bistatico.

Tracking con sensori passivi sincroni distribuiti.

Simulazione degli scenari di tracking

Genera report di sensori per testare i sistemi di tracking. Definisci scenari multipiattaforma e genera profili di moto per ciascuna piattaforma usando traiettorie basate su waypoint e cinematica. Collega firme e modelli di sensori a ciascuna piattaforma, poi simula i report in modalità statistica. Usa una verità di base (ground truth) simulata nelle simulazioni Monte Carlo per verificare e convalidare i sistemi di tracking.

Traiettoria degli oggetti e generazione di pose

Definisci scenari in modo interattivo con l’app Tracking Scenario Designer e genera script MATLAB che definiscono e convertono valori veri di posizione, velocità e orientamento di oggetti in frame di riferimento diversi.

Modelli di sensori attivi e passivi

Modella sensori attivi (tra cui radar, sonar e LiDAR) per generare rilevamenti di oggetti. Simula scansioni elettroniche e meccaniche in azimut, elevazione o entrambi. Modella l’RWR (Radar Warning Receiver), l’ESM (Electronic Support Measure), il sonar passivo e i sensori a infrarossi per generare rilevamenti solo angolari da utilizzare negli scenari di tracking. Modella sistemi radar e sonar multistatici con emettitori e sensori.

Tracking con sensori multistatici.

Simulazioni Monte Carlo

Esegui simulazioni Monte Carlo con diversi valori di rumore casuali. Esegui perturbazioni del valore di verità di base (ground truth) e della configurazione dei sensori in modo da aumentare la solidità dei test.

Perturbazione di traiettorie e sensori per generare dati di test.

Localizzazione per le piattaforme di tracking

Esegui la fusione di sensori IMU, GPS e altimetri per determinare l’orientamento e la posizione nel tempo e abilitare il tracking con piattaforme mobili. Stima l’orientamento e la posizione di sistemi di navigazione inerziale (INS) nel tempo con algoritmi ottimizzati per configurazioni di sensori, requisiti di output e limiti di moto diversi.

Modelli di sensori INS

Modella sensori IMU (unità di misura inerziale), GPS, altimetri e INS. Regola i parametri ambientali come temperatura e proprietà acustiche dei modelli per simulare gli ambienti del mondo reale.

Modellazione di sensori IMU e GPS per testare algoritmi di fusione inerziale.

Stima dell’orientamento

Esegui la fusione di letture di magnetometri e accelerometri per simulare una bussola elettronica (eCompass). Esegui la fusione di letture di accelerometri, giroscopi e magnetometri con un filtro per il sistema di riferimento di rotta e di assetto (AHRS) per stimare l’orientamento.

Stima dell’orientamento di una piattaforma mediante fusione dei sensori inerziali.

Odometria visuale inerziale che usa i dati di fotocamere e IMU sottoposti a fusione.

Visualizzazione e analisi

Analizza e valuta le prestazioni dei sistemi di tracking rispetto alla verità di base (ground truth).

Visualizzazione degli scenari

Rappresenta in un grafico l’orientamento e la velocità degli oggetti, le traiettorie ground truth, le misurazioni dei sensori e le tracce in 3D. Rappresenta le incertezze di rilevamento e tracking. Visualizza gli ID delle tracce con la cronologia del tracciato.

Grafico a teatro di uno scenario multipiattaforma.

Metriche di sensori e tracking

Genera metriche di definizione, manutenzione e cancellazione delle tracce, tra cui la lunghezza della traccia, le interruzioni di traccia e i cambiamenti dell’ID della traccia. Stima la precisione della traccia tramite posizione, velocità, accelerazione e la radice dell’errore quadratico medio (RMSE) della velocità di imbardata o l’errore di stima medio normalizzato al quadrato (ANEES). Usa le metriche OSPA e GOSPA integrate per riepilogare le prestazioni in un unico risultato. Analizza il rumore del sensore inerziale usando la varianza di Allan.

Metriche di tracking integrate per valutare le prestazioni del tracker rispetto alla verità di base (ground truth).

Regolazione di filtri e tracker

Regola i parametri di tracker multi-oggetto come la soglia di assegnazione, la funzione di inizializzazione dei filtri e le soglie di conferma e cancellazione per massimizzare le prestazioni. Confronta i risultati ottenuti dai vari tracker e con diverse configurazioni di tracker. Regola automaticamente i filtri INS per ottimizzare i parametri di rumore.

Tracking di target a punti in un ambiente con elevato livello di disordine con il tracker GM-PHD.

Accelerazione degli algoritmi e generazione di codice

Accelera le simulazioni applicando il coarse gating, generando codice C/C++ e MEX oppure usando pool di worker.

Generazione di codice

Genera codice C/C++ e MEX per l’accelerazione delle simulazioni o la prototipazione desktop con MATLAB Coder™. Applica soglie per il calcolo dei costi per ridurre il tempo trascorso a calcolare il costo di assegnazione.

Tracking di migliaia di target con codice generato per ridurre i tempi delle simulazioni.

Ultime Novità

RFS Tracker

Tracking di oggetti con il tracker RFS (Random Finite Set) basato su griglia

Generazione delle traiettorie

Creazione di traiettorie con waypoint earth-centered

Tuner dei filtri per i sensori inerziali

Regolazione automatica delle prestazioni di fusione dei sensori inerziali per i filtri INS, IMU e AHRS

Simulazione Monte Carlo

Perturbazione di scenari di tracking, sensori e traiettorie per creare grandi set di dati per i test

Modello di sensore LiDAR

Generazione di nuvole di punti sintetiche nell’ambito degli scenari di tracking

App Tracking Scenario Designer

Importazione di scenari di tracking nell’app a scopo di visualizzazione e riprogettazione

Sensore INS

Modellazione e simulazione di un sensore INS in Simulink

Modelli di moto

Simulazione del moto di accelerazione Singer

Consulta le note della release per ulteriori informazioni su queste caratteristiche e funzioni corrispondenti.

Ulteriori risorse su Sensor Fusion and Tracking Toolbox