Sensor Fusion and Tracking Toolbox
Progettazione, simulazione e test dei sistemi di posizionamento e tracking multisensore
Sensor Fusion and Tracking Toolbox™ include algoritmi e strumenti per progettare, simulare e testare sistemi che consentono la fusione di dati provenienti da più sensori al fine di mantenere consapevolezza situazionale e localizzazione. Gli esempi di riferimento forniscono un punto di partenza per sviluppare il tracking multi-oggetto e la fusione dei sensori per sistemi autonomi e di sorveglianza, compresi i sistemi aerei, spaziali, terrestri, sottomarini e a bordo nave.
È possibile procedere alla fusione dei dati provenienti da sensori del mondo reale, compresi i sensori radar attivi e passivi, sonar, LiDAR, EO/IR, IMU e GPS. È anche possibile generare dati sintetici provenienti dai sensori virtuali per testare i propri algoritmi in scenari diversi. Il toolbox include tracker multi-oggetto e filtri per le stime, al fine di valutare le architetture che combinano una fusione a livello di griglia, rilevamento, oggetto o traccia. Contiene anche delle metriche, tra cui OSPA e GOSPA, per convalidare le prestazioni rispetto a scene di verità di base (ground truth).
Per l’accelerazione delle simulazioni o la prototipazione rapida, il toolbox supporta la generazione di codice C.
Inizia ora:
- Tracking per sistemi di sorveglianza
- Tracking per sistemi autonomi
- Tracking multi-oggetto
- Confronto tra tracking centralizzato e decentralizzato
- Simulazione degli scenari di tracking
- Localizzazione per le piattaforme di tracking
- Visualizzazione e analisi
- Accelerazione degli algoritmi e generazione di codice
Free White Paper
Sensor Fusion and Tracking for Autonomous Systems
Sorveglianza aerospaziale
Esegui il tracking di più oggetti usando i dati provenienti da sensori attivi e passivi quali i sensori radar, ADS-B e EO/IR. Personalizza i tracker per gestire oggetti in fase di manovra.
Sorveglianza spaziale
Esegui il tracking di più oggetti presenti nello spazio usando i dati provenienti da sensori radar per generare consapevolezza situazionale spaziale. I tracker possono essere configurati in modo da usare un modello Kepleriano del moto o altri modelli orbitali.
Sorveglianza terrestre e marittima
Esegui il tracking di oggetti estesi in applicazioni marittime e terrestri usando sensori LiDAR e radar ad alta risoluzione.
Tracking per sistemi autonomi
Migliora i sistemi di percezione nei veicoli autonomi effettuando il tracking di oggetti estesi con i dati provenienti da fotocamere, radar e LiDAR. Esegui la fusione di nuvole di punti, rilevamenti e tracce provenienti da più sensori per stimare la posizione, la cinematica, la portata e l’orientamento di questi oggetti.
Tracking con sensore singolo
Modella e simula tracker multi-oggetto per eseguire le elaborazioni richieste nei sensori smart. Tra queste operazioni è compresa la trasformazione di dati grezzi in tracklist di oggetti.
Fusione centralizzata
Esegui il tracking di oggetti estesi con un tracker centralizzato che fonde i dati provenienti da più sensori e da sensori che operano in modalità diverse. Usa un tracker PHD (densità di ipotesi di probabilità) per stimare la cinematica di oggetti in movimento, oltre alle dimensioni e all’orientamento degli oggetti stessi. Per gli ambienti urbani complessi, implementa un tracker RFS (Random Finite Set) basato su griglia, per eseguire il tracking dell’occupazione di ciascuna cella della griglia, oltre che della relativa cinematica.
Fusione a livello di traccia
Esegui la fusione delle tracce provenienti da più fonti di tracking per ottenere una stima più completa dell’ambiente. Valuta le architetture di fusione track-to-track nei sistemi con vincoli della larghezza di banda e nei sistemi che impiegano il controllo del rumore per eliminare risultati obsoleti.
Filtri per le stime e associazione dati
Stima gli stati degli oggetti utilizzando un’ampia libreria di filtri per le stime, tra cui i filtri di Kalman lineari e non lineari, i filtri multimodali e quelli particellari. Trova le soluzioni migliori o k-best per il problema di assegnazione 2D o il problema di assegnazione S-D. Assegna i rilevamenti ai rilevamenti, i rilevamenti alle tracce oppure le tracce alle tracce.
Tracker multi-oggetto
Integra filtri di stima e algoritmi di assegnazione, quindi esegui il tracking della logica di gestione nei tracker multi-oggetto per eseguire la fusione dei rilevamenti in tracce. Converti i dati provenienti dai tuoi sensori in un formato di rilevamento e usa un tracker GNN (Global Nearest Neighbor) per scenari semplici. Passa in tutta semplicità a un tracker JPDA (Joint Probabilistic Data Association), un tracker MHT (Multiple Hypothesis) o a un tracker PHD per gli scenari più difficili come il tracking di target ravvicinati in cui sussistono ambiguità di misurazione.
Oggetti estesi e tracker basati su griglia
Usa un tracker PHD per eseguire il tracking della cinematica, delle dimensioni e dell’orientamento di oggetti estesi. Sfruttando i dati provenienti da sensori ad alta risoluzione, come le nuvole di punti LiDAR e radar, usa i tracker RFS basati su griglia per stimare le caratteristiche dinamiche delle celle della griglia in ambienti urbani complessi.
Fusione a livello di traccia
Procedi alla fusione delle tracce generate dai sensori di tracking o altri oggetti di fusione track-to-track. Crea architetture di sistemi decentralizzati per il tracking in sistemi a larghezza di banda limitata. Riduci la propagazione del rumore per eliminare i risultati obsoleti dei tracker.
Architetture di fusione
Esplora le architetture dei tracker e valuta i trade-off di progettazione tra la fusione track-to-track, il tracking a livello centrale o le architetture di tracking ibride. Usa la fusione (dei rilevamenti) statica per combinare i rilevamenti provenienti da sensori solo angolari e solo intervallari come IR, ESM o i radar di tipo bistatico.
Simulazione degli scenari di tracking
Genera report di sensori per testare i sistemi di tracking. Definisci scenari multipiattaforma e genera profili di moto per ciascuna piattaforma usando traiettorie basate su waypoint e cinematica. Collega firme e modelli di sensori a ciascuna piattaforma, poi simula i report in modalità statistica. Usa una verità di base (ground truth) simulata nelle simulazioni Monte Carlo per verificare e convalidare i sistemi di tracking.
Traiettoria degli oggetti e generazione di pose
Definisci scenari in modo interattivo con l’app Tracking Scenario Designer e genera script MATLAB che definiscono e convertono valori veri di posizione, velocità e orientamento di oggetti in frame di riferimento diversi.
Modelli di sensori attivi e passivi
Modella sensori attivi (tra cui radar, sonar e LiDAR) per generare rilevamenti di oggetti. Simula scansioni elettroniche e meccaniche in azimut, elevazione o entrambi. Modella l’RWR (Radar Warning Receiver), l’ESM (Electronic Support Measure), il sonar passivo e i sensori a infrarossi per generare rilevamenti solo angolari da utilizzare negli scenari di tracking. Modella sistemi radar e sonar multistatici con emettitori e sensori.
Simulazioni Monte Carlo
Esegui simulazioni Monte Carlo con diversi valori di rumore casuali. Esegui perturbazioni del valore di verità di base (ground truth) e della configurazione dei sensori in modo da aumentare la solidità dei test.
Localizzazione per le piattaforme di tracking
Esegui la fusione di sensori IMU, GPS e altimetri per determinare l’orientamento e la posizione nel tempo e abilitare il tracking con piattaforme mobili. Stima l’orientamento e la posizione di sistemi di navigazione inerziale (INS) nel tempo con algoritmi ottimizzati per configurazioni di sensori, requisiti di output e limiti di moto diversi.
Modelli di sensori INS
Modella sensori IMU (unità di misura inerziale), GPS, altimetri e INS. Regola i parametri ambientali come temperatura e proprietà acustiche dei modelli per simulare gli ambienti del mondo reale.
Stima dell’orientamento
Esegui la fusione di letture di magnetometri e accelerometri per simulare una bussola elettronica (eCompass). Esegui la fusione di letture di accelerometri, giroscopi e magnetometri con un filtro per il sistema di riferimento di rotta e di assetto (AHRS) per stimare l’orientamento.
Stima della posa
Stima la posa con e senza vincoli di rotta non olonomi utilizzando sensori inerziali e GPS. Determina la posa senza GPS eseguendo la fusione di sensori inerziali con altimetri o l’odometria visuale.
Visualizzazione degli scenari
Rappresenta in un grafico l’orientamento e la velocità degli oggetti, le traiettorie ground truth, le misurazioni dei sensori e le tracce in 3D. Rappresenta le incertezze di rilevamento e tracking. Visualizza gli ID delle tracce con la cronologia del tracciato.
Metriche di sensori e tracking
Genera metriche di definizione, manutenzione e cancellazione delle tracce, tra cui la lunghezza della traccia, le interruzioni di traccia e i cambiamenti dell’ID della traccia. Stima la precisione della traccia tramite posizione, velocità, accelerazione e la radice dell’errore quadratico medio (RMSE) della velocità di imbardata o l’errore di stima medio normalizzato al quadrato (ANEES). Usa le metriche OSPA e GOSPA integrate per riepilogare le prestazioni in un unico risultato. Analizza il rumore del sensore inerziale usando la varianza di Allan.
Regolazione di filtri e tracker
Regola i parametri di tracker multi-oggetto come la soglia di assegnazione, la funzione di inizializzazione dei filtri e le soglie di conferma e cancellazione per massimizzare le prestazioni. Confronta i risultati ottenuti dai vari tracker e con diverse configurazioni di tracker. Regola automaticamente i filtri INS per ottimizzare i parametri di rumore.
Generazione di codice
Genera codice C/C++ e MEX per l’accelerazione delle simulazioni o la prototipazione desktop con MATLAB Coder™. Applica soglie per il calcolo dei costi per ridurre il tempo trascorso a calcolare il costo di assegnazione.