Automated Driving Toolbox

Progettazione, simulazione e test dei sistemi ADAS e di guida autonoma

 

Automated Driving Toolbox™ fornisce algoritmi e strumenti per la progettazione, la simulazione e il test dei sistemi ADAS e di guida autonoma. È possibile progettare e verificare sistemi di percezione LIDAR e di visione, così come algoritmi di sensor fusion, di pianificazione dei percorsi o i controllori del veicolo. Gli strumenti di visualizzazione includono un grafico con vista a volo di uccello (Bird’s Eye Scope) per la coverage dei sensori, detezioni e tracce, e i display per video, LIDAR e mappe. Il toolbox permette di importare e lavorare con i dati di HERE HD Live Map e con le reti stradali OpenDRIVE®.

Utilizzando l’app Ground Truth Labeler, è possibile automatizzare l’etichettatura di validazione (ground truth) per addestrare e valutare gli algoritmi di percezione. Per il test Hardware-in-the-loop (HIL) e la simulazione su desktop della percezione, della sensor fusion, della pianificazione dei percorsi e della logica di controllo, è possibile generare e simulare scenari di guida. È possibile simulare l’output dei sensori di fotocamera, radar e LIDAR in un ambiente 3D fotorealistico e i rilevamenti dei sensori di oggetti e dei limiti di carreggiata in un ambiente di simulazione 2.5-D.

Automated Driving Toolbox fornisce esempi di applicazioni di riferimento per feature di guida automatica, compresi FCW, AEB, ACC, LKA e assistenza al parcheggio. Il toolbox supporta la generazione di codice C/C++ per prototipazione rapida e il test HIL, con assistenza per algoritmi di fusione di sensori, tracciamento, pianificazione dei percorsi e controllore del veicolo.

Inizia ora:

Applicazioni di riferimento

Utilizza le applicazioni di riferimento come base per lo sviluppo della funzionalità di guida automatica. Automated Driving Toolbox include applicazioni di riferimento per l’avviso di collisione frontale (FCW), il sistema anti-sbandamento (LKA) e l’assistenza al parcheggio.

Simulazione degli scenari di guida

Crea scenari di guida, utilizza modelli di sensori e genera dati sintetici per testare gli algoritmi di guida autonoma in ambienti simulati.

Simulazione di guida cuboide

Genera rilevamenti sintetici dei modelli di sensori di radar e fotocamere e incorpora i rilevamenti negli scenari di guida per testare gli algoritmi di guida autonoma con simulatore cuboide. Definisci le reti stradali, gli attori e i sensori con l’app Driving Scenario Designer. Importa test Euro NCAP e reti stradali OpenDRIVE precostituiti.

Simulazione di uno scenario di guida con Unreal Engine

Sviluppo, test e visualizzazione degli algoritmi delle prestazioni di guida in un ambiente 3D simulato sottoposto a rendering con Unreal Engine® di Epic Games®.

Utilizzare un ambiente di simulazione 3D per registrare i dati di sensore sintetici, sviluppare un sistema di rilevamento delle linee segna corsia e testare il sistema in diversi scenari. 

Etichettatura di Validazione (ground-truth)

Automatizza l’etichettatura di validazione (ground-truth) e confronta gli output da un algoritmo sottoposto a test con i tuoi dati di validazione.

Etichettatura di validazione (ground-truth) automatica

Utilizza l’app Ground Truth Labeler per un’etichettatura interattiva e automatica al fine di facilitare il rilevamento di oggetti, la segmentazione semantica e la classificazione delle scene.

Test degli algoritmi di percezione

Valuta le prestazioni degli algoritmi di percezione confrontando i dati di validazione (ground-truth) con gli output degli algoritmi.

Valutare l’output del rilevamento di carreggiata in base ai dati raccolti sul campo.

Percezione con LIDAR e Computer Vision

Sviluppa e verifica gli algoritmi di elaborazione LIDAR e di visione per la guida automatica.

Progettazione del sistema di visione

Sviluppa algoritmi di visione artificiale per il rilevamento di veicoli e pedoni, per il rilevamento della carreggiata e per la classificazione.

Output di simulazione del sensore della fotocamera monoculare.

Rilevare e tracciare i veicoli nelle nuvole di punti LIDAR.

Sensor Fusion e tracciamento


Esegui la multisensor fusion utilizzando un framework di tracciamento multi-oggetto con filtri di Kalman.

Mapping

Accedi e visualizza i dati della mappa ad alta definizione dal servizio HERE HD Live Map. Visualizza la posizione di oggetti e veicoli su visualizzatori di mappe in streaming.

Accedere ai dati di HERE HD Live Map

Leggi i dati delle mappe dal servizio web HERE HD Live Map, tra cui i layer affiancati delle mappe contenenti i dettagli di strade e vie e le informazioni di localizzazione.

Utilizzare HERE HD Live Map per verificare le configurazioni della carreggiata.

Visualizzazione dei dati delle mappe

Utilizza le coordinate in streaming per mappare la posizione dei veicoli in movimento.

Visualizzazione dei dati delle mappe in streaming.

Pianificazione di percorsi


Pianifica percorsi di guida utilizzando costmap di veicoli e algoritmi di motion-planning.

Controllori del veicolo

Utilizza i controllori laterali e longitudinali per seguire una traiettoria pianificata.

Funzionalità recenti

Simulazione 3D

Sviluppo, test e verifica degli algoritmi di guida in un ambiente di simulazione 3D sottoposto a rendering con Unreal Engine di Epic Games

Importazione drivingScenario

Lettura di scenari di guida creati programmaticamente nell’app Driving Scenario Designer e in Simulink

Esportazione da Driving Scenario Designer a Simulink

Generazione di modelli Simulink di scenari di guida e sensori

Visualizzazione di coordinate assolute Bird’s-Eye Scope

Visualizzazione di scenari in coordinate assolute

Profiler di velocità

Generazione del profilo di velocità di un percorso di guida a partire dai vincoli cinematici

Guarda le note di rilascio per ulteriori informazioni su queste caratteristiche e sulle funzioni corrispondenti.

Prova gratuita

30 giorni di esplorazione a tua disposizione.

Scarica ora

Pronto per acquistare?

Richiedi una quotazione ed esplora i prodotti correlati.

Sei uno Studente?

Acquista MATLAB e Simulink per studenti.

Scopri di più