Automated Driving Toolbox™ fornisce algoritmi e strumenti per la progettazione, la simulazione e il test dei sistemi ADAS e di guida autonoma. È possibile progettare e verificare sistemi di percezione LIDAR e di visione, così come algoritmi di sensor fusion, di pianificazione dei percorsi o i controllori del veicolo. Gli strumenti di visualizzazione includono un grafico con vista a volo di uccello (Bird’s Eye Scope) per la coverage dei sensori, detezioni e tracce, e i display per video, LIDAR e mappe. Il toolbox permette di importare e lavorare con i dati di HERE HD Live Map e con le reti stradali OpenDRIVE®.
Utilizzando l’app Ground Truth Labeler, è possibile automatizzare l’etichettatura di validazione (ground truth) per addestrare e valutare gli algoritmi di percezione. Per il test Hardware-in-the-loop (HIL) e la simulazione su desktop della percezione, della sensor fusion, della pianificazione dei percorsi e della logica di controllo, è possibile generare e simulare scenari di guida. È possibile simulare l’output dei sensori di fotocamera, radar e LIDAR in un ambiente 3D fotorealistico e i rilevamenti dei sensori di oggetti e dei limiti di carreggiata in un ambiente di simulazione 2.5-D.
Automated Driving Toolbox offre esempi di applicazioni di riferimento per funzionalità comuni di ADAS e guida autonoma, tra cui l’avviso di collisione frontale, la frenata automatica di emergenza, il cruise control adattivo, l’assistenza al mantenimento della corsia e il sistema di parcheggio. Il toolbox supporta la generazione di codice C/C++ per prototipazione rapida e il test HIL, con assistenza per algoritmi di fusione di sensori, tracciamento, pianificazione dei percorsi e controllore del veicolo.
Inizia ora:
Applicazioni di riferimento
Utilizza le applicazioni di riferimento come base per lo sviluppo della funzionalità di guida automatica. Automated Driving Toolbox include applicazioni di riferimento per l’avviso di collisione frontale (FCW), il sistema anti-sbandamento (LKA) e l’assistenza al parcheggio.
Simulazione di guida cuboide
Genera rilevamenti sintetici dei modelli di sensori di radar e fotocamere e incorpora i rilevamenti negli scenari di guida per testare gli algoritmi di guida autonoma con simulatore cuboide. Definisci le reti stradali, gli attori e i sensori con l’app Driving Scenario Designer. Importa test Euro NCAP e reti stradali OpenDRIVE precostituiti.
Simulazione di uno scenario di guida con Unreal Engine
Sviluppo, test e visualizzazione degli algoritmi delle prestazioni di guida in un ambiente 3D simulato sottoposto a rendering con Unreal Engine® di Epic Games®.
Etichettatura di validazione (ground-truth) automatica
Utilizza l’app Ground Truth Labeler per un’etichettatura interattiva e automatica al fine di facilitare il rilevamento di oggetti, la segmentazione semantica e la classificazione delle scene.
Test degli algoritmi di percezione
Valuta le prestazioni degli algoritmi di percezione confrontando i dati di validazione (ground-truth) con gli output degli algoritmi.
Progettazione del sistema di visione
Sviluppa algoritmi di visione artificiale per il rilevamento di veicoli e pedoni, per il rilevamento della carreggiata e per la classificazione.
Elaborazione LIDAR
Utilizza i dati LIDAR per rilevare ostacoli e segmentare i piani di terra.
Accedere ai dati di HERE HD Live Map
Leggi i dati delle mappe dal servizio web HERE HD Live Map, tra cui i layer affiancati delle mappe contenenti i dettagli di strade e vie e le informazioni di localizzazione.
Visualizzazione dei dati delle mappe
Utilizza le coordinate in streaming per mappare la posizione dei veicoli in movimento.