Automated Driving Toolbox

Progettazione, simulazione e test dei sistemi ADAS e di guida autonoma

 

Automated Driving Toolbox™ fornisce algoritmi e strumenti per la progettazione, la simulazione e il test dei sistemi ADAS e di guida autonoma. È possibile progettare e verificare sistemi di percezione LIDAR e di visione, così come algoritmi di sensor fusion, di pianificazione dei percorsi o i controllori del veicolo. Gli strumenti di visualizzazione includono un grafico con vista a volo di uccello (Bird’s Eye Scope) per la coverage dei sensori, detezioni e tracce, e i display per video, LIDAR e mappe. Il toolbox permette di importare e lavorare con i dati di HERE HD Live Map e con le reti stradali OpenDRIVE®.

Utilizzando l’app Ground Truth Labeler, è possibile automatizzare l’etichettatura di validazione (ground truth) per addestrare e valutare gli algoritmi di percezione. Per il test Hardware-in-the-loop (HIL) e la simulazione su desktop della percezione, della sensor fusion, della pianificazione dei percorsi e della logica di controllo, è possibile generare e simulare scenari di guida. È possibile simulare l’output dei sensori di fotocamera, radar e LIDAR in un ambiente 3D fotorealistico e i rilevamenti dei sensori di oggetti e dei limiti di carreggiata in un ambiente di simulazione 2.5-D.

Automated Driving Toolbox fornisce esempi di applicazioni di riferimento per feature di guida automatica, compresi FCW, AEB, ACC, LKA e assistenza al parcheggio. Il toolbox supporta la generazione di codice C/C++ per prototipazione rapida e il test HIL, con assistenza per algoritmi di fusione di sensori, tracciamento, pianificazione dei percorsi e controllore del veicolo.

Inizia ora:

Applicazioni di riferimento

Utilizza le applicazioni di riferimento come base per lo sviluppo della funzionalità di guida automatica. Automated Driving Toolbox include applicazioni di riferimento per l’avviso di collisione frontale (FCW), il sistema anti-sbandamento (LKA) e l’assistenza al parcheggio.

Simulazione degli scenari di guida

Crea scenari di guida, utilizza modelli di sensori e genera dati sintetici per testare gli algoritmi di guida autonoma in ambienti simulati.

Simulazione di guida cuboide

Genera rilevamenti sintetici dei modelli di sensori di radar e fotocamere e incorpora i rilevamenti negli scenari di guida per testare gli algoritmi di guida autonoma con simulatore cuboide. Definisci le reti stradali, gli attori e i sensori con l’app Driving Scenario Designer. Importa test Euro NCAP e reti stradali OpenDRIVE precostituiti.

Simulazione di uno scenario di guida con Unreal Engine

Sviluppo, test e visualizzazione degli algoritmi delle prestazioni di guida in un ambiente 3D simulato sottoposto a rendering con Unreal Engine® di Epic Games®.

Utilizzare un ambiente di simulazione 3D per registrare i dati di sensore sintetici, sviluppare un sistema di rilevamento delle linee segna corsia e testare il sistema in diversi scenari. 

Etichettatura di Validazione (ground-truth)

Automatizza l’etichettatura di validazione (ground-truth) e confronta gli output da un algoritmo sottoposto a test con i tuoi dati di validazione.

Etichettatura di validazione (ground-truth) automatica

Utilizza l’app Ground Truth Labeler per un’etichettatura interattiva e automatica al fine di facilitare il rilevamento di oggetti, la segmentazione semantica e la classificazione delle scene.

Test degli algoritmi di percezione

Valuta le prestazioni degli algoritmi di percezione confrontando i dati di validazione (ground-truth) con gli output degli algoritmi.

Valutare l’output del rilevamento di carreggiata in base ai dati raccolti sul campo.

Percezione con LIDAR e Computer Vision

Sviluppa e verifica gli algoritmi di elaborazione LIDAR e di visione per la guida automatica.

Progettazione del sistema di visione

Sviluppa algoritmi di visione artificiale per il rilevamento di veicoli e pedoni, per il rilevamento della carreggiata e per la classificazione.

Output di simulazione del sensore della fotocamera monoculare.

Rilevare e tracciare i veicoli nelle nuvole di punti LIDAR.

Sensor Fusion e tracciamento


Esegui la multisensor fusion utilizzando un framework di tracciamento multi-oggetto con filtri di Kalman.

Mapping

Accedi e visualizza i dati della mappa ad alta definizione dal servizio HERE HD Live Map. Visualizza la posizione di oggetti e veicoli su visualizzatori di mappe in streaming.

Accedere ai dati di HERE HD Live Map

Leggi i dati delle mappe dal servizio web HERE HD Live Map, tra cui i layer affiancati delle mappe contenenti i dettagli di strade e vie e le informazioni di localizzazione.

Utilizzare HERE HD Live Map per verificare le configurazioni della carreggiata.

Visualizzazione dei dati delle mappe

Utilizza le coordinate in streaming per mappare la posizione dei veicoli in movimento.

Visualizzazione dei dati delle mappe in streaming.

Pianificazione di percorsi


Pianifica percorsi di guida utilizzando costmap di veicoli e algoritmi di motion-planning.

Controllori del veicolo

Utilizza i controllori laterali e longitudinali per seguire una traiettoria pianificata.

Funzionalità recenti

Etichettatura sul campo automatica multisegnale

etichettare simultaneamente segnali video e LIDAR sincronizzati

Etichettatura LIDAR

etichettare nuvole di punti LIDAR per addestrare modelli di deep learning

Personalizzazione di scene 3D

simulare scenari di guida in un ambiente 3D utilizzando scene create in Unreal Editor

Modello di sensore LIDAR

generare nuvole di punti sintetiche da scenari di guida programmatici

Miglioramenti della visualizzazione Bird's Eye

visualizzare dati radar e LIDAR da sensori di simulazione 3D e visualizzare attori da blocchi personalizzati

Strade per mappe live HD HERE in scenari

creazione di scenari di guida utilizzando dati stradali importati da mappe geografiche ad alta definizione

Consulta le note di rilascio per ulteriori informazioni su queste caratteristiche e sulle funzioni corrispondenti.

Ulteriori risorse su Automated Driving Toolbox