Guida Autonoma con MATLAB
Guarda il programma e iscrivitiDettagli dei corsi
Questo corso di due giorni fornisce un'esperienza pratica per sviluppare e verificare algoritmi di percezione per la guida autonoma. Gli esempi e gli esercizi illustrano l'uso di appropriate funzionalità di MATLAB® e Automated Driving Toolbox™.
Elenco degli argomenti:
- Assegnazione di label a dati empirici di campo (ground truth)
- Visualizzazione dei dati dei sensori
- Rilevamento di veicoli e corsie
- Elaborazione di cloud di punti ottenuti dalla scansione LiDAR
- Tracciamento e fusione di sensori
- Generazione di scenari di guida e modellazione dei sensori
Giorno 1
Assegnazione di Label a Dati Empirici di Campo (Ground Truth)
Obiettivo: Etichettare interattivamente i dati empirici di campo (ground truth) in un video o una sequenza di immagini. Automatizzare l’etichettatura con algoritmi di rilevamento e tracciamento.
- Panoramica dell'app Ground Truth Labeler
- Etichettare regioni di interesse (ROI) e scene
- Automatizzare l’etichettatura
- Visualizzare ed esportare i risultati di campo
Visualizzazione dei Dati dei Sensori
Obiettivo: Visualizzare i frame di una videocamera, rilevamenti radar e LiDAR. Usare sistemi appropriati di coordinate per trasformare coordinate immagine in coordinate veicolo e viceversa.
- Creare un plot con vista aerea (bird's-eye)
- Plottare le aree di copertura di un sensore
- Visualizzare rilevamenti e corsie
- Convertire da coordinate veicolo a coordinate immagine
- Annotare video con rilevamenti e limiti di corsia
Rilevamento di Veicoli e Corsie
Obiettivo: Segmentare e modellare limiti di corsia parabolici. Usare rilevatori di oggetti pre-addestrati per rilevare veicoli.
- Eseguire una trasformazione della visualizzazione aerea
- Rilevare le caratteristiche di una corsia
- Calcolare un modello di corsia
- Convalidare un rilevamento di corsia con dati di campo
- Rilevare veicoli con rilevatori di oggetti pre-addestrati
Elaborazione di Cloud di Punti Ottenuti dalla Scansione LiDAR
Obiettivo: Utilizzare dati LiDAR memorizzati come nuvole di punti 3D. Importare, visualizzare ed elaborare cloud di punti segmentandole nei cluster. Registrare cloud di punti per allinearli e creare una mappa di quelli acquisiti.
- Importare e visualizzare cloud di punti
- Pre-elaborare cloud di punti
- Segmentare gli oggetti partendo dai dati dei sensori LiDAR
- Creare una mappa partendo dai dati dei sensori LiDAR
Giorno 2
Tracciamento e Rilevamenti dei Sensori di Fusione
Obiettivo: Creare un tracker multi-oggetto per fondere le informazioni ottenute da più sensori come fotocamera, radar e LiDAR.
- Tracciare oggetti multipli
- Pre-elaborare i rilevamenti
- Utilizzare i filtri di Kalman
- Gestire oggetti multipli
- Tracciare con il tracker multi-oggetto
Tracciamento di Oggetti di Grandi Dimensioni
Obiettivo: Creare un tracker di tipo Probability Hypothesis Density (PHD) per tracciare gli oggetti di grandi dimensioni e stimarne l'estensione spaziale.
- Definire le configurazioni dei sensori
- Tracciare oggetti di grandi dimensioni
- Fare una stima dell'estensione spaziale
Generazione di Scenari di Guida e Modellazione dei Sensori
Obiettivo: Creare scenari di guida ed effettuare rilevamenti sintetici tramite sensori di fotocamere e radar in modo interattivo per testare gli algoritmi di percezione per la guida autonoma.
- Panoramica dell'app Driving Scenario Designer
- Creare scenari con strade, attori e sensori
- Simulare e visualizzare scenari
- Effettuare rilevamenti ed esportare scenari
- Testare gli algoritmi con gli scenari
Livello: Intermedio
Prerequisiti:
- Fondamenti di MATLAB
- Elaborazione di Immagini con MATLAB, Computer Vision con MATLAB, e conoscenze di base dei concetti di visione artificiale ed elaborazione di immagini
- Deep Learning con MATLAB è consigliato
Durata: 2 giorni
Lingue: English, 한국어