Formazione MATLAB e Simulink

Guida Autonoma con MATLAB

Guarda il programma e iscriviti

Dettagli dei corsi

Questo corso di due giorni fornisce un'esperienza pratica per sviluppare e verificare algoritmi di percezione per la guida autonoma. Gli esempi e gli esercizi illustrano l'uso di appropriate funzionalità di MATLAB® e Automated Driving Toolbox™.

Elenco degli argomenti:

  • Assegnazione di label a dati empirici di campo (ground truth)
  • Visualizzazione dei dati dei sensori
  • Rilevamento di veicoli e corsie
  • Elaborazione di cloud di punti ottenuti dalla scansione LiDAR
  • Tracciamento e fusione di sensori
  • Generazione di scenari di guida e modellazione dei sensori

Giorno 1


Assegnazione di Label a Dati Empirici di Campo (Ground Truth)

Obiettivo: Etichettare interattivamente i dati empirici di campo (ground truth) in un video o una sequenza di immagini. Automatizzare l’etichettatura con algoritmi di rilevamento e tracciamento.

  • Panoramica dell'app Ground Truth Labeler
  • Etichettare regioni di interesse (ROI) e scene
  • Automatizzare l’etichettatura
  • Visualizzare ed esportare i risultati di campo

Visualizzazione dei Dati dei Sensori

Obiettivo: Visualizzare i frame di una videocamera, rilevamenti radar e LiDAR. Usare sistemi appropriati di coordinate per trasformare coordinate immagine in coordinate veicolo e viceversa.

  • Creare un plot con vista aerea (bird's-eye)
  • Plottare le aree di copertura di un sensore
  • Visualizzare rilevamenti e corsie
  • Convertire da coordinate veicolo a coordinate immagine
  • Annotare video con rilevamenti e limiti di corsia

Rilevamento di Veicoli e Corsie

Obiettivo: Segmentare e modellare limiti di corsia parabolici. Usare rilevatori di oggetti pre-addestrati per rilevare veicoli.

  • Eseguire una trasformazione della visualizzazione aerea
  • Rilevare le caratteristiche di una corsia
  • Calcolare un modello di corsia
  • Convalidare un rilevamento di corsia con dati di campo
  • Rilevare veicoli con rilevatori di oggetti pre-addestrati

Elaborazione di Cloud di Punti Ottenuti dalla Scansione LiDAR

Obiettivo: Utilizzare dati LiDAR memorizzati come nuvole di punti 3D. Importare, visualizzare ed elaborare cloud di punti segmentandole nei cluster. Registrare cloud di punti per allinearli e creare una mappa di quelli acquisiti.

  • Importare e visualizzare cloud di punti
  • Pre-elaborare cloud di punti
  • Segmentare gli oggetti partendo dai dati dei sensori LiDAR
  • Creare una mappa partendo dai dati dei sensori LiDAR

Giorno 2


Tracciamento e Rilevamenti dei Sensori di Fusione

Obiettivo: Creare un tracker multi-oggetto per fondere le informazioni ottenute da più sensori come fotocamera, radar e LiDAR.

  • Tracciare oggetti multipli
  • Pre-elaborare i rilevamenti
  • Utilizzare i filtri di Kalman
  • Gestire oggetti multipli
  • Tracciare con il tracker multi-oggetto

Tracciamento di Oggetti di Grandi Dimensioni

Obiettivo: Creare un tracker di tipo Probability Hypothesis Density (PHD) per tracciare gli oggetti di grandi dimensioni e stimarne l'estensione spaziale.

  • Definire le configurazioni dei sensori
  • Tracciare oggetti di grandi dimensioni
  • Fare una stima dell'estensione spaziale

Generazione di Scenari di Guida e Modellazione dei Sensori

Obiettivo: Creare scenari di guida ed effettuare rilevamenti sintetici tramite sensori di fotocamere e radar in modo interattivo per testare gli algoritmi di percezione per la guida autonoma.

  • Panoramica dell'app Driving Scenario Designer
  • Creare scenari con strade, attori e sensori
  • Simulare e visualizzare scenari
  • Effettuare rilevamenti ed esportare scenari
  • Testare gli algoritmi con gli scenari

Livello: Intermedio

Prerequisiti:

Durata: 2 giorni

Lingue: English, 한국어

Guarda il programma e iscriviti