Deep Learning per l'elaborazione di Audio e Suono

Presentazione

In questo webinar mostreremo I fondamenti delle tecniche di Deep Learning per applicazioni audio attraverso un esempio di riconoscimento di comandi vocali scritto interamente in codice MATLAB. Vedremo come sia possibile creare e accedere a dati etichettati, utilizzare trasformazioni nel dominio tempo-frequenza, estrarre caratteristiche (features), creare e addestrare una rete neurale profonda, ed infine testare il nostro modello utilizzando un sistema audio real-time. Vedremo anche come sia possibile scambiare reti neurali con altri ambienti molto popolari utilizzati per il Deep Learning e come sfruttare modelli già addestrate.

Punti principali

  • Acquisizione, segmentazione ed etichettatura di campioni audio ed utilizzo di dataset già esistenti.
  • Estrazione di caratteristiche standard per segnali audio e vocali e utilizzo di rappresentazioni 2D tempo-frequenza
  • Realizzazione e analisi di reti neurali profonde e interscambio di modelli con altri framework popolari (ad es. ONNX)
  • Accelerare il calcolo computazionale con l’utilizzo di GPU e usare il modello con piattaforme HW prototipali in tempo reale con segnali veri

Informazioni sul relatore/sui relatori

Giuseppe Ridinò è Senior Application Engineer MathWorks, esperto di calcolo numerico, sviluppo software e modellazione fisico-matematica. Già dalla fine degli anni 90 ha accumulato esperienze sull'applicazione di MATLAB® e Simulink® in diversi settori industriali.
Dal 2014 è entrato in MathWorks e si occupa principalmente delle tematiche di processamento del segnale, sistemi di comunicazione, processamento di immagini, visione artificiale, sistemi autonomi e generazione codice C/C++ e HDL.
Giuseppe ha conseguito la Laurea in Ingegneria Elettronica presso il Politecnico di Torino.

Prodotti interessati

Posti Esauriti