Prodotti e servizi

Deep Learning Toolbox Verification Library

Garanzia di robustezza e affidabilità delle reti neurali profonde

Man mano che le reti neurali profonde entrano a far parte di sistemi ingegnerizzati, in particolare di applicazioni critiche per la sicurezza, è fondamentale garantirne l'affidabilità e la robustezza. Deep Learning Toolbox Verification Library consente di valutare e testare rigorosamente le reti neurali profonde.

Deep Learning Toolbox Verification Library consente di:

  • Verificare le proprietà della tua rete neurale profonda, come la robustezza contro gli esempi avversari
  • Stimare la sensibilità delle previsioni di una rete alle perturbazioni di input
  • Creare un discriminatore di distribuzione che separi i dati in ID (In-Distribution) e OOD (Out Of Distribution) per il monitoraggio del runtime
  • Implementare un sistema di monitoraggio del runtime che supervisiona le prestazioni di rete con la tua rete
  • Analizzare un case study per verificare un sistema di Deep Learning su aeromobile
Illustrazione di una macchina desktop che utilizza il calcolo quantistico con MATLAB.

Verifica della robustezza delle reti neurali profonde per la classificazione

Rendi la tua rete più robusta agli esempi avversari (input leggermente alterati progettati per ingannare la rete) utilizzando metodi formali. Questo approccio consente di testare una serie infinita di input, dimostrando la coerenza delle previsioni nonostante le perturbazioni e migliorando il processo di addestramento per aumentare l'affidabilità e l'accuratezza della rete.

Stima dei limiti di output della rete neurale profonda per la regressione

Dati gli intervalli di input, stima i limiti minimi e massimi di output della rete utilizzando metodi formali. Questo processo consente di comprendere i potenziali output della rete per determinate perturbazioni di input, garantendo prestazioni affidabili in scenari quali i sistemi di controllo, l'elaborazione dei segnali e altro ancora.

Costruzione di sistemi di Deep Learning sicuri con il monitoraggio del runtime

Incorpora il monitoraggio del runtime con il rilevamento Out-of-Distribution per costruire sistemi di Deep Learning sicuri. La valutazione continua dell'allineamento dei dati in arrivo con i dati di addestramento può aiutare a decidere se fidarsi dei risultati della rete o se reindirizzarli per una gestione sicura, migliorando la sicurezza e l'affidabilità del sistema.

Case study: verifica di un sistema di Deep Learning su aeromobile

Esplora un case study per verificare un sistema di Deep Learning su aeromobile in linea con gli standard del settore aeronautico come DO-178C, ARP4754A e le future linee guida EASA e FAA. Questo case study fornisce una visione completa dei passi necessari per conformarsi pienamente agli standard industrali e alle linee guida per i sistemi di Deep Learning.