Man mano che i modelli di IA entrano a far parte dei sistemi ingegnerizzati, in particolare di applicazioni critiche per la sicurezza, è fondamentale garantirne l’affidabilità e la robustezza. AI Verification Library for Deep Learning Toolbox consente di valutare e testare rigorosamente modelli di IA.
AI Verification Library consente di:
- Verificare le proprietà dei tuoi modelli di IA, come la robustezza contro gli esempi avversari
- Stimare la sensibilità delle previsioni del modello di IA alle perturbazioni di input
- Creare un discriminatore di distribuzione che separi i dati in ID (In-Distribution) e OOD (Out Of Distribution) per il monitoraggio del runtime
- Distribuire un sistema di monitoraggio del runtime che controlli le prestazioni del modello di IA
- Analizzare un case study per verificare un sistema di Deep Learning su aeromobile
Cosa si intende per verifica dell’IA?
I workflow tradizionali di verifica e validazione, come il ciclo a V, spesso non sono sufficienti per i modelli di IA. La verifica dell’IA prevede test rigorosi per garantire comportamenti voluti ed evitare quelli indesiderati. Adattamenti come il processo di sviluppo a W consentono di migliorare la robustezza e la sicurezza affrontando input avversari, rilevamento Out-of-Distribution, stima dell’incertezza e verifica delle proprietà della rete.
Verifica di un sistema di Deep Learning su aeromobile (case study)
Esplora un case study per verificare un sistema di Deep Learning su aeromobile in linea con gli standard del settore aeronautico come DO-178C, ARP4754A e le future linee guida EASA e FAA. Questo case study fornisce una visione completa dei passi necessari per conformarsi pienamente agli standard industrali e alle linee guida per un sistema di Deep Learning.
Verifica della robustezza delle reti neurali profonde per la classificazione
Rendi la tua rete più robusta agli esempi avversari (input leggermente alterati progettati per ingannare la rete) utilizzando metodi formali. Questo approccio consente di testare una serie infinita di input, dimostrando la coerenza delle previsioni nonostante le perturbazioni e migliorando il processo di addestramento per aumentare l'affidabilità e l'accuratezza della rete.
Stima dei limiti di output della rete neurale profonda per la regressione
Dati gli intervalli di input, stima il limite massimo di output della rete utilizzando metodi formali. Questo processo consente di comprendere i potenziali output della rete per determinate perturbazioni di input, garantendo prestazioni affidabili in scenari quali i sistemi di controllo, l'elaborazione dei segnali e altro ancora.
Costruzione di sistemi di Deep Learning sicuri con il monitoraggio del runtime
Incorpora il monitoraggio del runtime con il rilevamento Out-of-Distribution per costruire sistemi di Deep Learning sicuri. La valutazione continua dell'allineamento dei dati in arrivo con i dati di addestramento può aiutare a decidere se fidarsi dei risultati della rete o se reindirizzarli per una gestione sicura, migliorando la sicurezza e l'affidabilità del sistema.
Utilizzo di tecniche di spiegabilità
Comprendi il processo decisionale della tua rete adottando tecniche di spiegabilità. Sfrutta metodi quali l’algoritmo D-RISE (Detector Randomized Input Sampling for Explanation) per calcolare le mappe di salienza per i rilevatori di oggetti e visualizzare regioni specifiche all’interno dei dati di input che influiscono maggiormente sulle previsioni della rete.
Integrazione del Deep Learning con vincoli
Il Deep Learning con vincoli (Constrained Deep Learning) è un approccio avanzato all’addestramento di reti neurali profonde che prevede l’integrazione di vincoli specifici al dominio nel processo di apprendimento. Integrando tali vincoli nella costruzione e nell’addestramento delle reti neurali, è possibile garantire un comportamento desiderabile in scenari essenziali per la sicurezza, dove tali garanzie sono di primaria importanza.