Capitolo 6
Sviluppo di modelli di IA certificabili
Negli ultimi anni sono arrivati sul mercato i primi dispositivi medici basati sull’IA, un traguardo per gli innovatori del settore medico in cui vengono impiegati algoritmi proprietari a scatola nera per diagnosticare o trattare una malattia.
Lo sviluppo di modelli basati sull’IA che possano essere certificati da un’autorità di regolamentazione è una sfida fondamentale per gli sviluppatori di dispositivi medici. Per la maggior parte, i dispositivi approvati di recente da enti regolatori come la FDA sono stati considerati a basso rischio per i pazienti e sono stati approvati prima dell’immissione sul mercato o classificati De Novo come dispositivi a basso rischio.
Le autorità di regolamentazione non hanno tuttavia ancora approvato dispositivi che presentano un rischio potenziale elevato per i pazienti, ad esempio un algoritmo diagnostico in cui un falso positivo potrebbe dare luogo a una procedura pericolosa. Probabilmente saranno necessari ulteriori controlli affinché un algoritmo di questo tipo venga approvato.
Con MATLAB e Simulink è possibile non solo sviluppare modelli di IA, ma anche raccogliere i dati necessari per garantire la qualità del software. Inoltre:
- MATLAB consente di costruire un modello di IA spiegabile e interpretabile.
- È anche possibile seguire un processo formalizzato per convalidare la conformità del modello alle linee guida dello standard IEC 62304 durante la fase di sviluppo del modello, un requisito per la certificazione di Software-as-a-Medical-Device (SaMD) basati sull’IA.
Interpretabilità e spiegabilità
Interpretabilità e spiegabilità sono strettamente correlate. Il termine “interpretabilità” è usato più spesso nel contesto del Machine Learning tradizionale, mentre per le reti neurali profonde molti parlano di “spiegabilità dell’IA”.

I modelli seguono uno spettro di spiegabilità che va dalle cosiddette “scatole nere”, che non offrono alcuna visibilità in merito alle decisioni di output, alle “scatole grigie”, che offrono alcune informazioni, fino alla trasparenza completa di un tradizionale modello basato sui principi primi.
L’interpretabilità e la spiegabilità rappresentano il grado di comprensione umana degli algoritmi di Machine Learning. I modelli di Machine Learning sono spesso definiti “scatole nere” poiché le loro rappresentazioni della conoscenza non sono intuitive e i loro processi decisionali non sono trasparenti. Di conseguenza, spesso è difficile capire in che modo funzionano.
Le tecniche di interpretabilità aiutano a comprendere in che modo i modelli di Machine Learning elaborano previsioni rivelando come le varie feature contribuiscono (o meno) alle previsioni. Le tecniche di interpretabilità consentono di:
- Convalidare che il modello utilizzi dati adeguati per le previsioni.
- Individuare bias nel modello non evidenti durante l’addestramento.
Alcuni modelli di Machine Learning, come la regressione lineare, gli alberi decisionali e i modelli generativi additivi, sono intrinsecamente interpretabili. Tuttavia, l’interpretabilità va spesso a scapito della potenza e della precisione.
L’interpretabilità è stata evidenziata come principio guida standard nel documento Good Machine Learning Practice per lo sviluppo di dispositivi medici pubblicato congiuntamente dalla FDA, dalla Health Canada e dalla Medicines & Healthcare products Regulatory Agency (MHRA) del Regno Unito [6]. È possibile impiegare diverse tecniche per produrre un risultato interpretativo positivo per i vari modelli utilizzando MATLAB per il Machine Learning e il Deep Learning. Alcuni esempi comprendono:
- Spiegazioni LIME (Local Interpretable Model-Agnostic Explanations)
- Dipendenza parziale (PDP)
- Grafici ICE (Individual Conditional Expectation)
- Valori Shapley
- Class Activation Mapping (CAM)
- Gradient-weighted Class Activation Mapping (Grad-CAM)
- Sensibilità all’occlusione
L’interpretabilità e la spiegabilità rappresentano un primo passo verso la comprensione dei modelli di IA. Tuttavia, nel passaggio alle fasi successive del workflow, è necessario assicurarsi che il modello sia stato costruito in modo robusto. Le reti neurali possono essere suscettibili di un fenomeno noto come “esempi avversari”, in cui piccolissime modifiche a un input (spesso impercettibili per l’essere umano) possono causare una classificazione errata dell’input stesso. È possibile utilizzare Deep Learning Toolbox Verification Library per verificare se una rete di Deep Learning è robusta contro gli esempi avversari e calcolare i limiti di output per un set di limiti di input.
Convalida e distribuzione dei modelli
I produttori di dispositivi medici sono responsabili della convalida dei modelli basati sull’IA in collaborazione con i ricercatori clinici. Il documento Good Machine Learning Practice sottolinea anche l’importanza di convalidare i modelli basati sull’IA eseguendo studi clinici che includano la popolazione di pazienti prevista [6].
Con MATLAB è possibile condividere un’applicazione basata sull’IA con il personale medico e ospedaliero ai fini della convalida. MATLAB offre la possibilità di creare un’applicazione standalone che può essere condivisa, installata individualmente per l’utente finale oppure ospitata su un server web per l’accesso da parte di più utenti tramite un browser web.
MATLAB supporta anche funzionalità per la distribuzione di applicazioni di IA su server di produzione per l’elaborazione rapida di richieste simultanee, oltre che su server paralleli per l’elaborazione di grandi volumi di dati dei pazienti in modalità batch. Sono disponibili opzioni per la generazione di codice C/C++ completo e distribuibile degli algoritmi che potrebbero essere facilmente distribuiti come standalone o integrati con applicazioni cliniche esistenti per l’esecuzione di studi di convalida.
Workflow di certificazione (IEC 62304)
MathWorks semplifica l’adesione alle linee guida dello standard IEC 62304 per lo sviluppo di Software-as-a-Medical-Device. I workflow di MATLAB incorporano la verifica e la convalida nel workflow di sviluppo software. In questo modo è possibile garantire che il software sia completamente testato e verificato prima di essere integrato in un dispositivo medico.
MATLAB supporta inoltre i processi di sviluppo software fornendo funzionalità che integrano nel workflow di sviluppo di dispositivi medici le fasi di pianificazione dettagliata dello sviluppo software, analisi dei requisiti del software, progettazione dell’architettura del software, progettazione dettagliata del software, implementazione e test delle unità del software, integrazione e test del software e test del sistema del software. Inoltre, MATLAB e Simulink consentono di valutare l’impatto di una modifica proposta al software, consentendo la simulazione degli elementi del software interessati.
MATLAB genera la maggior parte della documentazione di conformità normativa richiesta dallo standard IEC 62304 per lo sviluppo e la manutenzione del software. Per ulteriori informazioni sui workflow conformi allo standard IEC 62304 con MATLAB e Simulink, consulta i white paper Sviluppo di software embedded conformi a IEC 62304 per dispositivi medici.
Khawaja ottiene la certificazione IEC 62304
Sfida
L’analisi dei dati elettrocardiografici (ECG) è essenziale per il riconoscimento e il trattamento delle malattie cardiache.
Soluzione
Gli ingegneri di Khawaja Medical Technology hanno sviluppato algoritmi innovativi e avanzati basati sull’IA che automatizzano completamente l’analisi di segnali ECG. Gli algoritmi consentono il monitoraggio e l’analisi in tempo reale dei segnali ECG di un soggetto che sta riposando, svolgendo esercizio fisico o che indossa un monitor Holter in grado di tracciare i ritmi cardiaci per diversi giorni. Il team di ingegneri di Khawaja Medical Technology aveva il compito di sviluppare sofisticati algoritmi di elaborazione e analisi di segnali ECG. Il team doveva inoltre garantire la conformità a numerosi standard internazionali che regolano i software di dispositivi medici, tra cui lo standard IEC 62304.
Risultati
Lavorando con Simulink, il team ha ridotto i tempi di sviluppo del 40% rispetto agli approcci tradizionali, aderendo ai workflow di riferimento dell’IEC Certification Kit per la verifica e la convalida dei modelli e del codice generato automaticamente. Inoltre, ha accelerato la certificazione e l’audit con TÜV SÜD per ISO® 13485 e IEC 62304.
Riferimenti
[6] “Good Machine Learning Practice for Medical Device Development: Guiding Principles.” U.S. Food and Drug Administration, Health Canada, Medicines & Healthcare products Regulatory Agency, ottobre 2021. https://www.fda.gov/media/153486/download
Seleziona un sito web
Seleziona un sito web per visualizzare contenuto tradotto dove disponibile e vedere eventi e offerte locali. In base alla tua area geografica, ti consigliamo di selezionare: United States.
Puoi anche selezionare un sito web dal seguente elenco:
Come ottenere le migliori prestazioni del sito
Per ottenere le migliori prestazioni del sito, seleziona il sito cinese (in cinese o in inglese). I siti MathWorks per gli altri paesi non sono ottimizzati per essere visitati dalla tua area geografica.
Americhe
- América Latina (Español)
- Canada (English)
- United States (English)
Europa
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)