Il settore delle scienze della vita è all’avanguardia nell’integrazione dell’IA e della tecnologia per migliorare i risultati dell’assistenza sanitaria. Foto: Shutterstock.com
Il settore delle scienze della vita è fondamentale per la società e comprende le scienze di base, le scienze applicate e la ricerca traslazionale. Questo settore comprende dispositivi medici, prodotti farmaceutici e servizi sanitari, che sono sempre più integrati con l’intelligenza artificiale (IA) per migliorare l’accuratezza diagnostica, personalizzare i trattamenti e migliorare i risultati dei pazienti.
Il settore delle scienze della vita nell’Unione Europea (UE) è regolato da una serie completa di leggi e regolamenti volti a garantire la sicurezza, l’efficacia e la qualità di prodotti, dispositivi e servizi medici, tra cui:
Regolamento (UE) 2017/745 sui dispositivi medici (MDR) e Regolamento (UE) 2017/746 sui dispositivi medici diagnostici in vitro (IVDR) che disciplinano l’immissione sul mercato e il servizio dei dispositivi medici e dei dispositivi diagnostici in vitro, garantendone la sicurezza e le prestazioni;
La Direttiva 2001/83/CE sul Codice comunitario relativo ai medicinali per uso umano, che definisce i requisiti per l’autorizzazione all’immissione in commercio dei medicinali;
E il Regolamento (UE) n. 536/2014 sulla sperimentazione clinica dei medicinali per uso umano, che armonizza le regole per la conduzione delle sperimentazioni cliniche nell’UE.
Anche la legge sull’IA, recentemente approvata, si applicherà a questo settore, con l’obiettivo di creare un quadro giuridico per l’IA che garantisca la sicurezza, la trasparenza e la tutela dei diritti fondamentali, promuovendo al contempo l’innovazione. Tra gli articoli critici rilevanti per il settore delle scienze della vita vi sono:
L’articolo 5 della legge sull’IA vieta le pratiche di IA che manipolano il comportamento umano per causare danni o sfruttare le vulnerabilità di gruppi specifici. Nel contesto delle scienze della vita, questo aspetto si interseca con considerazioni etiche nella ricerca e nel trattamento medico.
Ad esempio, i sistemi di IA utilizzati nelle sperimentazioni cliniche o nella medicina personalizzata non devono manipolare le decisioni dei pazienti o sfruttare le loro vulnerabilità, in linea con i principi etici delineati nei regolamenti MDR, IVDR e sulle sperimentazioni cliniche.
L’articolo 6 classifica i sistemi di IA destinati ai dispositivi medici come ad alto rischio. Ciò si interseca direttamente con la MDR e la IVDR, che classificano i dispositivi medici in base al loro rischio per i pazienti. I sistemi di IA incorporati nei dispositivi medici devono essere conformi alla legge sull’IA e alle normative sui dispositivi medici, garantendo che siano sottoposti a rigorose valutazioni di conformità ai sensi delle normative di settore e a un monitoraggio continuo.
L’articolo 9 impone ai fornitori di sistemi di IA ad alto rischio di istituire un sistema di gestione del rischio. Ciò è in linea con i requisiti MDR e IVDR per un sistema di gestione della qualità (QMS) nel settore delle scienze della vita. Il QMS deve affrontare i rischi associati all’uso dell’IA nei dispositivi medici, tra cui l’integrità dei dati, la distorsione degli algoritmi e l’affidabilità del sistema.
L’articolo 10 sottolinea la necessità di set di dati di alta qualità, governance dei dati e pratiche di gestione dei dati per i sistemi di IA ad alto rischio. Questo requisito si interseca con il GDPR, che impone solide misure di protezione dei dati, soprattutto quando si trattano dati sanitari. I sistemi di IA nelle scienze della vita devono garantire l’accuratezza, la completezza e la conformità dei dati alle normative sulla protezione dei dati, salvaguardando la privacy dei pazienti e la sicurezza dei dati.
L’articolo 15 della legge sull’IA prevede che i sistemi di IA ad alto rischio implementino misure adeguate per gestire i rischi di cybersecurity. Ciò include la garanzia di resilienza dei sistemi di IA contro gli attacchi e gli accessi non autorizzati. Nel contesto delle scienze della vita, questo requisito si allinea con l’MDR e l’IVDR, che richiedono ai produttori di implementare un sistema di gestione del rischio per tutto il ciclo di vita dei dispositivi medici, compresi i rischi di cybersecurity.
La cybersecurity è fondamentale nel settore delle scienze della vita, data la natura sensibile dei dati sanitari e la funzione critica dei dispositivi medici, ed è imposta sia dalla legge sull’AI che dalle normative settoriali sopra citate. Il GDPR prevede anche l’implementazione di misure tecniche e organizzative adeguate per garantire la sicurezza dei dati e la protezione dalle minacce informatiche.
L’articolo 17 richiede una documentazione tecnica completa per i sistemi di IA ad alto rischio, comprese le misure di sicurezza informatica. Questo aspetto è ripreso anche da MDR e IVDR. Entrambi i regolamenti richiedono una documentazione tecnica che includa gli aspetti di cybersecurity, garantendo che i dispositivi medici siano sicuri in fase di progettazione e durante l’uso previsto.
Va inoltre ricordato che gli obblighi che incombono sui modelli di intelligenza artificiale per scopi generali sono applicabili anche nel caso in cui questi ultimi vengano impiegati in questo settore, così come la facoltà di utilizzare l’AI Regulatory Sandbox per i test.
Il settore delle scienze della vita è all’avanguardia nell’integrazione dell’IA e della tecnologia per migliorare i risultati dell’assistenza sanitaria. Aderire a quadri normativi completi, garantire la protezione dei dati e mantenere la sicurezza informatica sono fondamentali per promuovere l’innovazione e salvaguardare la salute e la sicurezza pubblica. Trovare un equilibrio tra conformità normativa e innovazione rappresenta una sfida per gli sviluppatori di IA e i produttori di dispositivi medici. L’intersezione tra l’AI Act e le normative settoriali specifiche evidenzia la necessità di un approccio armonizzato alla governance dell’IA in ambito sanitario.
Con la continua evoluzione dell’IA, la collaborazione costante tra le autorità di sorveglianza del mercato, l’Autorità di sorveglianza del mercato dell’IA, altre autorità di regolamentazione, le parti interessate del settore e il pubblico sarà essenziale per navigare nelle complessità di questo settore dinamico.
Ian Gauci è managing partner di GTG, uno studio legale commerciale e societario focalizzato sulla tecnologia che è stato in prima linea negli sviluppi più importanti in materia di fintech, cybersecurity, telecomunicazioni e legislazione legata alla tecnologia.
Questo articolo non intende fornire consulenza legale e i lettori sono invitati a verificare le affermazioni fatte prima di agire in base ad esse.