L'intelligenza artificiale (AI) promette di supportare quotidianamente gli esseri umani, assistere con le attività di routine e far progredire la conoscenza umana. Ha un grande potenziale per migliorare i risultati dei pazienti e i sistemi sanitari.

Le soluzioni di intelligenza artificiale si trovano in dispositivi indossabili o di imaging che aiutano a prevedere gli errori cardiaci, monitorare continuamente i livelli di glucosio, soluzioni di auto-scansione del cancro della pelle o app personalizzate che forniscono consulenza ad hoc per aiutare a cambiare il comportamento correlato alla salute. Viene anche utilizzato negli interventi chirurgici assistiti da robot e per ottimizzare gli studi clinici utilizzando dati del mondo reale nel reclutamento dei pazienti. Un recente studio commissionato da MedTech Europe ha dimostrato che l'IA nell'assistenza sanitaria potrebbe salvare circa 400 000 vite all'anno e fino a 200 miliardi di euro in Europa.
MedTech Europe rappresenta la voce dell'industria della tecnologia medica, compresa la diagnostica, i dispositivi medici e la salute digitale. L'industria della tecnologia medica immagina un ambiente in cui l'IA sicura, di alta qualità e affidabile nelle tecnologie mediche migliori i risultati sanitari e dei pazienti e un panorama normativo che supporti l'accesso a dispositivi medici sicuri, compresi quelli abilitati all'IA.
L'allineamento tra la legge sull'IA e la legislazione settoriale è fondamentale per facilitare l'accesso continuo a un'assistenza sanitaria innovativa.
Le tecnologie mediche abilitate all'IA accedono al mercato dell'UE in modo sicuro da anni, accelerate dall'introduzione del regolamento sui dispositivi medici e del regolamento sui dispositivi medico-diagnostici in vitro (MDR/IVDR). Come legislazione sui prodotti, includono una solida serie di requisiti che garantiscono la sicurezza dei dispositivi medici e della diagnostica in vitro per i pazienti e gli operatori sanitari e promuovono l'innovazione dei componenti di IA di tali dispositivi. Fanno parte del nuovo quadro legislativo, il quadro di riferimento per la sicurezza dei prodotti.
Ai sensi della proposta di legge sull'IA, i dispositivi medico-medici o diagnostici in vitro che sono essi stessi un sistema di IA o utilizzano un sistema di IA come componente di sicurezza, sarebbero soggetti all'MDR / IVDR e alla legge sull'IA. La legge determinerà come e se le nuove tecnologie mediche abilitate all'IA saranno immesse sul mercato e raggiungeranno ospedali e pazienti.
Creare condizioni di parità per gli attori coinvolti nell'ecosistema dell'assistenza sanitaria e dell'IA è fondamentale per migliorare i sistemi sanitari in tutta Europa. La definizione di norme coerenti e coerenti tra le normative applicabili dell'UE è essenziale per superare il rischio di frammentazione, duplicazione o persino conflitti di requisiti. Piuttosto, l'obiettivo dovrebbe essere quello di fornire le necessarie informazioni tecniche alle autorità nel modo più coerente e trasparente possibile.
Se quanto sopra non viene adeguatamente affrontato, l'UE potrebbe dover affrontare ulteriori sfide per un quadro normativo già oneroso, contribuendo alla carenza di dispositivi medici in tutta Europa. La questione è stata sollevata durante la recente riunione dei ministri della Salute del 9 dicembre 2022 e la successiva proposta della Commissione europea di modificare l'MDR. Requisiti normativi contrastanti possono impedire ai produttori all'interno dell'UE di fornire soluzioni innovative ai pazienti e ai sistemi sanitari europei.
MedTech Europe richiede definizioni e requisiti coerenti per garantire la sicurezza dei pazienti.
MedTech Europe accoglie con favore l'obiettivo previsto dall'AI Act di facilitare l'innovazione garantendo al contempo la protezione dei diritti fondamentali. Tuttavia, è necessaria chiarezza in più aree per fornire benefici ai risultati sanitari e ai sistemi sanitari:
Secondo l'approccio basato sul rischio della proposta, tutte le tecnologie mediche abilitate all'IA sarebbero considerate ad alto rischio in quanto devono essere sottoposte a valutazione della conformità ai sensi dell'MDR/IVDR. Tuttavia, la tecnologia medica potrebbe non essere classificata come tale ai sensi della legislazione settoriale. Ad esempio, le soluzioni di self-scanning possono essere classificate come a medio rischio ai sensi dell'MDR ma considerate ad alto rischio ai sensi dell'AI Act.
La legge introduce definizioni che sarebbero in conflitto con quelle stabilite nel MDR/IVDR. Come già espresso in una dichiarazione del settore la scorsa settimana, le aree che necessitano di perfezionamento includono una definizione eccessivamente ampia di sistemi di intelligenza artificiale che considera inavvertitamente tutto il software nella tecnologia medica come AI, il che non è il caso. Inoltre, l'uso incoerente di "rischio" e le definizioni mancanti di "rischio" e "danno" sono elementi essenziali per qualificare e attuare l'approccio basato sul rischio.
I requisiti dell'AI Act, come quelli dell'MDR/IVDR, sono destinati ad essere supportati da standard armonizzati . Ulteriori disallineamenti deriveranno dall'introduzione di standard orizzontali in quanto non terranno conto delle specificità settoriali dell'industria della tecnologia medica, risultando in standard incompatibili con quelli di MDR / IVDR. Queste e altre questioni sono già state espresse da una serie di parti interessate del settore a settembre. Il messaggio è chiaro: la legge sull'IA deve essere adeguatamente integrata nel contesto normativo già esistente.
Vi sono anche incongruenze per quanto riguarda i requisiti per i sistemi di IA ad alto rischio, come la governance dei dati e dei dati, la documentazione tecnica e la supervisione umana. Si può discutere se un set di dati sia sufficientemente rappresentativo o privo di distorsioni. In realtà, i set di dati all'interno dell'assistenza sanitaria possono essere limitati dall'omissione di funzionalità tra cui sesso ed età a causa di requisiti di anonimizzazione.
La selezione e l'omissione dei dati nell'IA richiedono un approccio normativo equilibrato alla privacy e all'innovazione sanitaria. Tutte le parti interessate all'interno del settore sanitario dovrebbero essere in grado di influenzare e ottimizzare il completamento del set di dati in qualsiasi caso d'uso dell'IA che cerchi di migliorare l'assistenza sanitaria e l'erogazione dell'assistenza sanitaria. Sia la legge sull'IA che la legislazione settoriale impongono ai fornitori di presentare una documentazione tecnica che, analizzando i due testi legislativi, presenta requisiti sovrapposti o incoerenti che potrebbero comportare la necessità di presentare due serie separate di documentazione.
La legge sull'IA deve garantire una supervisione e un intervento umani equilibrati, poiché un'eccessiva interferenza umana e una mancanza di comprensione dei fattori umani potrebbero avere un impatto negativo sul rapporto beneficio-rischio dei dispositivi medici.
Soprattutto, vengono imposti requisiti contrastanti in materia di valutazione della conformità, sistemi di gestione della qualità, autorità di notifica e organismi notificati. Tutti questi elementi sono già regolamentati dall'MDR / IVDR, che rischia di creare due sistemi, uno applicabile al componente AI di un dispositivo e l'altro al componente MD o IVD di un dispositivo, potenzialmente ritardando ulteriormente l'immissione sul mercato di prodotti medici abilitati all'IA.
MedTech Europe esorta gli Stati membri e i responsabili delle decisioni dell'UE a considerare attentamente l'impatto della proposta sui sistemi sanitari nazionali degli Stati membri e a impegnarsi con l'ampio gruppo di parti interessate in questo campo per garantire che il regolamento finale consenta ai potenziali benefici delle tecnologie mediche abilitate dall'IA di essere disponibili per i pazienti e gli operatori sanitari.
Comentários