Il futuro della sanità digitale sembra entusiasmante, ma il favore per i progressi tecnologici non possono fare dimenticare i nuovi rischi che strumenti come l’intelligenza artificiale, per esempio, portano con sé. Ce ne sono tanti a partire dagli algoritmi per l’IA adattiva. Lo sottolinea Medical Futurist che spiega come un’intelligenza artificiale adattiva sia in grado di adattarsi in tempo reale in base alle nuove informazioni che riceve.

In un ambiente clinico, potrebbe, per esempio, raccomandare esami del sangue più frequenti in una popolazione con un’alta prevalenza di diabete. E se vede che le persone di questa popolazione hanno anche una tendenza a sviluppare problemi cardiaci, raccomanderà anche una valutazione cardiovascolare. Tuttavia, questi algoritmi si basano sui dati medici esistenti, che sono pieni di pregiudizi intrinseci. Evolvendosi su tali dati, l’intelligenza artificiale adattiva non farà altro che rafforzare tali pregiudizi dannosi, come la discriminazione in base all’etnia e al sesso. Per mitigare questi rischi, le autorità di regolamentazione devono adottare nuovi approcci normativi per garantire che gli algoritmi di Ia siano utilizzati in modo equo nelle strutture sanitarie. Sempre in tema di intelligenza artificiale spesso si legge di notizie sulle incredibili capacità dell’intelligenza artificiale in ambito sanitario. In molti casi, però, questi risultati sono ottenuti in laboratorio utilizzando set di dati selezionati o ambienti ideali che non rispecchiano totalmente gli ambienti clinici reali. Google lo ha imparato a sue spese. Ricercatori medici dell’azienda hanno sottolineato la capacità del suo strumento di intelligenza artificiale di esaminare i pazienti per la retinopatia diabetica (Dr) a partire da immagini con un’accuratezza del 90%.

La retinopatia diabetica è una delle principali cause di perdita della vista in tutto il mondo e la sua individuazione precoce può prevenire le complicazioni. Ma l’intelligenza artificiale di Google non è andata così bene nella pratica come sulla carta. Quando è stata utilizzata dagli infermieri di un ospedale in Thailandia, ha incontrato diversi problemi. A volte si sono verificati problemi di connessione a Internet; altre volte la qualità della scansione non soddisfaceva una certa soglia, per cui l’intelligenza artificiale non forniva alcun risultato. In alcune occasioni, il personale infermieristico ha dovuto dedicare ulteriore tempo alla modifica di alcune immagini che l’algoritmo non voleva analizzare.

Autodiagnosi e notifiche

C’è poi il diffondersi delle autodiagnosi dei pazienti che si informano sulla rete anche utilizzando siti non propriamente scientifici o con una banale ricerca su Google per convincersi che la diagnosi del loro medico non è valida. Molti pazienti si rivolgono agli ospedali a causa delle notifiche degli smartwatch su letture Ecg anomale, molte delle quali non sono clinicamente perseguibili. Presto, però, un numero sempre maggiore di pazienti avrà accesso a un maggior numero di parametri a casa, sia che provengano da esami del sangue o da analisi genetiche, alcune delle quali possono provenire da aziende non regolamentate che offrono servizi non accurati.

Questo, insieme ai chatbot avanzati che offrono consigli medici, può aprire la strada a casi ancora più gravi di interpretazione errata o di automedicazione. In questo caso è necessario istruire i pazienti a interpretare meglio le letture dei loro sensori intelligenti e da parte loro le autorità possono regolamentare questi servizi in modo che i pazienti sappiano di quali aziende fidarsi. Questo limiterà le visite ospedaliere non necessarie.

In Italia per il momento è vietato l’utilizzo di telecamere che fanno uso di dati biometrici nel pubblico. Eventuali dati possono essere utilizzati solo per le indagini della magistratura o nel caso sia possibile prevenire atti illeciti, ma negli Usa la situazione è differente e questo tipo di macchine possono rivelare una serie di condizioni mediche. Il suo algoritmo funzionale si basa su database esistenti e si immerge nel confronto di tali caratteristiche per produrre un risultato. Le sue applicazioni in campo sanitario sono promettenti, dal rilevamento di rare condizioni genetiche all’estrazione di informazioni sul flusso sanguigno del viso. Sempre negli Stati Uniti Clearview Ai che ha creato un database di riconoscimento facciale a partire dalle immagini dei social media di persone ignare. Ha proposto al governo la sua piattaforma per rintracciare le persone infettate dalla Sars-CoV-2. Tuttavia, l’impiego della tecnologia di un’azienda pone nuovi rischi per la privacy. Cosa faranno con le immagini raccolte? Saranno condivise con le forze dell’ordine per la sorveglianza, il che può alimentare ulteriormente la discriminazione razziale?

La sicurezza del protocollo

Uno degli aspetti che preoccupano di più è sicuramente quello legato alla sicurezza. Con la pandemia e la crescita della telemedicina lo scambio di dati fra medici e pazienti si è fatto intenso. E non sempre all’insegna della massima protezione. Come hanno fatto notare gli esperti di Kaspersky i dispositivi medicali per la telemedicina spesso utilizzano il protocollo Mqtt per lo scambio dei dati. Un protocollo però non particolarmente sicuro che prevede un’autenticazione opzionale e non sempre cifra i dati prima di inviarli. In pratica le informazioni possono essere intercettate.

In più nel 2014 sono state individuate circa 90 falle, alcune delle quali ancora non corrette, e a queste se ne sono aggiunte altre 33 scovate dalla società russa specializzata nella sicurezza.18 sono considerate critiche. L’attacco con ransomware agli ospedali non fa più notizia. L’ultimo è di poche settimane fa e ha colpito l’Hospital Clinic de Barcelona e ha messo fuori uso pc dei laboratori, costretto a chiudere tre pronto soccorso e farmacie e portato alla cancellazione di 150 interventi e circa tremila controlli di pazienti. Un centro medico del Kansas è stato attaccato e ha pagato il riscatto, ma in questo L’Fbi è riuscita a identificare i responsabili dell’attacco, un gruppo sponsorizzato dalla Corea del Nord, tramite la traccia del pagamento sulla blockchain. Queste azioni, unite alla sempre più diffusa propensione delle vittime al rifiuto del pagamento dei riscatto hanno portato secondo alcune indagini alla diminuzione dei profitti per questo tipo di attività che rimangono comunque molto pericolose.

Accanto ai ransomware c’è l’hackeraggio dei dispositivi medici dotati di funzioni di connettività wireless. Già nel 2011 un ricercatore ha dimostrato che era possibile hackerare le pompe di insulina Medtronic per somministrare dosi fatali ai pazienti diabetici. Altri possono dirottare pacemaker tramite Bluetooth, compromettere i dati delle radiografie, riconfigurare da remoto le scansioni Tc per alterare l’esposizione alle radiazioni e l’elenco continua. Sicurezza by design in questo caso sembra l’unica soluzione per contrastare il problema. C’è poi il vasto capitolo legato alla privacy dove spicca l’esempio, sempre a stelle e strisce, di una società di test del Dna direct-to-consumer 23andMe e del gigante farmaceutico Gsk che hanno firmato un accordo da 300 milioni di dollari per lo sviluppo di farmaci. Questo accordo ha sfruttato le notevoli risorse genetiche di 23andMe ed è stato reso possibile dal fatto che i suoi clienti non sapevano che tale accordo era in preparazione.