Ricerca e innovazione

Big Data e Intelligenza Artificiale in medicina: sfide etiche e umana

di Alice Buletti spec. in etica filosofica

di Alice Buletti

I Big data e il problema di un accesso neutro ai dati dei pazienti

Con l’avvento della raccolta e digitalizzazione dei dati dei pazienti, la medicina si trova di fronte a una quantità senza precedenti di informazioni.

Questa mole di dati porta a ipotesi che stravolgono il paradigma ipotetico-deduttivo, inclusa quella che sostiene che il grande volume di dati consenta un accesso neutro e senza pregiudizi.

Tuttavia, è importante notare che questi dati non esistono autonomamente, ma sono il risultato di un processo di selezione influenzato dai presupposti dei ricercatori e dalla teoria. Questo paradosso può essere illustrato con quanto proposto dal filosofo Karl Popper ai suoi studenti: “Prendete carta e penna, osservate e scrivete ciò che avete osservato”.

Questa istruzione, apparentemente neutra, porta a ricevere risposte molto diverse poiché il termine “osservazione” non è neutro, ma selettivo: richiede una scelta dell’oggetto da osservare e un punto di vista legato all’interesse che suscita nell’osservatore. Allo stesso modo, la raccolta dei dati dei pazienti non è neutra ma guidata da convinzioni e ipotesi preliminari, influenzando così la selezione, i metodi di raccolta e l’interpretazione dei dati. Di conseguenza, le informazioni tratte da questi dati possono essere condizionate dalle teorie dei ricercatori, poiché ogni ricerca è plasmata dagli interessi, dai punti di vista e dal bagaglio cognitivo di chi la conduce.

Misurare, ma cosa? Il problema di un approccio al paziente incentrato sulla malattia

Un problema correlato a questa vasta quantità di dati riguarda la scelta dei parametri da misurare: traducendo i concetti medici in termini concreti e quantitativi, si semplifica l’organismo umano a dati fisiologici puri, spesso centrati sulla malattia.

Tuttavia, ci sono aspetti difficilmente misurabili in medicina, come il dolore, che varia da persona a persona. Per quantificarli, i dati vengono semplificati e ridotti a numeri, perdendo di vista la complessità e il contesto circostante, distorcendo la realtà e limitando la comprensione della diversità delle esperienze umane.

Questo problema è evidente nella raccolta dei dati dei pazienti e nell’addestramento degli algoritmi che li interpretano, spesso basati su raccolte di dati concentrate esclusivamente sulla malattia. Questi dati tendono a ignorare il contesto più ampio della salute dell’individuo, come le abitudini di vita e il contesto sociale.

“L’IA può essere un buon alleato, a condizione che venga utilizzata come uno strumento sul quale appoggiare il proprio giudizio critico, frutto di una vera “intelligenza” che non ha nulla di artificiale”

Gli algoritmi addestrati su tali dati possono mancare di una visione completa del paziente, portando a diagnosi limitate e non personalizzate, e potrebbero trascurare la prevenzione.

Per evitare questa deriva, è essenziale adottare un approccio più bilanciato nella selezione dei dati, in modo che offrano una visione completa della salute del paziente e includano anche i fattori biopsicosociali.

Solo attraverso questo approccio possiamo garantire che gli algoritmi migliorino effettivamente la qualità delle cure cliniche offerte, mantenendo al centro l’obiettivo principale del benessere del paziente.

Sfide etiche e di trasparenza nell’impiego dei sistemi di Intelligenza Artificiale in medicina

Un problema con i sistemi di IA in medicina riguarda la complessità degli algoritmi, spesso opachi e difficili da comprendere.

Essendo sequenze di istruzioni o regole che guidano il processo decisionale, gli algoritmi possono risultare opachi a causa della loro complessità. Questo solleva interrogativi sull’affidabilità e coerenza dei processi decisionali utilizzati dai sistemi di IA, specialmente quando si tratta di decisioni critiche.

Una possibile soluzione a questo problema potrebbe essere quella di implementare la trasparenza nei sistemi di IA, sviluppando algoritmi che spieghino le decisioni e tracciando il processo decisionale in modo comprensibile. Questo consentirebbe ai professionisti della salute di comprendere il ragionamento seguito dal sistema per giungere alle sue conclusioni o diagnosi, e aumenterebbe la fiducia nell’utilizzo di tali sistemi in medicina.

Un’altra preoccupazione riguarda il rispetto delle norme etiche e dei valori umani. Soprattutto in medicina, le decisioni dei sistemi di intelligenza artificiale influenzano direttamente la salute dei pazienti, quindi è fondamentale che rispettino principi etici come la giustizia, l’autonomia e il rispetto della vita umana.

Una soluzione potrebbe essere l’implementazione di linee guida etiche e normative per garantire il rispetto dei principi fondamentali. Coinvolgere esperti di etica, filosofi, professionisti sanitari e rappresentanti della società civile nel processo decisionale è cruciale per assicurare un approccio equilibrato e inclusivo nella progettazione e nell’utilizzo di tali sistemi.

Rischio di perdita di umanità nell’automazione medica

L’automazione crescente nella pratica medica solleva importanti preoccupazioni riguardo alla disumanizzazione del paziente e della professione medica. Questa tendenza è spesso descritta come una “medicina senza medici”, poiché sempre più decisioni mediche sono supportate da algoritmi di IA che analizzano dati clinici e forniscono diagnosi.

Questo problema coinvolge sia il paziente che i professionisti della salute, ma è essenziale mantenere il focus etico sul paziente come centro dell’attenzione in medicina. 

Una medicina personalizzata che ha ben poco di personale

Concentriamoci su uno dei punti cruciali della promozione dell’uso dei sistemi di IA in medicina: la capacità di estrapolare, attraverso l’analisi di una vasta quantità di dati esterni e interni al paziente, le caratteristiche individuali di ciascun individuo, come il patrimonio genetico, lo stile di vita, l’ambiente e altri fattori. Questo consente diagnosi più precise, trattamenti più efficaci e un approccio personalizzato alla cura della salute. Tuttavia, nonostante il termine “personalizzata”, questa medicina è effettivamente poco personale poiché si basa sull’utilizzo di algoritmi che elaborano ampi insiemi di dati numerici per formulare una diagnosi. Le decisioni si basano su dati statistici e modelli predittivi, formati su una vasta quantità di dati disponibili. Così, sebbene l’obiettivo sia adattare i trattamenti alle caratteristiche uniche di ciascun paziente, questa personalizzazione è guidata da algoritmi digitali anziché da un’interazione umana veramente personalizzata.

Una medicina senza medici?

La crescente automatizzazione in medicina, basata su sistemi diagnostici che analizzano grandi quantità di dati, solleva interrogativi sul ruolo dell’essere umano di fronte alla potenza di calcolo delle macchine: è possibile che la pratica medica diventi completamente automatizzata, senza alcun intervento umano diretto? Questa preoccupazione è particolarmente diffusa in settori come la radiologia, dove i sistemi di IA raggiungono livelli di precisione nella diagnosi paragonabili a quelli umani.

“Nonostante possa superare alcune capacità umane, come ad esempio la velocità di elaborazione delle informazioni, l’IA non simula perfettamente il pensiero umano. È un supporto per i professionisti della salute, non una sostituzione”

Non bisogna tralasciare un aspetto fondamentale di questi sistemi: sebbene tendiamo ad attribuire loro caratteristiche prettamente umane, come il nome “intelligenza”, questa antropomorfizzazione è ben lontana dalla realtà. Si tratta di sistemi progettati per compiere compiti specifici seguendo istruzioni e dati forniti. Non hanno coscienza né pensiero autonomo, ma operano secondo la loro programmazione e addestramento. Dovremmo considerarli come macchine con capacità limitate, adatte a compiti definiti dalla loro progettazione e addestramento.

Nonostante possa superare alcune capacità umane, come ad esempio la velocità di elaborazione delle informazioni, l’IA non simula perfettamente il pensiero umano. È un supporto per i professionisti della salute, non una sostituzione. La complessità della pratica medica, che include interazioni con i pazienti, molteplici fattori medici e decisioni etiche, rende irrealistico sostituire il ruolo del medico.

L’IA può essere un buon alleato, a condizione che venga utilizzata come uno strumento sul quale appoggiare il proprio giudizio critico, frutto di una vera “intelligenza” che non ha nulla di artificiale.

Reinvetare la pratica medica?

Quale futuro, dunque, per la pratica medica alla luce di un nuovo paradigma fondato sull’idea di una quantità senza precedenti di dati sui pazienti e sulle tecnologie capaci di analizzarli e dedurre modelli predittivi per la diagnosi e, in futuro, anche la prevenzione delle patologie?

Questo futuro deve riconoscere che l’essere umano va oltre la semplice riduzione a dati algoritmici: la nostra complessità. Ogni individuo possiede un’esperienza interiore unica e intricata che supera qualsiasi tentativo di categorizzazione o modellazione esterna.

Il settore medico deve ricordare che l’obiettivo primario è curare gli esseri umani, considerando la complessità della loro natura. Ignorare le implicazioni di questi cambiamenti nel contesto dell’IA in medicina potrebbe condurci verso una trasformazione inquietante: una pratica clinica dominata da una governanza algoritmica che minaccia di privare l’individuo della sua centralità e umanità.

Mentre affrontiamo queste sfide, è essenziale essere consapevoli delle implicazioni di queste trasformazioni, riconoscendo al contempo il valore delle nuove tecnologie come preziose alleate del medico nella sua missione di cura e guarigione.