L’intelligenza artificiale sta infiltrando la medicina
L’intelligenza artificiale sta infiltrando la medicina
L’intelligenza artificiale viene abbracciata dagli ospedali e da altre organizzazioni sanitarie che utilizzano la tecnologia per fare tutto, dall’interpretazione delle scansioni CT alla previsione di quali pazienti sono più suscettibili di subire debilitanti cadute durante il trattamento. Le cartelle cliniche elettroniche vengono setacciate e gestite attraverso algoritmi progettati per aiutare i medici a scegliere i migliori trattamenti contro il cancro basati sulle mutazioni nei tumori dei pazienti, ad esempio, o per predire la loro probabilità di rispondere bene a un regime di trattamento basato su esperienze passate di pazienti simili.
Ma gli algoritmi, i robot e l’apprendimento automatico attraversano i confini etici dell’assistenza sanitaria? Un gruppo di medici della Stanford University sostiene che l’intelligenza artificiale solleva sfide etiche che i leader della sanità devono anticipare e affrontare prima di abbracciare questa tecnologia. “Rimanere ignoranti sulla costruzione di sistemi di apprendimento automatico o permettere che vengano costruiti come scatole nere potrebbe portare a risultati eticamente problematici”, hanno scritto in un editoriale pubblicato questa settimana sul New England Journal of Medicine.
Il loro avvertimento è stato tempestivo, considerando sviluppi come questo, annunciato oggi con un titolo piuttosto senza fiato: “Il software intelligente può diagnosticare il cancro alla prostata e anche un patologo.” Un gruppo di ricercatori del Drum Tower Hospital di Nanjing, in Cina, che partecipano il congresso dell’Associazione Europea di Urologia a Copenaghen ha affermato di aver sviluppato un sistema di IA in grado di identificare il cancro alla prostata da campioni di tessuto umano e classificare ciascun caso in base a quanto è maligno il cancro.
“Questo può essere molto utile in alcune aree dove c’è carenza di patologi esperti. Come tutte le automazioni, questo porterà ad una minore dipendenza dalle competenze umane “, ha detto un ricercatore italiano che ha esaminato il lavoro del team cinese, in una dichiarazione.
Pochi esperti medici si aspettano che l’IA sostituisca completamente i medici, almeno non a breve termine. Invece l’apprendimento automatico viene utilizzato principalmente per “supporto decisionale”, per aiutare i medici a indirizzare diagnosi accurate e piani di trattamento personalizzati. Questi possono essere abbastanza utili. Il collaboratore di Forbes Robert Pearl, un professore di Stanford, ha scritto all’inizio di questa settimana un’applicazione AI sviluppata da Permanente Medical Group che utilizza dati raccolti da 650.000 pazienti ospedalieri per identificare quali persone ammesse agli ospedali oggi corrono il rischio di aver bisogno di cure intensive. Il sistema avvisa i medici dei pazienti a rischio in modo che possano provare ad intervenire prima che i pazienti finiscano in terapia intensiva.
Ma una ragione per cui tutta questa IA riguarda i medici che hanno pubblicato l’editoriale del NEJM è che i pregiudizi potrebbero inavvertitamente essere introdotti negli algoritmi. Ciò è già stato dimostrato in altri settori che usano l’intelligenza artificiale, riferiscono. Per esempio, ci sono sistemi di IA progettati per aiutare i giudici a prendere decisioni di condanna pronosticando se un criminale rischia di commettere più crimini. Queste tecnologie “hanno mostrato una snervante propensione alla discriminazione razziale”, hanno scritto. “È possibile che pregiudizi razziali simili possano inavvertitamente essere incorporati negli algoritmi sanitari”.
Questi algoritmi potrebbero essere scritti per evitare pregiudizi, ma farlo è straordinariamente difficile, sostengono gli autori. Ciò è particolarmente vero negli Stati Uniti, dove i sistemi sanitari spesso subiscono pressioni sui profitti. I motivi delle persone che programmano i sistemi di intelligenza artificiale potrebbero non corrispondere a quelli dei medici e di altri operatori sanitari. Ciò invita a pregiudizi, sostengono gli autori.
“Che cosa succede se l’algoritmo è progettato intorno all’obiettivo di risparmiare denaro?” Chiede l’autore senior David Magnus, direttore dello Stanford Center for Biomedical Ethics, in una dichiarazione. “Che cosa succede se vengono prese decisioni di trattamento diverse sui pazienti a seconda dello stato dell’assicurazione o del loro possibilità di pagare? ”
La stessa Stanford sta sperimentando l’intelligenza artificiale e sta attualmente conducendo uno studio pilota di un algoritmo per prevedere quali pazienti dovrebbero essere offerti cure palliative, gestione del dolore, consulenza e altri servizi offerti spesso ai malati cronici. Medici e ingegneri del software stanno lavorando insieme per progettare il sistema, prendendo precauzioni per impedire che le macchine interpretino erroneamente i dati.
Esortano gli altri dirigenti sanitari ad adottare un simile sistema di controlli e contrappesi quando progettano e implementano l’intelligenza artificiale. Se non lo fanno “… la memoria collettiva elettronica può assumere un’autorità che forse non è mai stata pensata. I medici possono rivolgersi al machine learning per la diagnosi e la consulenza sui trattamenti, non semplicemente come strumento di supporto “, hanno avvertito nell’articolo del NEJM. “Se ciò accade, gli strumenti di apprendimento automatico diventeranno attori importanti nella relazione terapeutica e dovranno essere vincolati dai principi etici fondamentali, come la beneficenza e il rispetto per i pazienti, che hanno guidato i clinici”.