Grazie ai progressi nel campo dell'intelligenza artificiale (AI), i computer possono ora assistere i medici nella diagnosi delle malattie e contribuire a monitorare i modelli di sonno del paziente e i segni vitali a centinaia di chilometri di distanza.
Ora, i ricercatori della University of Colorado di Boulder stanno lavorando per applicare l'apprendimento automatico alla psichiatria, con una app(plicazione) mobile basata sul parlato che può classificare lo stato di salute mentale del paziente allo stesso modo, o meglio, di un essere umano.
“Non stiamo in alcun modo cercando di sostituire i medici”, afferma Peter Foltz, professore di ricerca dell'Istituto di Scienze Cognitive e coautore di un nuovo studio pubblicato su Schizophrenia Bulletin che delinea quanto c'è di promettente, e le potenziali insidie, dell'AI in psichiatria. “Ma noi crediamo di poter creare strumenti che permettano loro di monitorare meglio i loro pazienti”.
Quasi uno adulto statunitense su 5 vive con una malattia mentale, molti in aree remote dove è scarsa la disponibilità di psichiatri o di psicologi. Altri non possono permettersi di vedere spesso un medico, non hanno il tempo o non ce la fanno a vederne uno.
Anche quando un paziente accede per una visita occasionale, i terapeuti basano il loro piano di diagnosi e trattamento in gran parte sull'ascolto del parlato del paziente, un metodo secolare che può essere soggettivo e inaffidabile, secondo la coautrice Brita Elvevåg, neuroscienziata cognitiva dell'Università di Tromsø, in Norvegia:
“Gli esseri umani non sono perfetti. Essi possono distrarsi e talvolta perdere indizi vocali sottili e segnali di pericolo. Purtroppo, non esiste un test del sangue obiettivo per la salute mentale”.
Il linguaggio come finestra nella salute mentale
Cercando la versione AI di quel test del sangue, la Elvevåg e Foltz hanno unito le forze per sviluppare una tecnologia di apprendimento automatico in grado di rilevare i cambiamenti giorno per giorno nel parlato, indicativi di un declino della salute mentale.
Per esempio, un discorso sconnesso (frasi che non seguono uno schema logico) può essere un sintomo fondamentale nella schizofrenia. Cambi di tono o ritmo possono indicare mania o depressione. E la perdita di memoria può essere un segno di problemi di salute sia cognitiva che mentale.
“Il linguaggio è un percorso critico per rilevare lo stato mentale dei pazienti”, dice Foltz. “Usando dispositivi mobili e AI, possiamo monitorare i pazienti quotidianamente e rilevare questi cambiamenti sottili".
La nuova applicazione per cellulare chiede ai pazienti di rispondere a una serie di domande per 5/10 minuti, parlando nel loro telefono. Tra le varie attività, viene loro chiesto dello stato emotivo, di raccontare una storia breve, di ascoltare una storia e ripeterla e di eseguire una serie di test di abilità motoria 'tocco-e-battito'.
In collaborazione con Chelsea Chandler, informatica della CU Boulder, e altri colleghi, hanno sviluppato un sistema di intelligenza artificiale che valuta i campioni di parlato, li confronta con campioni precedenti dallo stesso paziente, così come con quelli della popolazione più ampia e valuta lo stato mentale del paziente.
In uno studio recente, il team ha chiesto a medici umani di ascoltare i campioni vocali di 225 partecipanti, metà con problemi psichiatrici gravi e metà volontari sani, della Louisiana rurale e della Norvegia del Nord e di valutarli. Hanno poi confrontato questi risultati con quelli del sistema di apprendimento automatico.
“Abbiamo scoperto che i modelli di intelligenza artificiale del computer possono essere accurati almeno come i medici”, dice Foltz.
La loro tecnologia non è ancora disponibile in commercio. Ma lui e i suoi colleghi immaginano un giorno in cui tali sistemi AI potrebbero essere nella stanza con un terapeuta e un paziente per fornire ulteriore comprensione guidata da dati, o diventare un sistema remoto di monitoraggio per malati mentali gravi.
Se l'applicazione rileva un cambiamento preoccupante, potrebbe informare il medico del paziente per un ulteriore controllo.
“I pazienti spesso hanno bisogno di essere monitorati con frequenti colloqui clinici da professionisti addestrati per evitare cure d'emergenza costose ed eventi negativi", dice Foltz. “Ma semplicemente non ci sono abbastanza medici per questo”.
Chiamata all'azione per la ricerca
Foltz in precedenza ha contribuito a sviluppare e commercializzare una tecnologia esperimentale basata su AI che ora è usata ampiamente per aiutare gli educatori a fare il loro lavoro.
Nel nuovo studio, i ricercatori delineano una chiamata all'azione per grandi studi che possano dimostrare l'efficacia e guadagnare la fiducia del pubblico prima che la tecnologia AI possa essere messa ampiamente nella pratica clinica psichiatrica:
“Il mistero intorno all'AI non nutre la credibilità, che è fondamentale quando si applica la tecnologia medica. Piuttosto che cercare che l'apprendimento automatico diventi l'ultimo decisore in medicina, dobbiamo sfruttare le cose che le macchine fanno bene, che sono diverse da ciò che gli esseri umani fanno bene”.
Fonte: Lisa Marshall in University of Colorado Boulder (> English text) - Traduzione di Franco Pellizzari.
Riferimenti: Chelsea Chandler, Peter W Foltz, Brita Elvevåg. Using Machine Learning in Psychiatry: The Need to Establish a Framework That Nurtures Trustworthiness. Schizophrenia Bulletin, 1 Nov 2019, DOI
Copyright: Tutti i diritti di eventuali testi o marchi citati nell'articolo sono riservati ai rispettivi proprietari.
Liberatoria: Questo articolo non propone terapie o diete; per qualsiasi modifica della propria cura o regime alimentare si consiglia di rivolgersi a un medico o dietologo. Il contenuto non rappresenta necessariamente l'opinione dell'Associazione Alzheimer onlus di Riese Pio X ma solo quella dell'autore citato come "Fonte". I siti terzi raggiungibili da eventuali collegamenti contenuti nell'articolo e/o dagli annunci pubblicitari sono completamente estranei all'Associazione, il loro accesso e uso è a discrezione dell'utente. Liberatoria completa qui.
Nota: L'articolo potrebbe riferire risultati di ricerche mediche, psicologiche, scientifiche o sportive che riflettono lo stato delle conoscenze raggiunte fino alla data della loro pubblicazione.