L’Intelligenza Artificiale ci renderà più umani?
L’ Intelligenza Artificiale (IA) sta rivoluzionando il modo di fare medicina. Che si parli di diagnosi di tumori e malattie degenerative come l’Alzheimer oppure di acquisizione ed elaborazione di parametri biometrici, queste tecnologie, se opportunamente “allenate”, sono in grado di fornire prognosi in modo veloce ed efficace, limitando il numero di falsi positivi e falsi negativi.
C’è chi ipotizza che l’IA renderà obsoleta la figura professionale del medico ma l’ University of Vermont non sembra essere d’accordo su questa teoria: i ricercatori del Vermont Conversation Lab stanno utilizzato un approccio basato sull’IA per migliorare la comunicazione del personale sanitario. L’idea è quella di utilizzare degli algoritmi di Machine Learning e di Natural Language Processing, al fine di analizzare le conversazioni più importanti, e difficili, dell’assistenza sanitaria, ovvero quelle riguardanti le prognosi di patologie in stato avanzato con bassa aspettativa di vita. L’obbiettivo finale è quello di comprenderne la struttura, evidenziarne le analogie ed estrarre dei pattern che permettano di ottimizzare la comunicazione in funzione del contesto e dell’entità delle informazioni che si desidera condividere, con il paziente e con la sua famiglia.
Machine Learning e Natural Language Processing: figli dell’AI
L’ intelligenza artificiale è una disciplina appartenente all’informatica che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di sistemi hardware e sistemi software capaci di fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana. Essa racchiude una serie di metodologie e famiglie di algoritmi e, a seconda delle sue applicazioni, si divide in diverse branche; il Machine Learning ed il Natural Language Processing sono fra queste.
Il Machine Learning (ML) utilizza metodi statistici per migliorare progressivamente la performance di un algoritmo nell’identificare pattern nei dati e fare delle predizioni su questi. Il metodo di ML più diffuso è quello delle reti neurali, ispirato al processo di apprendimento del cervello. Questo metodo è utilizzato nello sviluppo di macchine ad apprendimento automatico, in cui il comportamento è modellizzato da una rete di commutazione connessa casualmente, a seguito di una routine di apprendimento basata su ricompensa e punizione (apprendimento per rinforzo).
Tra le possibili applicazioni citiamo, ad esempio, il filtraggio delle email per evitare spam, l’individuazione di intrusioni in una rete o di intrusi che cercano di violare dati, il riconoscimento ottico dei caratteri, i motori di ricerca e la visione artificiale.
Il Natural Language Processing (NLP) è un campo di ricerca interdisciplinare che abbraccia informatica e linguistica, il cui scopo è quello di sviluppare algoritmi in grado di analizzare, rappresentare e quindi comprendere il linguaggio naturale, scritto o parlato, in maniera similare o addirittura più performante rispetto agli esseri umani. Tale “comprensione” è determinata dallo studio del linguaggio a varie granularità, dalle parole, in relazione al loro significato ed alla appropriatezza d’uso rispetto ad un contesto, fino alla grammatica ed alle regole di strutturazione, sia delle frasi a partire dalle parole, sia dei paragrafi e delle pagine a partire dalle frasi.
In maggior dettaglio, in primo luogo, l’NLP fornisce soluzioni per analizzare la struttura sintattica del testo, associando alle singole parole le rispettive categorie morfologiche (ad es. nome, verbo, aggettivo), identificando entità e classificandole in categorie predefinite (ad es. persona, data, luogo), estraendo dipendenze sintattiche e relazioni semantiche. In secondo luogo, consente di comprendere la semantica del testo, identificando il significato delle parole, anche relazionato al contesto e alle modalità di utilizzo (ad es. ironia, sarcasmo, sentimento, umore), classificandolo in categorie predefinite (ad es. sport, geografia, medicina) o sintetizzandone il contenuto.
Una delle più evidenti applicazioni dell’NLP sono i sistemi conversazionali intelligenti, come Assistant di Google ed Alexa di Amazon, ma questa tecnologia può essere utilizzata anche per la traduzione di testi o parlato tra lingue differenti.
Intelligenza Artificiale e conversazioni delicate: gli studi di Robert Gramling ed il suo team
L’anno 2007 ha segnato profondamente la vita di Robert Gramling, direttore del Conversation Lab al Larner College of Medicine della Vermont University; suo padre stava morendo di Alzheimer. Essendo un medico esperto di medicina palliativa, Robert era solito intrattenere conversazioni delicate con pazienti in fin di vita e le rispettive famiglie. Tuttavia, durante questa esperienza si rese conto di come il suo stato emotivo dipendesse fortemente dalle parole scelte da medici ed infermieri per descrivere le condizioni di salute del padre o per comunicare le decisioni riguardanti i trattamenti. Così, insieme al fratello David, professore di linguistica presso l’University of Arizona, incominciò a registrare ed analizzare le conversazioni tra il personale medico, i pazienti e le loro famiglie, ricevendo sei anni dopo oltre un milione di dollari dall’American Cancer Society come finanziamento per le sue ricerche.
Gli ultimi risultati ottenuti da Robert ed il suo team sono stati pubblicati il 9 Dicembre sulla rivista scientifica Patient Education and Counselling . Lo scopo dello studio è stato quello di classificare i diversi tipi di conversazioni riguardanti le malattie terminali, per rilevare eventuali punti in comune. Per fare questo, si sono serviti delle tecniche utilizzate nello studio su romanzi; gli algoritmi di Machine Learning e Natural Language Processing vengono utilizzati per analizzare il linguaggio dei manoscritti al fine di identificare differenti tipi di storie.
Il gruppo di Gramling ha adattato questo metodo per analizzare 354 trascrizioni di conversazioni, aventi come protagonisti 231 pazienti provenienti da New York e California. Ogni conversazione è stata discretizzata in 10 parti aventi egual numero di parole e si è osservato come la frequenza e la distribuzione delle parole appartenenti a differenti categorie variasse fra ogni decile. Le categorie di parole prese sotto esame sono quelle riferentesi alla dimensione temporale, alla terminologia usata per descrivere la malattia, ai sentimenti ed alle parole che indicano possibilità e desiderabilità.
Analizzando dunque decile per decile, si è osservato come le conversazioni progredissero dal parlare del passato al parlare del futuro, e dall’esprimere sentimenti più tristi via via fino ad esprimere sentimenti più felici. In termini di contenuto, invece, le discussioni trattano dapprima la descrizione dei sintomi, in secondo luogo le opzioni di trattamento e, per finire, la prognosi. Inoltre, si è osservato come l’uso di verbi modali come “potere” e “volere”, che definiscono possibilità e desiderabilità, tendessero ad essere più frequenti alla fine delle conversazioni.
Per il momento, Gramling ed il suo team hanno focalizzato la loro attenzione solamente sull’identificazione di differenti tipi di conversazione ed i punti in comune tra quest’ultime. Ciò nonostante, Questo approccio potrebbe essere affinato al fine di studiare altri elementi linguistici importanti, come le pause ed i silenzi o il tono di voce. L’obiettivo finale è quello di capire come “re-ingegnerizzare” il modo di comunicare dello staff sanitario: scegliere le parole, la sintassi ed il tono giusto a seconda del contesto, dell’interlocutore e delle informazioni che si desidera condividere. Realizzare questo apporterebbe indirettamente una serie di vantaggi nella pratica medica, quali l’instaurazione di una più profonda empatia tra medico e paziente ma, soprattutto, una riduzione del numero di aggressioni al personale medico, un problema serio ed attuale.