Medicina

Deep Learning per diagnosticare tumori della pelle tramite smartphone

Un gruppo di ricercatori dell’Istituto di Tecnologia del Massachussets (MIT) ha sviluppato un nuovo sistema, rapido ed efficace che necessita di una comune fotografia scattata da uno smartphone per diagnosticare tumori della pelle. Questo sistema è in grado di visualizzare, analizzare e simultaneamente classificare le lesioni pigmentate sospette (SPL) presenti sulla cute dei pazienti che si sottopongono ad una valutazione diagnostica dermatologica.

Cos’è il melanoma? Quali sono i dati che preoccupano?

Le SPL comprendono anche il melanoma, una neoplasia cutanea maligna che origina dalle cellule melanocitarie localizzate a livello epidermico, che rappresenta il 9% dei tumori giovanili negli uomini e il 7% nelle donne. Il melanoma cutaneo è piuttosto raro nei bambini e colpisce soprattutto attorno ai 45-50 anni, anche se l’età media alla diagnosi si è abbassata negli ultimi decenni.

Credits: National Cancer Institute

In Italia i dati AIRTUM 2017 (Associazione italiana registri tumori) stimano circa 7.300 nuovi casi ogni anno tra gli uomini e 6.700 tra le donne. L’incidenza è in continua crescita ed è addirittura raddoppiata negli ultimi 10 anni e procede ad un ritmo superiore rispetto a qualsiasi altro tumore. È opportuno però ricordare che il melanoma cutaneo rappresenta solo una piccola percentuale (5%) di tutti i tumori che colpiscono la pelle. Si tratta di un tumore che riconosce tra i fattori di rischio più importanti le esposizioni a sorgenti di raggi ultravioletti, soprattutto di tipo UVA e UVB.

Diagnosticare tumori della pelle: come viene diagnosticato un melanoma ad oggi?

La diagnosi di melanoma è oggi basata sull’ispezione visiva di diversi parametri: tra i più classici, l’individuazione di specifiche caratteristiche cliniche delle lesioni pigmentate, tra cui asimmetria, irregolarità nei bordi e nel colore, incremento dimensionale ed evoluzione delle lesioni – con la nota ”regola dell’ABCDE”. A tale sistema va comunque integrato l’ausilio della dermatoscopia (o epiluminescenza), metodica non invasiva in grado di visualizzare le caratteristiche morfologiche degli strati superficiali della cute in maniera dettagliata.

Malgrado queste tecniche, per diagnosticare tumori della pelle come il melanoma ci vogliono ancor oggi tempistiche lunghe, poiché ogni singola lesione pigmentata può richiedere diverso tempo, come potrebbe risultare necessario un eccessivo numero di biopsie in caso di sospetti o un possibile errore di valutazione medico. È questo il presupposto che ha portato un gruppo di ricercatori del MIT a sviluppare un modello automatico di rilevamento delle lesioni sospette basato sull’impiego di Reti Neuronali Convoluzionali Profonde (DCNN, Deep Convolutional Neural Networks).

Cos’è il Deep Learning?

Il Deep Learning ( in italiano apprendimento approfondito) è il ramo più avanzato del Machine Learning. Si tratta di un insieme di tecniche basate su reti neurali artificiali organizzate in diversi strati: ogni strato calcola i valori per quello successivo, in modo da elaborare l’informazione in maniera sempre più completa.

Con una quantità sufficiente di dati, il sistema è in grado di apprendere la rappresentazione corretta e di risolvere problemi di apprendimento automatico senza la necessità di un pre-processamento dei dati, come invece avviene per le tecniche tradizionali di Machine Learning. In altre parole, il Deep Learning è una tecnica di apprendimento in cui si espongono reti neurali artificiali a vaste quantità di dati, in modo che possano imparare a svolgere compiti.

Le DCNN: la base del Deep Learning per diagnosticare tumori della pelle

Come accennato nel precedente paragrafo, l’apprendimento profondo (deep learning), basa il suo funzionamento sulla classificazione e “selezione” dei dati più rilevanti per giungere ad una conclusione, esattamente come fa il nostro cervello biologico che per formulare una risposta ad un quesito, dedurre un’ipotesi logica, arrivare alla risoluzione di un problema, mette in moto i propri neuroni biologici e le connessioni neurali (i neuroni biologici interconnessi formano le nostre reti neurali cerebrali, quelle che permettono a ciascun individuo di ragionare, fare calcoli in parallelo, riconoscere suoni, immagini, volti, imparare e agire).

Il Deep Learning si comporta allo stesso modo e sfrutta le reti neurali artificiali, modelli di calcolo matematico-informatici basati sul funzionamento delle reti neurali biologiche, ossia modelli costituiti da interconnessioni di informazioni. Una rete neurale di fatto si presenta come un sistema “adattivo” in grado di modificare la sua struttura (i nodi e le interconnessioni) basandosi sia su dati esterni sia su informazioni interne che si connettono e passano attraverso la rete neurale durante la fase di apprendimento e ragionamento.

Un’immagine può essere scomposta in più aree. Ognuna di queste aree viene in primis esaminata da un ”neurone” che ha il compito di captare e selezionare determinate caratteristiche della suddetta area e successivamente inviata, attraverso tale sistema sinaptico, al successivo controllo.

Si instaura una gerarchia di livelli (layers) che avanza in relazione al riconoscimento automatico di specifiche caratteristiche, procedendo di volta in volta verso stadi successivi, via via più dettagliati rispetto ai precedenti.

Ad esempio, nel caso di una fotografia raffigurante un’ampia regione cutanea cosparsa di svariate lesioni pigmentate (input), un primo livello potrebbe suddividere l’intera immagine in più aree, ognuna raffigurante una singola lesione pigmentata. Successivamente, per ognuna di queste, potrebbe riconoscere e selezionare (output) le lesioni solo sulla base della loro forma.

Panoramica schematica dell’architettura CNN: il numero di classi di output è stato impostato su 2 (classi melanoma e non melanoma) per le immagini dermoscopiche. Credits: Plos One, “Acral melanoma detection using a convolutional neural network for dermoscopy images

A partire da questa prima selezione, i livelli successivi potrebbero filtrare solo quelle lesioni che mostrano un certo aspetto cromatico, poi simmetrico, poi dimensionale e così via, progredendo da filtraggi elementari ad altri sempre più specifici. È così che si arriva allo strato terminale, quello in cui sono riportate solamente le lesioni pigmentate che con grande probabilità rappresentano formazioni neoplastiche (massa di tessuto che cresce in eccesso e in maniera scoordinata rispetto ai tessuti normali).

I ricercatori statunitensi hanno utilizzato oltre 20.000 fotografie scattate da comuni fotocamere per testare le potenzialità diagnostiche delle DCNN, proprio con l’obiettivo di garantirne l’applicabilità anche in situazioni comuni di vita reale. I risultati forniti dal sistema sono stati successivamente sottoposti all’analisi visiva reale di dermatologi esperti, i quali nell’87% dei casi hanno confermato i risultati diagnostici forniti dal sistema di visione artificiale, dimostrando che quest’ultimo possiede una sensibilità che supera il 90% ed una specificità dell’89%.

Sguardo al futuro

L’enorme precisione dimostrata dalle DCNN potrebbe, con grande probabilità, essere sfruttata in futuro nell’applicazione di screening dermatologici da completare, in caso di esiti positivi, con una specifica visita medica. L’impatto maggiormente positivo si avrebbe nei momenti e nelle fasi precedenti a quella operatoria: sapere con esattezza dove si trova il melanoma e quanto esso sia esteso, permetterebbe sicuramente, nelle cliniche e negli ospedali, interventi più veloci ed efficaci. Ciò consentirebbe un enorme risparmio, non solo in termini di tempistiche cliniche, ma anche di costi dell’imaging di singole lesioni.

A cura di Andrea Cardarelli

Published by
Redazione