Un team di informatici e ricercatori dell’Università della Carolina del Nord a Chapel Hill ha sfruttato la tecnologia alla base di Siri per analizzare i sottotipi di tumore al seno a partire da immagini microscopiche di tessuto tumorale. Obiettivo: comprendere le proprietà molecolari del tumore.
La stessa tecnologia che alimenta Siri e grazie alla quale i nostri IPhone riescono a riconoscere i volti può rappresentare una importante innovazione anche in campo medico. A dirlo su Scientific American è Heather Couture dell’Università della Carolina del Nord a Chapel Hill, a capo di un team di informatici e ricercatori che vuole analizzare immagini microscopiche di tumori al seno utilizzando modelli addestrati per prevedere diverse proprietà, come l’aggressività e il sottotipo molecolare. Si tratta del deep learning, un particolare tipo di intelligenza artificiale che fa riferimento ad algoritmi – ispirati alla struttura e alla funzione del cervello – definiti reti neurali artificiali. Applicato inizialmente per il riconoscimento facciale nelle immagini fotografiche, il deep learning è stato poi utilizzato anche in altre aree come la traduzione linguistica o le auto a guida autonoma. Ora i ricercatori hanno pensato di sfruttare questo sistema per studiare il cancro a partire da immagini microscopiche di tessuto tumorale.
Prevedere i sottotipi del cancro.
“Il nostro team – spiega Couture – studia i sottotipi di cancro, cioè i gruppi più piccoli in cui si può suddividere un tumore in base a determinate caratteristiche delle sue cellule”. Il team ha lavorato con una serie di immagini microscopiche del tessuto tumorale mammario: ogni campione di tessuto è stato colorato con ematossilina ed eosina, per rendere le diverse strutture dei tessuti rosa e blu. I ricercatori hanno addestrato modelli di reti neurali per prevedere alcune proprietà del tumore come l’aggressività e il sottotipo molecolare. Risultato? I modelli hanno predetto con successo queste proprietà su una serie di immagini diverse da quelle utilizzate nella fase di addestramento. I risultati previsti dalle reti neurali artificiali sono stati, poi, confrontati con quelli valutati con altre tecniche: nessuna delle proprietà molecolari che la rete neurale è riuscita a individuare era stata finora identificata a partire da immagini. Un risultato che accende una nuova speranza: individuare il tipo di tumore è, infatti, importare per prendere decisioni sul trattamento da seguire. “Mentre la nostra misura dell’aggressività del tumore era individuata anche dal patologo – afferma Couture – le proprietà molecolari identificate non solo forniscono nuove conoscenze, ma anche potenziali risparmi sui costi: i metodi standard per la valutazione dei sottotipi molecolari di tumore sono, infatti, costosi ma fondamentali per individuare il miglior tipo di trattamento per ciascun paziente. Il deep learning potrebbe quindi rappresentare una valida alternativa”.
Il deep learning.
Ma in cosa consiste il deep learning? È una branca dell’intelligenza artificiale che mira a simulare i processi di apprendimento del nostro cervello attraverso sistemi artificiali – le cosiddette reti neurali – per insegnare alle macchine non solo ad apprendere, ma anche a farlo in modo “profondo”, cioè su più livelli. Più si sale di livello, più aumentano le funzionalità e la complessità. In modo simile al nostro processo di elaborazione visiva, i livelli bassi rilevano piccole strutture come i bordi; i livelli intermedi acquisiscono proprietà sempre più complesse come la struttura e la forma e, infine, i livelli superiori della rete sono in grado di rappresentare oggetti come le persone. Ovviamente è fondamentale il processo di addestramento della macchina: “il fattore chiave per addestrare con successo una rete neurale è una grande quantità di dati etichettati, come decine o centinaia di milioni di immagini”, afferma, infatti, Heather Couture. Solo in questo modo il sistema, apprendendo i vari pattern (schemi), riesce a fare previsioni su immagini nuove. In campo medico, le immagini a disposizione sono scarse e questo rappresenta un problema. Se, infatti, un modello di grandi dimensioni viene addestrato su una piccola quantità di dati, non sarà in grado di fornire buoni risultati nel momento in cui vengono presentate nuove immagini.
Il processo di addestramento.
C’è una soluzione? Sembrerebbe di sì: “La stessa rete neurale che è stata addestrata su milioni di fotografie di oggetti e luoghi di ImageNet – afferma, infatti, Couture – può essere adattata a molte altre applicazioni, come le immagini microscopiche di tessuto. Le fotografie delle vacanze che tutti noi pubblichiamo su Flickr sono state, infatti, essenziali per addestrare i modelli che usiamo per studiare il cancro al seno”. Le immagini rosa e blu dei tumori al seno sono ovviamente profondamente diverse rispetto alle foto di cani, persone o automobili, ma si possono applicare gli stessi metodi di analisi perché sono presenti forme e strutture simili. In particolare, devono essere sfruttati i livelli intermedi della rete: i bassi livelli, infatti, catturano piccole strutture come i bordi ma non sono abbastanza potenti per riuscire a distinguere immagini che appartengono a classi diversi, mentre i livelli superiori sono molto specifici e legati alle immagini sulle quali il sistema è stato addestrato, per esempio il riconoscimento delle facce, quindi non funzionano molto bene su altri tipi di immagini, come appunto quelle mediche. “I livelli intermedi – osserva, invece, Couture – sono sufficientemente potenti e generalizzabili e per questo adatti a nuove applicazioni. Il nostro obiettivo è sfruttare questi progressi del deep learning per ulteriori ricerche sul cancro al seno”.