L’algoritmo intelligente ripulisce le immagini cercando indizi sepolti nel rumore

L'algoritmo intelligente ripulisce le immagini cercando indizi sepolti nel rumore
Credito: Texas A&M University

Per entrare nel mondo del fantasticamente piccolo, la valuta principale è un raggio di luce o elettroni.

I raggi forti, che producono immagini più nitide, sono dannosi per i campioni. D’altra parte, i raggi deboli possono dare immagini rumorose ea bassa risoluzione.

In un nuovo studio pubblicato su Natura Macchina Intelligenzai ricercatori della Texas A&M University descrivono un algoritmo basato sull’apprendimento automatico che può ridurre la granulosità nelle immagini a bassa risoluzione e rivelare nuovi dettagli che altrimenti sarebbero sepolti nel rumore.

“Le immagini scattate con raggi a bassa potenza possono essere rumorose, il che può nascondere dettagli visivi interessanti e preziosi di campioni biologici”, ha affermato Shuiwang Ji, professore associato presso il Dipartimento di Informatica e Ingegneria. “Per risolvere questo problema, utilizziamo un approccio puramente computazionale per creare immagini ad alta risoluzione, e in questo studio abbiamo dimostrato che possiamo migliorare la risoluzione fino a un livello molto simile a quello che potresti ottenere usando un abbagliante”.

Ji ha aggiunto che, a differenza di altri algoritmi di denoising che possono utilizzare solo informazioni provenienti da una piccola porzione di pixel all’interno di un’immagine a bassa risoluzione, il loro algoritmo intelligente può identificare modelli di pixel che possono essere diffusi nell’intera immagine rumorosa, aumentandone l’efficacia come strumento di denoising .

Invece di affidarsi esclusivamente all’hardware del microscopio per migliorare la risoluzione delle immagini, una tecnica nota come microscopia aumentata utilizza una combinazione di software e hardware per migliorare la qualità delle immagini. Qui, un’immagine normale scattata al microscopio viene sovrapposta a un’immagine digitale generata dal computer. Questo metodo di elaborazione delle immagini promette non solo di ridurre i costi, ma anche di automatizzare l’analisi delle immagini mediche e rivelare dettagli che a volte l’occhio può perdere.

Credito: Texas A&M University

Attualmente, un tipo di software basato su un algoritmo di apprendimento automatico chiamato deep learning si è dimostrato efficace nel rimuovere la sfocatura o il rumore nelle immagini. Questi algoritmi possono essere visualizzati come costituiti da molti livelli interconnessi o fasi di elaborazione che accettano un’immagine di input a bassa risoluzione e generano un’immagine di output ad alta risoluzione.

Nelle tradizionali tecniche di elaborazione delle immagini basate sul deep learning, il numero e la rete tra i livelli decidono quanti pixel nell’immagine di input contribuiscono al valore di un singolo pixel nell’immagine di output. Questo valore è immutabile dopo che l’algoritmo di deep learning è stato addestrato ed è pronto per il denoise di nuove immagini. Tuttavia, Ji ha affermato che fissare il numero dei pixel di input, tecnicamente chiamato campo ricettivo, limita le prestazioni dell’algoritmo.

“Immagina un pezzo di esemplare con un motivo ripetuto, come un motivo a nido d’ape. La maggior parte degli algoritmi di apprendimento profondo utilizza solo informazioni locali per colmare le lacune nell’immagine creata dal rumore”, ha detto Ji. “Ma questo è inefficiente perché l’algoritmo è, in sostanza, cieco rispetto allo schema ripetitivo all’interno dell’immagine poiché il campo ricettivo è fisso. Invece, gli algoritmi di apprendimento profondo devono avere campi ricettivi adattivi in ​​grado di catturare le informazioni nella struttura complessiva dell’immagine .”

Per superare questo ostacolo, Ji e i suoi studenti hanno sviluppato un altro algoritmo di apprendimento profondo in grado di modificare dinamicamente le dimensioni del campo ricettivo. In altre parole, a differenza dei precedenti algoritmi che possono solo aggregare informazioni da un piccolo numero di pixel, il loro nuovo algoritmo, chiamato reti di trasformatori di voxel globali (GVTNets), può raggruppare informazioni da un’area più ampia dell’immagine, se necessario.

Quando hanno analizzato le prestazioni del loro algoritmo rispetto ad altri software di deep learning, i ricercatori hanno scoperto che i GVTNet richiedevano meno dati di addestramento e potevano eliminare il rumore delle immagini meglio di altri algoritmi di deep learning. Inoltre, le immagini ad alta risoluzione ottenute erano paragonabili a quelle ottenute utilizzando un raggio di luce ad alta energia.

I ricercatori hanno notato che il loro nuovo algoritmo può essere facilmente adattato ad altre applicazioni oltre al denoising, come l’imaging a fluorescenza senza etichetta e le conversioni da 3D a 2D per la computer grafica.

“La nostra ricerca contribuisce all’area emergente di una microscopia intelligente, in cui l’intelligenza artificiale è perfettamente integrata nel microscopio”, ha affermato Ji. “Algoritmi di apprendimento profondo come il nostro ci permetteranno di trascendere potenzialmente il limite fisico posto dalla luce che prima non era possibile. Questo può essere estremamente prezioso per una miriade di applicazioni, comprese quelle cliniche, come stimare lo stadio della progressione del cancro e distinguere tra i tipi di cellule per la prognosi della malattia”.


Leave a Reply