Accurata visione artificiale della rete neurale senza il ‘scatola nera’

L’intelligenza artificiale dietro le auto a guida autonoma, l’analisi delle immagini mediche e altre applicazioni di visione artificiale si basa su cosa’Si chiama reti neurali profonde.
Liberamente modellati sul cervello, questi consistono in strati di “neuroni” interconnessi – funzioni atematiche che inviano e ricevono informazioni – che “si accendono” in risposta alle caratteristiche dei dati di input. Il primo livello elabora un input di dati grezzi, come i pixel in un’immagine, e passa tali informazioni al livello successivo sopra, attivando alcuni di quei neuroni, che quindi trasmettono un segnale a livelli ancora più alti fino a quando alla fine arriva a una determinazione di cosa è nell’immagine di input.
Ma qui’Questo è il problema, afferma Cynthia Rudin, professoressa di informatica alla Duke. “Possiamo inserire, per esempio, un’immagine medica e osservare cosa esce dall’altra parte (‘questa è l’immagine di una lesione maligna’ma ciò’È difficile sapere cosa è successo nel mezzo”.
Esso’ecco cosa’È noto come il problema della “scatola nera”. Cosa succede nella mente della macchina: la rete’Gli strati nascosti di s攊 sono spesso imperscrutabili, anche per le persone che l’hanno costruito.
“Il problema con i modelli di deep learning sono loro’siamo così complessi che indossiamo’In realtà non so cosa’sto imparando”, ha detto Zhi Chen, uno studente di dottorato a Rudin’laboratorio di Duke. “Spesso possono sfruttare le informazioni che indossiamo’Non voglio che lo facciano. I loro processi di ragionamento possono essere completamente sbagliati”.
Rudin, Chen e lo studente universitario della Duke Yijie Bei hanno escogitato un modo per affrontare questo problema. Modificando il processo di ragionamento alla base delle previsioni, è possibile che i ricercatori possano risolvere meglio i problemi delle reti o capire se sono affidabili.
La maggior parte degli approcci tenta di scoprire cosa ha portato un sistema di visione artificiale alla risposta giusta dopo il fatto, indicando le caratteristiche chiave o i pixel che hanno identificato un’immagine: “La crescita in questa radiografia del torace è stata classificata come maligna perché, secondo il modello , queste aree sono critiche nella classificazione del cancro polmonare.„ Tali approcci don’t rivelare la rete’s ragionamento, proprio dove stava guardando.
Il team Duke ha provato una strada diversa. Invece di tentare di tenere conto di una rete’Essendo il processo decisionale post hoc, il loro metodo addestra la rete a mostrare il suo lavoro esprimendo la sua comprensione dei concetti lungo il percorso. Il loro metodo funziona rivelando quanto la rete richiama alla mente concetti diversi per aiutare a decifrare ciò che vede. “Districa il modo in cui i diversi concetti sono rappresentati all’interno degli strati della rete”, ha detto Rudin.
Data l’immagine di una biblioteca, ad esempio, l’approccio consente di determinare se e quanto i diversi strati della rete neurale si affidano alla loro rappresentazione mentale di “libri” per identificare la scena.
I ricercatori hanno scoperto che, con un piccolo aggiustamento a una rete neurale, è possibile identificare oggetti e scene nelle immagini con la stessa precisione della rete originale, e tuttavia ottenere una sostanziale interpretabilità nella rete.’s processo di ragionamento. “La tecnica è molto semplice da applicare”, ha detto Rudin.
Il metodo controlla il modo in cui le informazioni fluiscono attraverso la rete. Implica la sostituzione di una parte standard di una rete neurale con una nuova parte. La nuova parte costringe un solo neurone della rete ad attivarsi in risposta a un particolare concetto che gli umani comprendono. I concetti potrebbero essere categorie di oggetti quotidiani, come “libro” o “bici”. Ma potrebbero anche essere caratteristiche generali, come “metallo”, “legno”, “freddo” o “caldo”. Avendo un solo neurone che controlla le informazioni su un concetto alla volta, è molto più facile capire come “pensa” la rete.
I ricercatori hanno provato il loro approccio su una rete neurale addestrata da milioni di immagini etichettate per riconoscere vari tipi di scene interne ed esterne, da aule e aree ristorazione a campi da gioco e cortili. Poi l’hanno acceso sulle immagini che aveva’t visto prima. Hanno anche cercato di vedere quali concetti i livelli di rete hanno attinto maggiormente durante l’elaborazione dei dati.
Chen tira fuori una trama che mostra cosa è successo quando hanno inserito nella rete l’immagine di un tramonto arancione. La loro rete neurale addestrata afferma che i colori caldi nell’immagine del tramonto, come l’arancione, tendono ad essere associati al concetto di “letto” negli strati precedenti della rete. In breve, la rete attiva fortemente il “neurone del letto” nei primi strati. Man mano che l’immagine viaggia attraverso strati successivi, la rete si basa gradualmente su una rappresentazione mentale più sofisticata di ciascun concetto, e il concetto di “aereo” diventa più attivo rispetto alla nozione di letti, forse perché gli “aeroplani” sono più spesso associati a cieli e nuvole .
Esso’è solo una piccola parte di cosa’sta succedendo, certo. Ma da questa traiettoria i ricercatori sono in grado di catturare aspetti importanti della rete’s linea di pensiero.
I ricercatori affermano che il loro modulo può essere collegato a qualsiasi rete neurale che riconosca le immagini. In un esperimento, l’hanno collegato a una rete neurale addestrata per rilevare il cancro della pelle nelle foto.
Prima che un’intelligenza artificiale possa imparare a individuare il melanoma, deve imparare cosa rende i melanomi diversi dai normali nei e da altri punti benigni sulla pelle, setacciando migliaia di immagini di addestramento etichettate e contrassegnate da esperti di cancro della pelle.
Ma la rete sembrava evocare un concetto di “confine irregolare” che si era formata da sola, senza l’aiuto delle etichette formative. Le persone che hanno annotato le immagini per l’uso nelle applicazioni di intelligenza artificiale non l’avevano fatto’Non ho preso nota di quella caratteristica, ma la macchina l’ha fatto.
“Il nostro metodo ha rivelato un difetto nel set di dati”, ha detto Rudin. Forse se avessero incluso queste informazioni nei dati, sarebbe stato più chiaro se il modello stava ragionando correttamente. “Questo esempio illustra solo perché dovremmo'”Ripongo cieca fiducia nei modelli della “scatola nera” senza la minima idea di cosa succeda al loro interno, specialmente per diagnosi mediche complicate”, ha detto Rudin.
Il gruppo’Il lavoro di s è apparso il 7 dicembre sulla rivista Natura Macchina Intelligenza.