Facebook sta sviluppando un modo per decodificare e monitorare i deepfake

Facebook ha lavorato con i ricercatori della Michigan State University (MSU) per sviluppare una nuova tecnologia che afferma di essere in grado di rilevare immagini deepfake. Oltre al rilevamento, i ricercatori e Facebook affermano che è possibile utilizzare un nuovo approccio per decodificare i deepfake per rivelare le capacità discriminanti dei modelli di apprendimento automatico utilizzati per crearli.

Questa tecnica può aiutare a tenere traccia dei creatori di immagini e video falsi in impostazioni del mondo reale. L’immagine deepfake stessa è spesso l’unica informazione disponibile per il rilevatore.

Deepfake si riferisce a una foto, un video o un file audio che viene manipolato per indicare che la persona sta facendo o dicendo qualcosa che ha effettivamente fatto o mai detto.

I progressi nella tecnologia AI hanno reso più facile che mai creare deepfake. Gli strumenti di intelligenza artificiale possono manipolare i singoli volti in base alle foto precedenti per creare nuove immagini realistiche. Tali falsi possono essere utilizzati per diffondere informazioni false online.

Negli ultimi anni sono apparsi molti video deepfake che imitano celebrità e politici.

Pubblicato dagli utenti di Instagram nel Deepfake Video del fondatore di Facebook Mark Zuckerberg del 2019, la politica del deepfake del laissez-faire di Facebook in quel momento sta attirando l’attenzione. Nello stesso anno, la società di sicurezza Deeptrace con sede ad Amsterdam ha scoperto circa 14.700 video deepfake su Internet a giugno e luglio, con un aumento dell’84% rispetto a meno di 8.000 nel dicembre 2018.

I politici, soprattutto americani e persuasori di sinistra, sono spesso presi di mira. Barack Obama, Joe Biden e Nancy Pelosi sono tutti oggetto di video deepfake, a volte in modo umoristico, ma spesso assenti..

Facebook afferma che la tecnologia attuale per il deepfake “Concentrati sulla determinazione se l’immagine è genuina o deepfake (rilevamento) o sull’identificazione se l’immagine è stata generata dal modello visto durante l’addestramento (attribuzione dell’immagine tramite classificazione “close set”)).

“Ma per risolvere il problema della proliferazione dei deepfake, dobbiamo fare un passo in più e lavorare per capire come estendere l’attribuzione delle immagini oltre l’insieme limitato di modelli che esistono nella formazione. ..

È importante andare oltre l’attribuzione di immagini ravvicinate perché puoi creare deepfake utilizzando modelli generativi non presenti nella formazione.滭/p>

Secondo Facebook, il nuovo software è in grado di identificare l’esempio di intelligenza artificiale utilizzato per generare deepfake in primo luogo, non importa quanto sia innovativa la tecnologia.

La nuova tecnologia di reverse engineering inizia eseguendo un deepfake attraverso l’American Forces Network (FEN) per estrarre dettagli sull'”impronta digitale”. Questo è un motivo unico lasciato dal modello, come le più piccole stranezze nello spettro dei colori e le più piccole macchie di rumore. Per un falso profondo.

I ricercatori hanno utilizzato una serie di vincoli per stimare le impronte digitali in base alle caratteristiche delle impronte digitali false trovate in natura. Hanno usato questi vincoli per generare un set di dati di impronte digitali e lo hanno usato per addestrare i loro modelli a rilevare impronte digitali che non avevano mai visto prima.

I ricercatori della MSU hanno testato nuove tecniche di reverse engineering in un database di 100.000 immagini deepfake generate da 100 modelli generativi pubblicati. Secondo Facebook, questo risultato dimostra l’efficacia della stima delle impronte digitali e dell’apprendimento gerarchico.

L’MSU dovrebbe aprire set di dati, codice e modelli addestrati nei prossimi mesi per aiutare altri ricercatori a studiare il rilevamento e l’origine del deepfake. ..

Le nuove tecnologie di Facebook e MSU saranno disponibili meno di un anno dopo che il gigante del software Microsoft le ha rilasciate. Una serie di nuovi strumenti per aiutarti a combattere i deepfake prima delle elezioni presidenziali del 2020.

A settembre, l’azienda è stata in grado di analizzare immagini fisse o clip video con lo strumento Video Authenticator per determinare se i media venivano modificati utilizzando la tecnologia AI, mentre il secondo strumento era per gli autori di video al contenuto. Ha detto che può rivelarsi genuino.

“God of War” arriva su PC il 14 gennaio Estinzione dei mammut attribuita al cambiamento climatico, non alla caccia umana La propagazione automatizzata abbatte la banda larga australiana Webinar: Strategie per lo sviluppo di grandi prodotti Recensione dell’altoparlante Fluance Ai41: Focus Size Power Plant Ultime notizie sulla tecnologia

    “God of War” arriva su PC il 14 gennaio Estinzione dei mammut attribuita al cambiamento climatico, non alla caccia umana La propagazione automatizzata abbatte la banda larga australiana Webinar: Strategie per lo sviluppo di grandi prodotti Recensione dell’altoparlante Fluance Ai41: Focus Size Power Plant

Leave a Reply