Il nuovo strumento utilizza l’IA per segnalare le notizie false per i fact-checker dei media

Il nuovo strumento utilizza l'IA per segnalare le notizie false per i fact-checker dei media
Credito: Università di Waterloo

Un nuovo strumento di intelligenza artificiale (AI) potrebbe aiutare i social media e le testate giornalistiche a eliminare le storie false.

Lo strumento, sviluppato dai ricercatori dell’Università di Waterloo, utilizza algoritmi di intelligenza artificiale di deep learning per determinare se le affermazioni fatte in post o storie sono supportate da altri post e storie sullo stesso argomento.

“Se lo sono, fantastico, probabilmente è una storia vera”, ha affermato Alexander Wong, professore di ingegneria dei sistemi alla Waterloo. “Ma se la maggior parte dell’altro materiale non è di supporto, è una forte indicazione che hai a che fare con notizie false”.

I ricercatori sono stati motivati ​​a sviluppare lo strumento dalla proliferazione di post online e notizie fabbricate per ingannare o fuorviare i lettori, in genere a scopo di lucro politico o economico.

Il loro sistema porta avanti gli sforzi in corso per sviluppare una tecnologia completamente automatizzata in grado di rilevare notizie false raggiungendo una precisione del 90% in un’area chiave di ricerca nota come rilevamento della posizione.

Dato un reclamo in un post o una storia e altri post e storie sullo stesso argomento che sono stati raccolti per il confronto, il sistema può determinare correttamente se lo supportano o meno nove volte su 10.

Questo è un nuovo punto di riferimento per l’accuratezza da parte dei ricercatori che utilizzano un ampio set di dati creato per una competizione scientifica del 2017 chiamata Fake News Challenge.

Mentre gli scienziati di tutto il mondo continuano a lavorare verso un sistema completamente automatizzato, la tecnologia Waterloo potrebbe essere utilizzata come strumento di screening dai verificatori di fatti umani presso i social media e le organizzazioni di notizie.

“Aumenta le loro capacità e segnala le informazioni che non sembrano corrette per la verifica”, ha affermato Wong, membro fondatore del Waterloo Artificial Intelligence Institute. “Non è progettato per sostituire le persone, ma per aiutarle a verificare i fatti in modo più rapido e affidabile”.

Agli algoritmi di intelligenza artificiale al centro del sistema sono state mostrate decine di migliaia di affermazioni abbinate a storie che le supportavano o non le supportavano. Nel corso del tempo, il sistema ha imparato a determinare il supporto o il non supporto stesso quando vengono mostrate nuove coppie di richieste di risarcimento.

“Dobbiamo consentire ai giornalisti di scoprire la verità e tenerci informati”, ha affermato Chris Dulhanty, uno studente laureato che ha guidato il progetto. “Questo rappresenta uno sforzo in un corpo di lavoro più ampio per mitigare la diffusione della disinformazione”.

Un documento sul loro lavoro, “Prendere una posizione sulle notizie false: verso la valutazione automatica della disinformazione tramite modelli linguistici di trasformatori bidirezionali profondi per il rilevamento della posizione”, è stato presentato questo mese alla conferenza sui sistemi di elaborazione delle informazioni neurali a Vancouver.


Leave a Reply