Dagli Stati Uniti uno strumento per aiutare i giornalisti a rilevare deepfake

Dagli Stati Uniti uno strumento per aiutare i giornalisti a rilevare deepfake
BRUXELLES - Si intensifica la lotta alla disinformazione generata dall'intelligenza artificiale (Ia) in quello che passerà alla storia come "Il super anno elettorale". In vista...

OFFERTA SPECIALE

2 ANNI
159,98€
40€
Per 2 anni
SCEGLI ORA
OFFERTA MIGLIORE
ANNUALE
79,99€
19€
Per 1 anno
SCEGLI ORA
 
MENSILE
6,99€
1€ AL MESE
Per 6 mesi
SCEGLI ORA

OFFERTA SPECIALE

OFFERTA SPECIALE
MENSILE
6,99€
1€ AL MESE
Per 6 mesi
SCEGLI ORA
ANNUALE
79,99€
11,99€
Per 1 anno
SCEGLI ORA
2 ANNI
159,98€
29€
Per 2 anni
SCEGLI ORA
OFFERTA SPECIALE

Tutto il sito - Mese

6,99€ 1 € al mese x 12 mesi

Poi solo 4,99€ invece di 6,99€/mese

oppure
1€ al mese per 6 mesi

Tutto il sito - Anno

79,99€ 9,99 € per 1 anno

Poi solo 49,99€ invece di 79,99€/anno

BRUXELLES - Si intensifica la lotta alla disinformazione generata dall'intelligenza artificiale (Ia) in quello che passerà alla storia come "Il super anno elettorale". In vista delle presidenziali americane, l'associazione no profit TrueMedia.org ha lanciato una tecnologia in grado di identificare i deepfake in oltre il 90% dei casi attraverso audio, immagini e video.

Lo strumento, gratuito e disponibile per giornalisti, funzionari governativi, fact-checker, università e organizzazioni non profit, consente agli utenti registrati di inserire link da TikTok, X, Mastodon, YouTube, Reddit, Instagram, Google Drive o Facebook per verificare la presenza di segni di manipolazione dei media. Il tutto grazie a un modello basato su una tecnologia di IA non disponibile in precedenza per l'uso pubblico.

"Volevamo mettere questo strumento nelle mani delle redazioni giornalistiche di tutta l'America - grandi e piccole, che coprono le elezioni locali e nazionali - per aiutarle a identificare e fermare la proliferazione dei deepfake", ha dichiarato il fondatore di TrueMedia.org, Oren Etzioni, professore emerito dell'Università di Washington.

Il deepfake detector sviluppato da TrueMedia.org con la collaborazione di ricercatori e provider di tecnologia, ha rilevato segnali di manipolazione ad esempio nella foto che ritrae l'arresto di Donald Trump e quella del Presidente Joe Biden in tenuta militare dopo l'attacco di un drone su una base statunitense al confine tra Giordania e Siria.

L'iniziativa giunge in un momento contrassegnato da un forte aumento dei deepfake dovuto alla diffusione dell'Ia generativa e di strumenti ad essa associati che facilitano la manipolazione e la falsificazione di video, audio, immagini e testi.

"L'intelligenza artificiale - ha avvertito Etzioni - si sta sviluppando a un ritmo così rapido che ci stiamo avvicinando a un punto in cui le persone non saranno più in grado di distinguere la verità dalla finzione in immagini, video e audio"

Leggi l'articolo completo su
Il Messaggero