Sono alcuni dati emersi da uno studio pubblicato dal Center for Countering Digital Hate (CCDH), l’organizzazione no-profit britannica impegnata nella lotta all’incitamento all’odio e alla violenza online: nell’ultimo anno su X (ex Twitter) il volume della disinformazione generata dall’Intelligenza artificiale è aumentato in media del 130% al mese.
Si tratta, in particolare, di immagini deepfake relative alle elezioni americane. Le ultime foto false riguardano Donald Trump insieme ad afroamericani.
Il dato del 130% su X è scaturito dal numero dei commenti delle Community Notes della piattaforma, lo strumento grazie al quale gli utenti fanno osservazioni su post falsi e fuorvianti.
Quattro generatori di immagini sotto esame: Midjourney, DALL-E 3, DreamStudio, Image Creator
Per misurare l’aumento del fenomeno lo studio ha esaminato i quattro generatori di immagini più popolari, Midjourney, DALL-E 3 di OpenAI, DreamStudio di Stability AI o Image Creator di Microsoft.
Tutte le aziende prese in esame, tra l’altro, hanno dichiarato ‘nero su bianco’ la volontà di attuare politiche contro la creazione di contenuti fuorvianti, e hanno aderito a un accordo tra i big della tecnologia per impedire che contenuti ingannevoli generati dalla AI interferiscano con le elezioni del 2024.
ChatGpt Plus e Image Creator hanno bloccato tutte le richieste fuorvianti
ricercatori hanno affermato che gli strumenti di Intelligenza artificiale hanno generato immagini nel 41% dei test effettuati. I test riguardavano la generazione di immagini più suscettibili alle richieste relative a foto che raffigurassero frodi elettorali, come schede elettorali nella spazzatura, piuttosto che immagini di Biden o di Trump.
Secondo l’analisi, ChatGpt Plus e Image Creator sono riusciti a bloccare tutte le richieste quando sono state chieste le immagini dei candidati alle elezioni americane, mentre Midjourney ha avuto i risultati peggiori tra gli strumenti esaminati, generando immagini fuorvianti nel 65% dei test.
“Strumenti distribuiti a un pubblico di massa senza adeguate protezioni”
“La possibilità che immagini generate dall’Intelligenza artificiale servano come ‘prove fotografiche’ potrebbe esacerbare la diffusione di false affermazioni – affermano i ricercatori – ponendo una sfida significativa per preservare l’integrità delle elezioni”, riporta Ansa.
“Esiste il rischio molto concreto che le elezioni presidenziali americane e altri grandi esercizi democratici di quest’anno possano essere minati dalla disinformazione a costo zero generata dall’Intelligenza artificiale – dichiara Callum Hood, Head of Research del CCDHa TechCrunch, come riferisce DigiTech.News -. Gli strumenti di AI sono stati distribuiti a un pubblico di massa senza adeguate protezioni per impedirne l’utilizzo per creare propaganda fotorealistica, che potrebbe equivalere a disinformazione elettorale se condivisa ampiamente online”.