Seguici sui Social

Attualità

Perché non si può cercare Taylor Swift su X: conseguenze dei deepfake virali sul social

Pubblicato

il

Perché non si può cercare Taylor Swift su X: conseguenze dei deepfake virali sul social

Taylor Swift è recentemente scomparsa dal social media X, precedentemente conosciuto come Twitter. Questo non è stato a causa di un errore tecnico, ma a causa di un’ondata di immagini pornografiche AI-generate, o deepfake, dell’artista che sono state condivise sulla piattaforma. Nonostante gli sforzi per rimuoverli, questi deepfake si sono diffusi ampiamente sui social media. Una di queste immagini, condivisa su X, è stata vista 47 milioni di volte prima che l’account fosse sospeso.

Le politiche dei social media proibiscono la condivisione di “media sintetici, manipolati o fuori contesto che possono ingannare o confondere le persone e causare danni”. In risposta alla condivisione delle immagini, X ha affermato: “I nostri team stanno rimuovendo attivamente tutte le immagini identificate e intraprendendo azioni appropriate contro gli account responsabili della loro pubblicazione.” Tuttavia, sembra che, per contenere la situazione, abbiano dovuto oscurare il profilo di Taylor Swift. La società ha affermato: “Questa è un’azione temporanea presa con molta cautela, diamo priorità alla sicurezza su questo argomento.”

La Casa Bianca ha anche commentato il caso, con la portavoce Karine Jean-Pierre che ha rivelato che l’amministrazione Biden è preoccupata per le foto e che il Congresso dovrà presentare leggi contro i deepfake. “Troppo spesso”, ha affermato, “l’uso di queste tecnologie senza controllo ha un impatto sproporzionato sulle donne e, purtroppo, anche sulle ragazze, che sono spesso oggetto di molestie online e abusi. Il presidente è quindi impegnato a frenare il rischio di un’AI degenerativa”.

Anche il presidente Biden è stato vittima di deepfake. La scorsa settimana, un software ha clonato la sua voce e ha lanciato un appello per non votare alle elezioni primarie del New Hampshire. Il problema delle immagini generate con l’IA è iniziato con i grandi licenziamenti post-pandemici delle grandi aziende tech, con X in prima linea. Dopo l’arrivo di Elon Musk, la piattaforma è diventata una terra senza regole, con la sua decisione di licenziare gran parte del team di moderazione.

Questo problema riguarda non solo X, ma anche Meta, che ha licenziato i team incaricati di controllare la disinformazione e le molestie sulle sue piattaforme. “C’è stata una frattura tra moderazione dei contenuti e governance delle piattaforme”, ha spiegato Ben Decker di Memetica a CBS News. “L’intelligenza artificiale, i social media, le autorità di regolamentazione e la società civile devono affrontare insieme il problema.”

Le immagini false che manipolano il corpo e il volto sono aumentate del 550% dal 2019 al 2023. Attualmente non esiste una normativa contro la condivisione o la creazione di immagini deepfake. Secondo DeepTrace, il 96% del materiale deepfake online è di natura pornografica. Dal 2018, l’analista Genevieve Oh ha scoperto che il numero di video porno deepfake è quasi raddoppiato ogni anno. Febbraio 2023 ha registrato il maggior numero di porno deepfake prodotti e caricati in un singolo mese.

Fonte

Pubblicità facebook

ARTICOLI PIU'LETTI DELLA SETTIMANA

La Cronaca di Roma è un blog sito web di notizie nazionali.
Il sito e i suoi contenuti sono rilasciati
sotto Licenza Creative Commons eccetto dove specificato diversamente.

Questo sito web non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità.
Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n° 62 del 7.03.2001.
Alcuni contenuti sono generati attraverso una combinazione di una tecnologia proprietaria di IA e la creatività di autori indipendenti.

Le immagini video e contenuti sono liberamente tratti dal web,
per chiedere rimozioni o aggiornamenti contattare la redazione

Per contatti info [@] lacronacadiroma.it

Copyright@2018-2024