Che cos'è Sora? L'intelligenza artificiale dietro i video falsi su Cuba

I creatori di contenuti su Cuba utilizzano Sora, l'IA di OpenAI, per generare video falsi sulla situazione del paese. Verifica sempre le fonti per evitare disinformazione.

Immagine di riferimento creata con IAFoto © Sora: CiberCuba

In settimane recenti, i social media si sono riempiti di video presumibilmente registrati a Cuba che mostrano scene impressionanti o voci politiche.

Sin embargo, molti di questi materiali non sono reali: sono stati creati con Sora, un'intelligenza artificiale sviluppata da OpenAI, la stessa azienda dietro ChatGPT.

Sora consente di generare video completi a partire da una semplice descrizione scritta, senza la necessità di telecamere, attori o scenari reali. Il risultato sono scene digitali con persone, luoghi e suoni così realistici da poter essere confusi con registrazioni autentiche.

La sua seconda versione, Sora 2, ha migliorato notevolmente il realismo dei movimenti, delle ombre e della fisica degli oggetti. Include anche audio sincronizzato e la possibilità di aggiungere voci, effetti sonori e persino volti e voci reali tramite una funzionalità chiamata Cameos.

OpenAI assicura che Sora 2 è ancora in fase di prova e disponibile solo negli Stati Uniti e in Canada, ma altri strumenti simili sono già in circolazione su internet.

In Cuba, pagine e profili come Periódico Patria 1892 hanno condiviso video generati con questa tecnologia, che hanno contribuito alla diffusione di false voci.

Il caso più eclatante di falsità nell'informazione è stato riguardo alla presunta morte di Raúl Castro. È iniziato il 22 settembre sulla pagina Ignacio Giménez Cuba ed è stato replicato da Periódico Patria 1892 senza prove verificabili. Un account parodia di CiberCuba ha amplificato la disinformazione con un montaggio grafico. La falsa ospedalizzazione è stata portata al punto di una presunta defunzione diventata virale.

Gli esperti avvertono che questo tipo di contenuti possono essere utilizzati per manipolare l'opinione pubblica e creare narrazioni politiche false.

Come identificare un video falso generato dall'intelligenza artificiale

  • Movimenti o gesti poco naturali.
  • Ombre o riflessi che non coincidono.
  • Testure strane su mani, occhi o sfondi.
  • Voci artificiali o sincronizzazione labiale imprecisa.
  • Nel caso di Sora deve apparire il suo logo, ma ci sono nuovi strumenti per eliminarlo.
  • Mancanza di fonti o mezzi affidabili che confermino il fatto.

Condividere contenuti falsi indebolisce solo la credibilità di coloro che cercano un cambiamento reale a Cuba. La verità è sufficiente a mostrare l'ampiezza della crisi che vive Cuba. La fame, i blackout, i crolli, la repressione e l'esodo non necessitano di essere inventati. I cubani li soffrono giorno dopo giorno, con fatti verificabili.

Difondere notizie o video manipolati fornisce al regime argomenti per screditare chi lo denuncia. Perciò, l'impegno deve sempre essere verso la verità. In un paese dove la menzogna ufficiale è stata la norma per oltre sei decenni, la trasparenza e la veridicità sono le armi più potenti per smascherare il potere e accelerarne la caduta.

Di fronte alla crescente sofisticazione dell'intelligenza artificiale, informarsi attraverso fonti verificate e confrontare le informazioni è più importante che mai.

Archiviato in:

Redazione di CiberCuba

Un team di giornalisti impegnati a informare sull'attualità cubana e temi di interesse globale. Su CiberCuba lavoriamo per offrire notizie veritiere e analisi critiche.