«Mentre ci prepariamo alle elezioni del 2024 nelle più grandi democrazie al mondo, il nostro approccio è continuare il lavoro sulla sicurezza condotto sulla nostra piattaforma». Ancora una volta OpenAI gioca d’anticipo – dopo l’audizione del Ceo Sam Altman al Senato Usa in cui aveva affermato la necessità di regolamentare l’intelligenza artificiale – e pubblica un post sul suo sito ufficiale annunciando le misure che la compagnia tech (che tra le altre cose produce ChatGpt) intende applicare per salvaguardare «l’integrità del processo elettorale».

Poche e deboli misure in un mare digitale già colmo di fake prodotti dall’intelligenza artificiale, accompagnate da una presa di posizione pubblica che metta al riparo OpenAI dalle critiche – e le conseguenze di un anno elettorale pieno di incognite su come questi strumenti andranno a ingigantire la disinformazione che circola sulle piattaforme social.

In primo luogo, sia ChatGpt che il generatore di immagini Dall-E non potranno essere utilizzati «per impersonare dei candidati», ad esempio attraverso l’impiego di deepfake. Inoltre, ci sarà più trasparenza – promette la compagnia – sui contenuti generati dall’Ia: OpenAI incorporerà le credenziali digitali elaborate dalla Coalition for Content Provenance and Authenticity per rendere riconoscibili le immagini «artificiali».

Le applicazioni prodotte dalla compagnia rimanderanno inoltre gli utenti – qualora dovessero fare richieste inerenti alle elezioni Usa, come dove votare – al sito CanIVote.org, dove è possibile trovare «informazioni autorevoli sul voto».