OpenAI Rivela le Contromisure per Fermare la Diffusione di Informazioni Elettorali False tramite i Suoi Strumenti
Oggi, con l’avvio ufficiale dei caucus nello stato dell’Iowa, inizia la corsa per le elezioni presidenziali degli Stati Uniti del 2024. In questo contesto, OpenAI, l’azienda di intelligenza artificiale generativa, ha deciso di delineare le sue strategie per prevenire l’abuso dei suoi strumenti, come ChatGPT e DALL-E, finalizzato alla creazione e distribuzione di ‘deepfake’ e altre informazioni false.
Questo per garantire l’integrità delle elezioni presidenziali negli Stati Uniti e in tutto il mondo durante questo anno cruciale.
In un post sul blog, OpenAI ha dichiarato il suo impegno a garantire che i suoi strumenti siano utilizzati per “informazioni di voto accurate, l’applicazione di politiche misurate e il miglioramento della trasparenza”.
L’azienda ha specificato che ha istituito un impegno interfunzionale dedicato al lavoro elettorale, riunendo competenze dai suoi sistemi di sicurezza, intelligence sulle minacce, legali, ingegneria e team di policy. Questo team si dedicherà a indagare rapidamente e affrontare potenziali abusi dei suoi strumenti durante il periodo elettorale.
OpenAI ha adottato una posizione ferma, annunciando che non permetterà l’uso dei suoi strumenti per scopi legati a campagne politiche o lobbying. Inoltre, ha vietato la creazione di chatbot con i suoi strumenti progettati per simulare conversazioni con candidati reali o gruppi governativi.
L’azienda ha dichiarato che bloccherà l’uso dei suoi strumenti per distribuire sforzi volti a falsificare informazioni sul modo in cui le persone dovrebbero votare nelle elezioni o per scoraggiare la partecipazione al voto.
Per promuovere la trasparenza, OpenAI accoglierà segnalazioni di possibili violazioni da parte degli utenti.
Inoltre, OpenAI sta sviluppando strumenti per individuare immagini deepfake create tramite DALL-E.
Un nuovo strumento chiamato “provenance classifier” è in fase di sviluppo e mira a individuare immagini deepfake, anche quando sono state soggette a comuni tipi di modifiche. Un gruppo di tester, incluso giornalisti, avrà presto l’opportunità di sperimentare questo strumento.
In conclusione, mentre OpenAI si impegna a preservare l’integrità delle elezioni attraverso misure preventive, il contesto delle elezioni del 2023 è stato evidenziato da un rapporto che segnalava risposte false del chatbot Copilot di Microsoft, basato sulla tecnologia sviluppata da OpenAI.
Microsoft ha annunciato piani per introdurre nuovi strumenti che verificheranno l’autenticità delle immagini create da loro, cercando di contrastare l’impatto delle tecnologie di intelligenza artificiale sulle informazioni elettorali. Resta da vedere come queste misure saranno adottate e quali sfide si presenteranno durante il periodo elettorale del 2024.