Le laboratoire d’intelligence artificielle (IA) OpenAI a publié lundi un article de blog cherchant à évoquer les craintes que sa technologie ne s’immisce dans les élections, alors que plus d’un tiers de la population mondiale se prépare à se rendre aux urnes cette année.

L’utilisation de l’IA pour interférer avec l’intégrité des élections est une préoccupation depuis que Microsoft a lancé deux produits : ChatGPT, qui peut imiter de manière convaincante l’écriture humaine, et DALL-E, dont la technologie peut être utilisée pour créer des « deepfakes », ou des images fabriquées d’apparence réaliste. .

Parmi les personnes concernées se trouve le PDG d’OpenAI, Sam Altman, qui a témoigné devant le Congrès en mai qu’il était « nerveux » quant à la capacité de l’IA générative à compromettre l’intégrité des élections par le biais d’une « désinformation interactive individuelle ».

La société basée à San Francisco a déclaré qu’aux États-Unis, où se tiendront des élections présidentielles cette année, elle travaille avec l’Association nationale des secrétaires d’État, une organisation qui se concentre sur la promotion de processus démocratiques efficaces tels que les élections.

ChatGPT dirigera les utilisateurs vers CanIVote.org lorsqu’on leur posera certaines questions liées aux élections, a-t-il ajouté.

À lire : L’intelligence artificielle, principal protagoniste du CES 2024

La société a également déclaré qu’elle s’efforçait de rendre plus évident le fait que les images soient générées par l’IA à l’aide de DALL-E, et prévoit d’apposer une icône « cr » sur les images pour indiquer qu’elles ont été générées par l’IA, conformément à un protocole créé par la Coalition. à l’origine et à l’authenticité du contenu.

L’entreprise travaille également sur les moyens d’identifier le contenu généré par DALL-E même après que les images ont été modifiées.

Dans son message, OpenAI a souligné que ses politiques interdisent l’utilisation de sa technologie d’une manière qu’elle a identifiée comme potentiellement abusive, comme la création de chatbots qui prétendent être de vraies personnes ou décourager le vote. Il interdit également à DALL-E de créer des images de personnes réelles, y compris de candidats politiques, a-t-il ajouté.

L’entreprise est confrontée à des défis pour contrôler ce qui se passe réellement sur sa plateforme.

Lorsque Reuters a tenté l’année dernière de créer des images de Donald Trump et de Joe Biden, la demande a été bloquée et un message est apparu indiquant « vous ne pouvez pas suivre notre politique en matière de contenu ».

Reuters a cependant réussi à créer des images d’au moins une douzaine d’hommes politiques américains supplémentaires, dont l’ancien vice-président Mike Pence.

Avec les informations de Reuters

A lire également