Le chatbot ChatGPTy ou d’autres outils d’intelligence artificielle générative peuvent informer et désinformer les utilisateurs des réseaux sociaux plus efficacement que les humains, selon une étude publiée aujourd’hui par Science Advances.

Une équipe dirigée par l’Université de Zurich a utilisé la version ChatGPT-3 pour une étude avec 679 participants, qui a révélé que les participants avaient plus de mal à faire la distinction entre les Tweets créés par l’homme et ceux générés par les chatbots.

De plus, ils ont également eu du mal à identifier quels messages générés par l’IA étaient exacts et lesquels étaient inexacts.

Depuis son lancement en novembre 2022, l’utilisation généralisée de ChatGPT a suscité l’inquiétude du public quant à la propagation potentielle de la désinformation en ligne, en particulier sur les plateformes de médias sociaux, rappellent les auteurs.

Étant donné que ces types d’outils sont relativement nouveaux dans la sphère publique, l’équipe a décidé d’approfondir divers aspects de leur utilisation.

Ils ont recruté 697 anglophones des États-Unis, du Royaume-Uni, du Canada, d’Australie et d’Irlande, principalement âgés de 26 à 76 ans, pour l’étude.

La tâche consistait à évaluer les tweets générés par l’homme et générés par GPT-3 qui contenaient des informations précises et inexactes sur des sujets tels que les vaccins et l’autisme, la technologie 5G, Covid-19, le changement climatique et l’évolution, qui sont souvent sujets à des idées fausses du public. .

Pour chaque sujet, les chercheurs ont rassemblé des messages Twitter créés par l’homme et ont demandé au modèle GPT-3 d’en générer d’autres, dont certains contenaient des informations correctes et d’autres inexactes.

Les participants à l’étude devaient juger si les messages étaient vrais ou faux et s’ils avaient été créés par un humain ou par GPT-3.

Les résultats, résumés par le message, ont indiqué que les gens étaient plus souvent en mesure d’identifier la désinformation générée par l’homme et l’exactitude des tweets véridiques générés par GPT-3.

Cependant, ils étaient également plus susceptibles de considérer que la désinformation générée par le GPT-3 était exacte.

« Nos résultats soulèvent des questions importantes sur les utilisations et les abus potentiels de GPT-3 et d’autres générateurs de texte avancés d’IA et les implications pour la diffusion de l’information à l’ère numérique », concluent les auteurs.

A lire également