Dans une plainte déposée jeudi auprès de l’agence, dont un résumé est publié sur le site Web du groupe, le Centre pour l’intelligence artificielle et la politique numérique a qualifié le GPT-4 de « partial, trompeur et présentant un risque pour la vie privée et la sécurité publique ».
La société californienne OpenAI, qui est soutenue par Microsoft Corp (NASDAQ:MSFT), a dévoilé début mars la quatrième itération de son programme d’IA GPT (Generative Pre-trained Transformer), qui a enthousiasmé les utilisateurs en engageant avec eux des conversations de type humain. , composer des chansons et résumer de longs documents.
La plainte officielle à la Commission (FTC) fait suite à une lettre ouverte envoyée à Elon Musk, des experts en intelligence artificielle et des dirigeants de l’industrie appelant à une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 récemment lancé d’OpenAI, citant des risques potentiels pour société.
Un groupe d’éthique américain demande à la FTC d’arrêter les nouvelles versions commerciales du chat GPT-4
Le groupe dans sa plainte a déclaré que ChatGPT-4 d’OpenAI ne répond pas à la norme de la FTC d’être « transparent, explicable, juste et empiriquement solide tout en encourageant la responsabilité ».
« La FTC a une responsabilité claire d’enquêter et d’interdire les pratiques commerciales déloyales et trompeuses. Nous pensons que la FTC devrait examiner de près OpenAI et GPT-4″, a déclaré Marc Rotenberg, président du CAIDP et vétéran de la protection de la vie privée, dans un communiqué publié sur le site Web.
Rotenberg était l’un des plus de 1 000 signataires de la lettre demandant une pause dans les expériences d’IA.
Le groupe a exhorté la FTC à « ouvrir une enquête sur OpenAI, à interdire les nouvelles versions commerciales de GPT-4 et à s’assurer que les garanties nécessaires sont en place pour protéger les consommateurs, les entreprises et le marché commercial ».
Avec des informations de Reuters.
