Les États-Unis viennent d’ouvrir une enquête sur ChatGPT. Un régulateur américain s’interroge en effet sur la manière dont OpenAI collecte et sécurise les données personnelles des utilisateurs.
La Federal Trade Commission (FTC), l’agence américaine de protection des consommateurs, vient d’ouvrir une enquête sur OpenAI, l’entreprise derrière ChatGPT. L’organisme a adressé une lettre à la start-up pour réclamer une série d’informations, rapportent nos confrères du Washington Post.
Il s’agit d’une première étape visant à déterminer si la société viole effectivement les lois fédérales sur la protection des consommateurs. Si la FTC identifie une infraction, OpenAI risque des poursuites judiciaires et une amende. Le régulateur est aussi en mesure d’imposer des changements au fonctionnement de la société.
Gestion des données et fake news
L’agence, également chargée de la concurrence, s’intéresse notamment à la manière dont OpenAI gère les données de ses utilisateurs. L’enquête fait suite à un événement survenu à la fin du mois de mars. À la suite d’une faille, le chatbot a divulgué des données sensibles sur ses utilisateurs, à savoir des noms, des adresses et des numéros de carte de crédit.
Les informations de paiement d’une petite portion des abonnés à ChatGPT Plus, la version payante de l’IA générative, ont été accidentellement affichées sur les comptes d’autres utilisateurs, a admis OpenAI. La start-up a été obligée de mettre le chatbot hors ligne pendant quelques heures pour corriger le problème.
En parallèle, plusieurs voix se sont élevées, aux États-Unis comme en Europe, pour réclamer des éclaircissements sur la façon dont le modèle linguistique GPT absorbe les données de ses interlocuteurs. En effet, OpenAI se sert des informations communiquées par les utilisateurs pour enrichir la base de données derrière GPT.
C’est pourquoi de nombreuses entreprises, comme Samsung ou Apple, demandent à leurs employés de ne pas fournir de données confidentielles au chatbot. En réaction, la start-up de San Francisco a lancé un mode incognito, qui empêche le robot d’enregistrer l’historique des conversations et d’utiliser les données de ses interlocuteurs pour améliorer ses réponses.
L’enquête concerne aussi les contenus générés par ChatGPT. La FTC a ainsi demandé la liste de toutes les plaintes, émis par des usagers, concernant des assertions « fausses, trompeuses, désobligeantes ou nuisibles » ayant porté « préjudice à la réputation » des consommateurs.
Comme toutes les IA génératives, ChatGPT est susceptible de générer des informations inexactes par mégarde. Dans un élan de créativité, le chatbot peut en fait raconter tout et n’importe quoi. OpenAI conseille à tous les internautes de vérifier toutes les informations générées par ChatGPT avant de les partager.
OpenAI s’engage à collaborer
Dans un tweet, Sam Altman, PDG et cofondateur d’OpenAI, a réagi à la demande de la FTC. Après avoir regretté que la requête du régulateur ait été divulguée par la presse, Altman s’est engagé à collaborer avec l’agence américaine.
« Il est extrêmement important pour nous que notre technologie soit sûre […], et nous sommes convaincus que nous respectons la loi », déclare Sam Altman, précisant qu’OpenAI protège la vie privée des usagers et veut se montrer « transparent sur les limites de notre technologie ».
L’entrepreneur a plusieurs fois plaidé pour la régulation de l’intelligence artificielle. Devant le Sénat des États-Unis, il a notamment réclamé la création d’une agence exclusivement consacrée au développement des modèles de langage. Cette approche doit permettre d’atténuer les risques engendrés par l’IA.
L’étau réglementaire se resserre autour de ChatGPT
Les régulateurs du monde entier braquent leurs projecteurs sur OpenAI et les firmes engagées dans la course à l’intelligence artificielle. En Europe, les agences de protection de données se sont également emparées du sujet.
L’Italie a même brièvement banni ChatGPT sur son territoire, estimant que le chatbot représentait une menace pour la vie privée des internautes et une infraction au RGPD, le règlement européen sur la protection des données personnelles.
Après avoir ajouté des informations claires sur la manière dont les données sont gérées, OpenAI a été autorisé à faire son retour en Italie quelques semaines plus tard.
Pour le moment, la France s’est engagée à faire preuve d’une certaine souplesse. Malgré les quelques plaintes reçues, la CNIL n’a pas entamé d’action visant à interdire ou restreindre l’IA dans l’Hexagone.
En parallèle, plusieurs dirigeants politiques se sont ouvertement opposés à des mesures restrictives contre ChatGPT. Présent à VivaTech, Emmanuel Macron a aussi laissé entendre qu’il ne voulait pas étouffer l’innovation avec une régulation trop agressive.