ChatGPT a de nouveau atterri dans l’eau chaude dans l’Union européenne (UE) en raison de sa tendance à générer des inexactitudes. Cette fois, le problème tourne autour du droit à la vie privée, avec une plainte déposée contre l’IA pour son incapacité à corriger les informations erronées qu’elle génère sur les individus.
Le lancement de ChatGPT en novembre 2022 a déclenché une tempête d’enthousiasme dans le monde de l’IA. Les gens affluaient vers le chatbot pour tout, de l’aide à la recherche aux conversations informelles. Cependant, un détail crucial se cache sous la surface : OpenAI, les développeurs derrière ChatGPT, admet librement que le programme prédit simplement les mots les plus susceptibles de suivre une invite. Cela signifie que, malgré de nombreuses données de formation, rien ne garantit que ChatGPT fournit des informations factuelles. En fait, les outils d’IA générative comme ChatGPT sont connus pour « halluciner », essentiellement pour fabriquer des réponses.
Bien que des informations inexactes puissent être tolérables lorsqu’un étudiant utilise ChatGPT pour les devoirs aide, cela devient un problème sérieux lorsqu’il s’agit de données personnelles. Le droit de l’UE, établi en 1995 et renforcé par Article 5 du RGPD (Règlement Général sur la Protection des Données), exige que les données personnelles soient exactes. En outre, les particuliers ont droit à la rectification (Article 16 RGPD) si les informations sont erronées, et peut demander leur suppression. De plus, le « droit d’accès » en vertu Article 15 RGPD oblige les entreprises à divulguer les données qu’elles détiennent sur les individus et leurs sources.
Maartje de Graaf, avocat spécialisé en protection des données chez noyb, souligne la gravité de la situation : « La fabrication d’informations est problématique en soi. Mais lorsqu’il s’agit de données personnelles, les conséquences peuvent être graves. Il est clair que la technologie actuelle des chatbots, comme ChatGPT, a du mal à se conformer à la législation européenne lors du traitement des informations personnelles. Si un système ne peut pas fournir des résultats précis et transparents, il ne doit pas être utilisé pour générer des données sur les individus. C’est la loi qui dicte le développement de la technologie, et non l’inverse.
noyb enquête sur l’hallucination de ChatGPT
Ce dernier grief vient de noyb, une organisation européenne à but non lucratif axée sur le droit à la vie privée. Ils représentent une personnalité publique anonyme qui a découvert que ChatGPT leur avait donné une date de naissance incorrecte. Cela met en évidence un conflit potentiel entre ces outils d’IA générative et le règlement général sur la protection des données (RGPD) de l’UE.
Le RGPD accorde aux citoyens de l’UE un « droit de rectification », qui leur permet de demander des corrections sur des informations personnelles inexactes détenues par les organisations. Dans le contexte du contenu généré par l’IA, cela soulève une question cruciale : un modèle de langage à grande échelle comme ChatGPT peut-il être tenu responsable des informations qu’il produit, en particulier lorsque ces informations sont manifestement fausses ?
@NOOYBeu sur X a partagé le message suivant sur X à propos de la situation :
noyb a déposé une plainte contre le créateur de ChatGPT OpenAI
OpenAI admet ouvertement qu’il est incapable de corriger les fausses informations sur les personnes sur ChatGPT. L’entreprise ne peut même pas dire d’où proviennent les données.
Lisez tout a propos de ça ici https://t.co/gvn9CnGKOb
– noyb (@NOYBeu) 29 avril 2024
L’hallucination de ChatGPT est-elle un modèle de désinformation ?
Ce n’est pas la première fois que ChatGPT « problème d’hallucinations» a suscité des inquiétudes. La tendance de l’IA à fabriquer des informations est bien documentée, ce qui soulève des questions quant à sa fiabilité en tant que source de vérité.
Voici un flash-back sur 2023: l’autorité italienne de protection des données a forcé la fermeture temporaire de ChatGPT après que des inquiétudes aient été soulevées quant à l’exactitude des informations fournies.
Ces incidents mettent en évidence les défis inhérents au travail avec de grands modèles de langage. Formés sur des ensembles de données massifs de texte et de code, ces systèmes d’IA peuvent avoir du mal à faire la distinction entre les informations factuelles et la fiction. Cela peut conduire à des situations dans lesquelles ils génèrent en toute confiance un contenu incorrect ou trompeur, présenté comme étant la vérité.
Médias contre OpenAI : la guerre des droits d’auteur sur l’IA a commencé
La question devient encore plus complexe lorsqu’il s’agit de renseignements personnels. Si un utilisateur interagit avec ChatGPT et que l’IA produit des informations inexactes sur cet utilisateur, il peut être difficile, voire impossible, de garantir que ces erreurs sont corrigées. Ceci est préoccupant, en particulier pour les personnalités publiques qui peuvent s’appuyer sur des informations en ligne pour maintenir leur réputation.
La simple création de données n’est pas une option
Cette problématique est profondément ancrée dans la structure de l’IA générative. Selon un récent Rapport du New York Timesles chatbots « inventent des informations au moins 3 % du temps – et jusqu’à 27 % ».
Pour illustrer, considérons la personnalité publique impliquée dans la plainte de Noyb contre OpenAI, comme expliqué dans un article de blog. Interrogé sur son anniversaire, ChatGPT a systématiquement fourni des informations incorrectes au lieu de reconnaître un manque de données.
N’y a-t-il aucun droit RGPD pour les individus capturé par ChatGPT ?
Malgré la date de naissance manifestement erronée générée par ChatGPT, OpenAI a refusé la demande du plaignant de rectifier ou d’effacer les données, affirmant qu’elles étaient techniquement impossible. Bien qu’OpenAI puisse filtrer ou bloquer les données en fonction d’invites spécifiques (comme le nom du plaignant), cette approche empêche ChatGPT de filtrer toutes les informations sur l’individu. OpenAI n’a pas non plus répondu de manière adéquate à la demande d’accès du plaignant. Le RGPD accorde aux utilisateurs le droit de demander une copie de toutes leurs données personnelles, mais OpenAI n’a divulgué aucune information concernant les données traitées, leurs sources ou leurs destinataires.
Maartje de Graaf réitère : « L’obligation de répondre aux demandes d’accès s’applique à toutes les entreprises. Il est certainement possible de conserver des enregistrements des données de formation, offrant au moins un aperçu des sources d’informations. Il semble qu’à chaque prétendue « innovation », les entreprises croient que leurs produits sont exemptés de conformité légale ».
Jusqu’à présent, les efforts infructueux des autorités
La montée en puissance de ChatGPT a attiré l’œil vigilant des organismes européens de surveillance de la vie privée. L’autorité italienne de protection des données (DPA) a corrigé l’inexactitude du chatbot en mars 2023 en imposant une restriction temporaire du traitement des données. Peu de temps après, le Comité européen de la protection des données (EDPB) a créé un groupe de travail spécifiquement pour ChatGPT afin de coordonner les efforts nationaux.
Cependant, l’issue finale reste floue. À l’heure actuelle, OpenAI ne semble pas se soucier de la conformité au RGPD au sein de l’UE.
Un point de repère potentiel
La plainte de Noyb contre ChatGPT met en lumière l’évolution de la relation entre l’IA et les réglementations sur la confidentialité des données. Le RGPD, mis en œuvre en 2018, est antérieur à l’utilisation généralisée de grands modèles linguistiques. Alors que l’IA continue de se développer, les régulateurs se demandent comment appliquer les cadres existants à ces nouvelles technologies.
Le résultat de la plainte du noyb pourrait créer un précédent dans la manière dont l’UE aborde les implications des outils d’IA générative sur la vie privée. Si l’autorité autrichienne de protection des données donne raison au plaignant, elle pourrait forcer OpenAI à mettre en œuvre des changements pour garantir aux utilisateurs un meilleur contrôle sur les informations générées par ChatGPT à leur sujet.
Cette affaire a des implications plus larges pour le développement de l’IA en général. À mesure que les systèmes d’IA deviennent plus sophistiqués et intégrés dans notre vie quotidienne, il sera crucial d’assurer un développement et un déploiement responsables. La plainte de Noyb rappelle l’importance de créer des outils d’IA qui privilégient la précision et respectent la vie privée des utilisateurs.
Crédit image en vedette: Levart_Photographe/Unsplash