Un nouveau rapport confirme que le nombre de chats indexés est nettement plus élevé que le premier pensé, y compris les données commerciales confidentielles et les discussions intimes.
La portée du problème de confidentialité récemment découvert impliquant des conversations partagées Chatgpt indexées par Google est beaucoup plus grande que initialement signalé. Une nouvelle enquête de 404 médias révèle qu’un chercheur a gratté un ensemble de données de près de 100 000 chats partagés publiquement, exposant une mine d’informations sensibles allant des contrats commerciaux confidentiels à des conseils relationnels profondément personnels.
Ce développement suit notre Rapport à partir du 31 juilletqui, basé sur un Entreprise rapide L’article, a souligné que des milliers de conversations d’utilisateurs privées apparaissaient dans les résultats de la recherche Google. À l’époque, une recherche de site spécifique a révélé environ 4 500 chats indexés, ce qui a augmenté les alarmes initiales sur la confidentialité des utilisateurs. Le nouveau chiffre suggère que le problème était plus de vingt fois plus grand, fournissant une image beaucoup plus claire de l’échelle de l’exposition aux données.
Selon le 404 médias Rapport publié le 5 août, un chercheur anonyme a compilé l’ensemble de données massif, qui contient un large éventail d’interactions utilisateur avec le chatbot AI. Les informations exposées comprennent:
- Un utilisateur téléchargeant ce qu’il a revendiqué était une copie du propre accord de non-divulgation d’Openai.
- Projets de contrats commerciaux confidentiels pour les sociétés nommées.
- Conversations intimes, y compris un utilisateur demandant des conseils sur l’opportunité de contacter un ex-partenaire et de demander à Chatgpt de rédiger le message.
- Chats contenant suffisamment de détails personnels, tels que des noms, pour potentiellement identifier les personnes impliquées.
En réponse à ces résultats, OpenAI a maintenant supprimé la fonction responsable de la fuite. Dans une déclaration fournie à 404 médiasLe chef de la sécurité de l’information d’Openai (CISO), Dane Stuckey, l’a décrit comme une «expérience de courte durée».
«Nous venons de supprimer une fonctionnalité de [ChatGPT] Cela a permis aux utilisateurs de rendre leurs conversations à découvrir par des moteurs de recherche, tels que Google « , a déclaré Stuckey. » Cette fonctionnalité obligeait les utilisateurs à s’opposer, d’abord en choisissant un chat à partager, puis en cliquant sur une case à cocher pour qu’il soit partagé avec les moteurs de recherche. «
Le problème de base provenait de cette fonction d’opt-in «partager avec les moteurs de recherche», que de nombreux utilisateurs, comme indiqué dans notre couverture précédente, n’ont peut-être pas bien compris. Stuckey a reconnu la faille du design, ajoutant: «En fin de compte, nous pensons que cette fonctionnalité a introduit trop d’opportunités pour les gens de partager accidentellement des choses qu’ils n’avaient pas l’intention de faire, alors nous supprimons l’option.»
Malgré le mouvement d’Openai pour retirer la fonctionnalité et ses efforts déclarés pour supprimer le contenu des moteurs de recherche, le 404 médias Le rapport révèle un point critique: les données ont déjà été capturées. Le fait qu’un chercheur ait pu gratter et archiver près de 100 000 de ces conversations signifie que les informations existent désormais indépendamment des plateformes d’Openai ou de Google, où elle ne peut plus être contrôlée ou rétractée.





