Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

ChatGPT peut-il être utilisé pour les attaques DDoS ? Les chercheurs disent oui

byKerem Gülen
janvier 20, 2025
in Artificial Intelligence, Cybersecurity, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Selon un rapport publié par Le registrele robot d’exploration ChatGPT d’OpenAI serait vulnérable à la manipulation, ce qui lui permettrait de lancer potentiellement des attaques par déni de service distribué (DDoS) sur des sites Web arbitraires. Ce problème n’est toujours pas reconnu par l’entreprise technologique.

L’API ChatGPT d’OpenAI montre sa vulnérabilité aux attaques DDoS

Un article du chercheur en sécurité Benjamin Flesch, commun ce mois-ci via le GitHub de Microsoft, détaille comment une seule requête HTTP à l’API ChatGPT peut déclencher un flot de requêtes réseau de la part du robot d’exploration ChatGPT, en particulier le ChatGPT-Utilisateur agent. Cette vulnérabilité pourrait amplifier une requête API en jusqu’à 5 000 requêtes dirigées vers un site Web ciblé chaque seconde.

Flesch décrit la faille comme un « grave défaut de qualité » dans le traitement des requêtes HTTP POST vers un point de terminaison d’API spécifique appelé par ChatGPT d’OpenAI. Ce point de terminaison est utilisé pour renvoyer des informations sur les sources Web citées dans la sortie du chatbot. Lorsque le chatbot fait référence à des URL spécifiques, l’API d’attribution récupère les informations de ces sites. Un attaquant peut créer une longue liste d’URL, chacune légèrement différente mais pointant vers le même site, ce qui entraîne des requêtes simultanées vers ce site.

Selon Flesch, l’API ne vérifie pas si les hyperliens sont répétés dans la liste et n’impose pas de limite au nombre total d’hyperliens soumis. Cela permet à un attaquant d’envoyer des milliers d’hyperliens dans une seule requête HTTP, inondant ainsi le site Web cible.

À l’aide d’un outil tel que Curl, les attaquants peuvent soumettre une requête HTTP POST au point de terminaison ChatGPT sans avoir besoin d’un jeton d’authentification. Les serveurs d’OpenAI sur Microsoft Azure répondront en lançant des requêtes pour chaque lien hypertexte envoyé via le paramètre de requête. Cette action peut submerger le site Web ciblé, car le robot d’exploration, utilisant Cloudflare, accédera au site à partir de différentes adresses IP à chaque requête.


Meilleures pratiques pour préparer votre organisation aux incidents de cybersécurité


Le site victime recevrait probablement simultanément des requêtes provenant d’environ 20 adresses IP différentes, ce qui rendrait difficile la traçabilité de la source de l’attaque. Même si un site Web active un pare-feu pour bloquer les adresses IP associées au bot ChatGPT, le bot continuera à envoyer des requêtes.

« Grâce à cette amplification, l’attaquant peut envoyer un petit nombre de requêtes à l’API ChatGPT, mais la victime recevra un très grand nombre de requêtes », a expliqué Flesch.

Flesch a signalé la vulnérabilité DDoS réfléchissante non authentifiée via plusieurs canaux, notamment la plateforme OpenAI BugCrowd et les équipes de sécurité de Microsoft, mais n’a reçu aucune réponse. Le registre a également contacté OpenAI pour obtenir des commentaires, mais n’a pas reçu de réponse.

De plus, Flesch a souligné un autre problème lié à cette API, qui est vulnérable à une injection rapide. Cette faille permet au robot d’exploration de traiter des questions arbitraires en utilisant le même point de terminaison de l’API d’attribution, plutôt que de récupérer uniquement les données du site Web comme prévu.

Flesch a critiqué OpenAI pour ne pas avoir mis en œuvre des mesures de sécurité de base, telles que la déduplication des URL ou la limitation de la taille des listes d’URL. Il a émis l’hypothèse que l’API pourrait être un projet expérimental pour les agents d’IA d’OpenAI, dépourvu de la logique de validation nécessaire pour empêcher ce type d’abus. Il a noté que les normes établies en matière de développement de logiciels préviennent généralement de telles failles afin de garantir des performances robustes.

« Je ne peux pas imaginer un ingénieur bien payé de la Silicon Valley concevoir un logiciel comme celui-ci, car le robot d’exploration ChatGPT explore le Web depuis de nombreuses années, tout comme le robot d’exploration de Google », a déclaré Flesch. « Si les robots d’exploration ne limitent pas le nombre de requêtes au même site Web, ils seront immédiatement bloqués. »


Crédit image en vedette : Matheus Bertelli/Pexels

Tags: chatgptCybersécuritéIA ouverte

Related Posts

Ford annonce l'assistant IA et le BlueCruise de nouvelle génération au CES 2026

Ford annonce l'assistant IA et le BlueCruise de nouvelle génération au CES 2026

janvier 8, 2026
OpenAI lance un espace dédié ChatGPT Health

OpenAI lance un espace dédié ChatGPT Health

janvier 8, 2026
Skylight dévoile le Calendrier 2 avec des outils d'organisation d'IA au CES 2026

Skylight dévoile le Calendrier 2 avec des outils d'organisation d'IA au CES 2026

janvier 8, 2026
Tone Outdoors dévoile le souffleur de feuilles silencieux T1 au CES 2026

Tone Outdoors dévoile le souffleur de feuilles silencieux T1 au CES 2026

janvier 8, 2026
Bluetti dévoile le Charger 2 avec deux entrées moteur-solaire au CES 2026

Bluetti dévoile le Charger 2 avec deux entrées moteur-solaire au CES 2026

janvier 8, 2026
CES 2026 : les annonces de Samsung Display en quelques mots

CES 2026 : les annonces de Samsung Display en quelques mots

janvier 8, 2026

Recent Posts

  • Ford annonce l'assistant IA et le BlueCruise de nouvelle génération au CES 2026
  • OpenAI lance un espace dédié ChatGPT Health
  • Google et Character.AI vont régler les réclamations concernant les décès d'adolescents liés à l'IA
  • Skylight dévoile le Calendrier 2 avec des outils d'organisation d'IA au CES 2026
  • Tone Outdoors dévoile le souffleur de feuilles silencieux T1 au CES 2026

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.