Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

ChatGPT peut-il être utilisé pour les attaques DDoS ? Les chercheurs disent oui

byKerem Gülen
janvier 20, 2025
in Artificial Intelligence, Cybersecurity, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Selon un rapport publié par Le registrele robot d’exploration ChatGPT d’OpenAI serait vulnérable à la manipulation, ce qui lui permettrait de lancer potentiellement des attaques par déni de service distribué (DDoS) sur des sites Web arbitraires. Ce problème n’est toujours pas reconnu par l’entreprise technologique.

L’API ChatGPT d’OpenAI montre sa vulnérabilité aux attaques DDoS

Un article du chercheur en sécurité Benjamin Flesch, commun ce mois-ci via le GitHub de Microsoft, détaille comment une seule requête HTTP à l’API ChatGPT peut déclencher un flot de requêtes réseau de la part du robot d’exploration ChatGPT, en particulier le ChatGPT-Utilisateur agent. Cette vulnérabilité pourrait amplifier une requête API en jusqu’à 5 000 requêtes dirigées vers un site Web ciblé chaque seconde.

Flesch décrit la faille comme un « grave défaut de qualité » dans le traitement des requêtes HTTP POST vers un point de terminaison d’API spécifique appelé par ChatGPT d’OpenAI. Ce point de terminaison est utilisé pour renvoyer des informations sur les sources Web citées dans la sortie du chatbot. Lorsque le chatbot fait référence à des URL spécifiques, l’API d’attribution récupère les informations de ces sites. Un attaquant peut créer une longue liste d’URL, chacune légèrement différente mais pointant vers le même site, ce qui entraîne des requêtes simultanées vers ce site.

Selon Flesch, l’API ne vérifie pas si les hyperliens sont répétés dans la liste et n’impose pas de limite au nombre total d’hyperliens soumis. Cela permet à un attaquant d’envoyer des milliers d’hyperliens dans une seule requête HTTP, inondant ainsi le site Web cible.

À l’aide d’un outil tel que Curl, les attaquants peuvent soumettre une requête HTTP POST au point de terminaison ChatGPT sans avoir besoin d’un jeton d’authentification. Les serveurs d’OpenAI sur Microsoft Azure répondront en lançant des requêtes pour chaque lien hypertexte envoyé via le paramètre de requête. Cette action peut submerger le site Web ciblé, car le robot d’exploration, utilisant Cloudflare, accédera au site à partir de différentes adresses IP à chaque requête.


Meilleures pratiques pour préparer votre organisation aux incidents de cybersécurité


Le site victime recevrait probablement simultanément des requêtes provenant d’environ 20 adresses IP différentes, ce qui rendrait difficile la traçabilité de la source de l’attaque. Même si un site Web active un pare-feu pour bloquer les adresses IP associées au bot ChatGPT, le bot continuera à envoyer des requêtes.

« Grâce à cette amplification, l’attaquant peut envoyer un petit nombre de requêtes à l’API ChatGPT, mais la victime recevra un très grand nombre de requêtes », a expliqué Flesch.

Flesch a signalé la vulnérabilité DDoS réfléchissante non authentifiée via plusieurs canaux, notamment la plateforme OpenAI BugCrowd et les équipes de sécurité de Microsoft, mais n’a reçu aucune réponse. Le registre a également contacté OpenAI pour obtenir des commentaires, mais n’a pas reçu de réponse.

De plus, Flesch a souligné un autre problème lié à cette API, qui est vulnérable à une injection rapide. Cette faille permet au robot d’exploration de traiter des questions arbitraires en utilisant le même point de terminaison de l’API d’attribution, plutôt que de récupérer uniquement les données du site Web comme prévu.

Flesch a critiqué OpenAI pour ne pas avoir mis en œuvre des mesures de sécurité de base, telles que la déduplication des URL ou la limitation de la taille des listes d’URL. Il a émis l’hypothèse que l’API pourrait être un projet expérimental pour les agents d’IA d’OpenAI, dépourvu de la logique de validation nécessaire pour empêcher ce type d’abus. Il a noté que les normes établies en matière de développement de logiciels préviennent généralement de telles failles afin de garantir des performances robustes.

« Je ne peux pas imaginer un ingénieur bien payé de la Silicon Valley concevoir un logiciel comme celui-ci, car le robot d’exploration ChatGPT explore le Web depuis de nombreuses années, tout comme le robot d’exploration de Google », a déclaré Flesch. « Si les robots d’exploration ne limitent pas le nombre de requêtes au même site Web, ils seront immédiatement bloqués. »


Crédit image en vedette : Matheus Bertelli/Pexels

Tags: chatgptCybersécuritéIA ouverte

Related Posts

Amazon améliore Ring avec des capteurs et des alertes incendie au CES 2026

Amazon améliore Ring avec des capteurs et des alertes incendie au CES 2026

janvier 7, 2026
Un lanceur d’alerte viral sur Reddit exposé comme un canular de l’IA

Un lanceur d’alerte viral sur Reddit exposé comme un canular de l’IA

janvier 7, 2026
Pourquoi 2026 est l'année pour les métiers de la santé "Embauchable" Agents IA

Pourquoi 2026 est l'année pour les métiers de la santé "Embauchable" Agents IA

janvier 7, 2026
CES 2026 : Intel défie AMD avec la puce portable Panther Lake

CES 2026 : Intel défie AMD avec la puce portable Panther Lake

janvier 7, 2026
Motorola dévoile le Razr Fold pliable latéralement au CES 2026

Motorola dévoile le Razr Fold pliable latéralement au CES 2026

janvier 7, 2026
Lenovo dévoile les éditions ThinkPad X1 Aura au CES 2026

Lenovo dévoile les éditions ThinkPad X1 Aura au CES 2026

janvier 7, 2026

Recent Posts

  • La Chine enquête sur l'accord Manus de Meta sur des problèmes de contrôle des exportations
  • Amazon améliore Ring avec des capteurs et des alertes incendie au CES 2026
  • Un lanceur d’alerte viral sur Reddit exposé comme un canular de l’IA
  • Pourquoi 2026 est l'année pour les métiers de la santé "Embauchable" Agents IA
  • Une étude sur la nature projette des appareils de santé portables 2B d’ici 2050

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.