- OpenAI suspend un outil utilisé pour différencier le texte humain et créé par l’IA en raison de ses sous-performances.
- La société se concentre désormais sur l’amélioration du processus de vérification de l’authenticité du contenu.
- Au milieu d’une enquête de la Federal Trade Commission, le responsable de la confiance et de la sécurité d’OpenAI a récemment démissionné.
OpenAI a pris la décision consciente de suspendre un utilitaire créé pour différencier les écrits humains et composés par l’IA, citant la sous-performance de l’outil comme principale préoccupation. Comme révélé dans un récent article de blog, la désactivation du classificateur AI prendra effet le 20 juillet. L’entreprise s’est engagée à affiner le processus de vérification de l’authenticité du contenu, avec des efforts axés sur l’amélioration de l’intégration des commentaires et des recherches approfondies sur des techniques de vérification plus efficaces.
Depuis le 20 juillet 2023, le classificateur AI n’est plus disponible en raison de son faible taux de précision. Nous travaillons pour intégrer les commentaires et recherchons actuellement des techniques de provenance plus efficaces pour le texte, et nous nous sommes engagés à développer et déployer des mécanismes qui permettent aux utilisateurs de comprendre si le contenu audio ou visuel est généré par l’IA.
-OpenAI
OpenAI abandonne le classificateur de texte AI
Dans un effort pour s’adapter à l’évolution du paysage, OpenAI a déclaré son intention de se concentrer sur le développement de nouvelles stratégies visant à permettre aux utilisateurs de distinguer le contenu audio et visuel généré par l’IA. Les détails de ces stratégies qui n’ont pas encore été dévoilées sont entourés de secret, ce qui stimule encore plus l’anticipation.
Classificateur de texte IA: Le détecteur OpenAIs ChatGPT indique le texte généré par l’IA
La société de technologie a franchement admis les lacunes persistantes du classificateur dans la détection précise du texte conçu par l’IA, soulevant des inquiétudes quant à d’éventuels faux positifs. Dans de tels cas, l’outil pourrait potentiellement identifier à tort un texte rédigé par un humain comme étant généré par une machine, ce qui entraînerait une confusion excessive. Cette révélation accompagnait l’annonce de la désactivation temporaire de l’outil. Fait intéressant, avant cette mise à jour surprenante, la société avait maintenu une vision optimiste du classificateur, estimant qu’il pourrait évoluer avec la collecte de plus de données.
Depuis son introduction spectaculaire, ChatGPT d’OpenAI a rapidement attiré un public, laissant de nombreuses personnes curieuses de connaître le fonctionnement interne de cet outil révolutionnaire. Il y a eu une vague d’appréhension de la part des éducateurs concernant l’impact du texte et de l’art produits par l’IA sur divers secteurs, sonnant l’alarme. On craint de plus en plus que les étudiants s’appuient sur ChatGPT pour terminer leurs devoirs scolaires, ce qui pourrait saper leur engagement dans les méthodes d’apprentissage conventionnelles. Afin de répondre aux préoccupations concernant la précision, la sécurité et la malhonnêteté académique, les écoles basées à New York ont décidé de bloquer l’accès à ChatGPT au sein de leurs institutions.

Alors que l’IA poursuit sa marche vers une utilisation grand public, la propagation de la désinformation via le texte généré par l’IA devient une préoccupation majeure. Des recherches récentes révèlent que le contenu textuel créé par l’IA, comme les tweets, a tendance à avoir un degré de persuasion plus élevé que leurs homologues rédigés par des humains. Les gouvernements du monde entier sont confrontés à la tâche complexe de formuler des réglementations efficaces en matière d’IA. Dans l’intervalle, les entités et organisations individuelles doivent assumer le fardeau de créer des règles et des mesures de protection contre la montée en flèche du texte généré par ordinateur.
Il ne semble pas encore y avoir de solutions claires pour relever les défis présentés par l’espace génératif en pleine expansion de l’IA, y compris d’OpenAI lui-même, une entreprise qui a contribué à déclencher cette tendance. Au fur et à mesure que la frontière entre le contenu généré par l’homme et celui créé par l’IA devient plus floue, la tâche de différenciation devient progressivement difficile, malgré des succès de détection occasionnels.
Meilleurs vérificateurs de plagiat pour ChatGPT et d’autres outils d’IA
OpenAI a également récemment vu le départ de son responsable de la confiance et de la sécurité au milieu d’une enquête de la Federal Trade Commission (FTC) sur les pratiques de filtrage des données et des informations de l’entreprise. Pour l’instant, OpenAI a choisi de garder le silence sur la question, choisissant de ne pas élaborer au-delà de ce qui a déjà été partagé dans son article de blog.