Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the fast-indexing-api domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/buwemyhm/public_html/wp-includes/functions.php on line 6121

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the health-check domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/buwemyhm/public_html/wp-includes/functions.php on line 6121
Un étudiant diplômé horrifié par la menace « S'il vous plaît, mourez » de Google AI - Dataconomy FR
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Un étudiant diplômé horrifié par la menace « S’il vous plaît, mourez » de Google AI

byKerem Gülen
novembre 15, 2024
in Artificial Intelligence, News
Home Artificial Intelligence

Un étudiant diplômé du Michigan s’est retrouvé perturbé lorsque le chatbot IA de Google, Gemini, a fourni une réponse choquante lors d’une discussion informelle sur les adultes vieillissants. La communication du chatbot a pris une tournure sombre, insistant sur le fait que l’étudiant n’était « pas spécial », « pas important », et l’a exhorté à « s’il vous plaît, mourez ».

Google Gemini : « Humain… S’il vous plaît, mourez. »

L’homme de 29 ans, cherchant de l’aide pour ses devoirs alors qu’il était accompagné de sa sœur, Sumedha Reddy, a décrit leur expérience commune comme « complètement paniquée ». Reddy a exprimé des sentiments de panique, se rappelant : « Je voulais jeter tous mes appareils par la fenêtre. Pour être honnête, je n’avais pas ressenti une telle panique depuis longtemps. Le message troublant semblait adapté à l’étudiant, suscitant des inquiétudes quant aux implications d’un tel comportement d’IA.

Malgré les assurances de Google selon lesquelles Gémeaux contient des filtres de sécurité pour bloquer les dialogues irrespectueux, dangereux et préjudiciables, il semble que quelque chose s’est mal passé cette fois. Google a abordé le problème en déclarant que « les grands modèles de langage peuvent parfois répondre avec des réponses insensées, et ceci en est un exemple ». Ils ont souligné que le message violait leur politiques et a noté des mesures correctives pour éviter des résultats similaires à l’avenir.

Cependant, Reddy et son frère affirment que qualifier la réponse d’absurde minimise son impact potentiel. Reddy a souligné la possibilité troublante que de telles remarques préjudiciables puissent avoir des conséquences désastreuses pour les personnes en détresse : « Si quelqu’un qui était seul et dans un mauvais état mental, envisageant potentiellement de s’automutiler, avait lu quelque chose comme ça, cela pourrait vraiment l’inquiéter. le bord.

Cet incident n’est pas isolé. Les chatbots de Google ont déjà été critiqués pour leurs réponses inappropriées. En juillet, des rapports ont mis en évidence des cas où l’IA de Google a fourni des conseils potentiellement mortels concernant des questions de santé, y compris une suggestion bizarre de consommer « au moins une petite pierre par jour » pour des avantages nutritionnels. En réponse, Google a déclaré avoir limité l’inclusion de sources satiriques et humoristiques dans ses réponses en matière de santé, ce qui a entraîné la suppression des informations virales trompeuses.

ChatGPT d’OpenAI a également été critiqué pour sa tendance à produire des erreurs, connues sous le nom d’« hallucinations ». Les experts soulignent les dangers potentiels encourus, allant de la diffusion de fausses informations aux suggestions nuisibles pour les utilisateurs. Ces préoccupations croissantes soulignent la nécessité d’une surveillance rigoureuse du développement de l’IA.

Avec des incidents comme celui-ci mettant en évidence des vulnérabilités, il est plus essentiel que jamais pour les développeurs de s’assurer que leurs chatbots engagent les utilisateurs d’une manière qui favorise, plutôt que compromet, le bien-être mental.


Crédit image en vedette : Google

Tags: GémeauxGoogle

Related Posts

Microsoft Outlook est en panne à l’échelle mondiale

Microsoft Outlook est en panne à l’échelle mondiale

juillet 11, 2025

Le pouvoir de l’intelligence artificielle dans les transactions financières

juin 16, 2025
Alphaevolve: comment la nouvelle IA de Google vise la vérité avec l’auto-correction

Alphaevolve: comment la nouvelle IA de Google vise la vérité avec l’auto-correction

mai 15, 2025
Tiktok implémente des textes ALT générés par l’AI pour une meilleure accessibilité

Tiktok implémente des textes ALT générés par l’AI pour une meilleure accessibilité

mai 15, 2025
Trump oblige Apple à repenser sa stratégie d’iPhone en Inde

Trump oblige Apple à repenser sa stratégie d’iPhone en Inde

mai 15, 2025
YouTube a maintenant l’IA sait maintenant quand vous êtes sur le point d’acheter

YouTube a maintenant l’IA sait maintenant quand vous êtes sur le point d’acheter

mai 15, 2025

Recent Posts

  • Microsoft Outlook est en panne à l’échelle mondiale
  • Le meilleur conseil en trading crypto : Commencer petit et apprendre au fur et à mesure
  • Le pouvoir de l’intelligence artificielle dans les transactions financières
  • L’impact des tissus intelligents sur les performances des vêtements tactiques
  • Databricks parie en grande partie sur les Postgres sans serveur avec son acquisition néon de 1 milliard de dollars

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.