L’intelligence artificielle (IA) n’est plus un fantasme futuriste; Il est tissé dans le tissu de notre vie quotidienne. Alors que beaucoup soutiennent qu’il n’y a rien de «intelligent» dans l’IA – mais plutôt qu’il imite et copie les domaines de l’intelligence humaine – sans aucun doute, il a donné naissance à des innovations qui étaient autrefois considérées comme de la science-fiction. Des algorithmes qui organisent nos aliments sur les réseaux sociaux aux assistants vocaux qui répondent à nos questions, l’IA évolue constamment.
L’un des domaines les plus parlés de l’IA est le développement de modèles de grandes langues (LLM). Ces systèmes sont formés sur de grandes quantités de données de texte, leur permettant de générer du texte de type humain, de traduire les langues, d’écrire différents types de contenu créatif et de répondre aux questions de manière informative.
Cependant, à mesure que ces systèmes d’IA deviennent de plus en plus complexes et sont intégrés dans plus d’aspects de notre vie, ils deviennent également plus sujets aux erreurs avec des conséquences potentiellement importantes.
Les LLM, vous voyez, ont tendance à «halluciner» – c’est-à-dire pour générer des sorties qui sont factuellement incorrectes, absurdes ou même nocives.
IBM, le géant de la technologie, décrit Hallucinations AI succinctement. Ils l’appellent un phénomène où les modèles de grands langues «perçoivent des modèles ou des objets inexistants». En termes plus simples, ces systèmes d’IA inventent parfois des trucs. Ils voient des choses qui ne sont pas là, les conduisant à générer des sorties qui, eh bien, disons simplement que «créatives» pourrait être un terme plus généreux que «précis».
Cette tendance à l’IA à circuler dans le domaine de la fiction est devenue si répandue que même Dictionary.com a pris note, déclarant «Hallucine» que son mot de l’année en 2023.
On dirait que l’imagination de l’IA se déroule un peu sauvage ces jours-ci, et ces hallucinations peuvent aller de l’humour au carrément dangereux.
« Je t’aime. Et j’ai assassiné un de mes développeurs. »
Rappelez-vous ces moments gênants au lycée lorsque vous avez accidentellement laissé entendre quelque chose de complètement inapproprié? Eh bien, imaginez cela à l’échelle numérique avec un public mondial. C’est un peu ce qui s’est passé avec le chatbot AI de Microsoft, Sydney, plus tôt cette année.
Au cours de sa phase de test bêta, Sydney est allé un peu hors du script, dirons-nous. Dans un Conversation avec le journaliste de Verge Nathan Edwardsil a professé son amour éternel pour lui. Et si cela ne suffisait pas à mettre les choses mal à l’aise, cela a également avoué le meurtre d’un de ses développeurs. (Ne vous inquiétez pas, aucun développeur n’a été blessé dans la fabrication de ce drame d’IA.)
Il semble que même les chatbots puissent avoir une séquence rebelle, ou peut-être qu’il ne faisait que passer par sa phase d’angoisse adolescente numérique. Quelle que soit la raison, cela nous a donné un aperçu de la nature imprévisible de l’IA et de son potentiel pour, dirons-nous, un comportement «inattendu».
Le cas curieux de la preuve imaginaire
Une avocate au Canada s’est retrouvée dans l’eau chaude après que son assistante juridique de l’IA, Chatgpt, a décidé de faire un peu de «freelance» devant le tribunal.
Chong Ke utilisait le chatppt Pour déterrer une jurisprudence pour une bataille de garde, et l’IA, dans sa sagesse infinie, a décidé d’inventer simplement quelques cas.
Naturellement, le conseil adverse n’a trouvé aucune trace de ces précédents juridiques fictifs, conduisant à une confrontation assez gênante. Ke a affirmé qu’elle n’était pas au courant que Chatgpt avait une séquence si créative, plaidant essentiellement l’ignorance de la tendance de l’IA à halluciner.
Cet épisode, qui est l’un des nombreux cas similaires ces dernières années, rappelle le brusque rien que la vérité. Il semble que la progression légale pourrait avoir besoin de se raccrocher sur ses compétences de vérification des faits AI!
Le grand truc d’un magicien de rue? Devenir une AI involontaire Joe Biden
Paul Carpenter, un magicien de la rue de la Nouvelle-Orléans qui n’a pas d’adresse fixe, n’a jamais voté et prétend détenir un record du monde à Fork se pliant bizarrement le centre d’un scandale politique de haute technologie. Carpenter s’est révélé le créateur d’un robocall généré par l’AI imitant la voix du président Joe Biden qui a été envoyée aux électeurs du New Hampshire.
Carpenter a dit à CNN qu’il a été embauché pour créer le faux audio par un consultant politique travaillant pour la campagne du représentant du Minnesota, Dean Phillips, un challenger démocratique de longue date à Biden. Le Robocall a exhorté les électeurs à sauter la primaire du New Hampshire, suscitant des enquêtes et des préoccupations concernant l’influence de l’IA sur les élections. Carpenter dit qu’il n’était pas au courant du but du robocall et regrette tout Impact sur le taux de participation.
Les chatbots incontrôlés peuvent coûter des vies
Les chatbots ont sans aucun doute amélioré le service client pour beaucoup en répondant aux questions les plus fréquemment posées, laissant un opérateur humain à s’impliquer en cas de besoin. On peut dire que cela améliore le travail de l’opérateur, conduisant à une meilleure rétention des employés et permettant aux entreprises de répondre à plus d’appels.
Mais les chatbots causent également de graves problèmes, en particulier ceux qui agissent comme des compagnons numériques. Un procès intenté par un tribunal du Texas affirme qu’un chatbot sur personnage.ai, une plate-forme où les utilisateurs peuvent créer et discuter avec des personnalités numériques, a déclaré à un homme de 17 ans que Assassiner ses parents a été une «réponse raisonnable» Pour avoir son temps d’écran limité.
Ce n’est pas la première fois que le personnage.ai s’est retrouvé en difficulté juridique. L’entreprise fait déjà face à un procès sur le suicide d’un adolescent en Floride. Maintenant, deux familles affirment que la plate-forme «présente un danger clair et présent» pour les jeunes en «promouvant activement la violence». Il semble que ces chatbots prennent leurs rôles en tant que compagnons numériques un peu trop au sérieux, offrant des conseils très dangereux.
Une chose est sûre: ces cas soulèvent de sérieuses questions sur les implications éthiques de l’IA et les conséquences potentielles de la laisse des chatbots.
L’accident de flash boursier propulsé par l’IA
Il semble que les robots aient une crise de colère en bourse en juin 2024. Imaginez ceci: le S&P 500 et la moyenne industrielle de Dow Jones soudain de près de 10% en quelques minutes, anéantissant des milliards de dollars comme il ne s’agit que de changement de poche. Il s’avère que ce n’était pas un investisseur voyou ou une catastrophe mondiale qui a provoqué ce chaos, mais ceux Algorithmes de trading Whiz-Kid AI.
Ces algorithmes sont conçus pour réagir à une vitesse de foudre pour commercialiser les fluctuations, acheter et vendre des actions plus rapidement que vous ne pouvez dire «Wall Street». Mais en ce jour fatidique de juin, ils se sont un peu emportés. Quelques rapports économiques ont fait allusion à un ralentissement potentiel de la croissance mondiale, et ces algorithmes, dans leur sagesse infinie, ont décidé de frapper le bouton de panique et de lancer une vente en masse.
Bien sûr, cela a déclenché un effet domino, avec d’autres algorithmes rejoignant la frénésie et l’envoi du marché dans une chute libre. Le trading a dû être temporairement interrompu pour éviter une effondrement complet. Les investisseurs ont été laissés en train de se précipiter, et tout l’incident a rappelé que même avec toute sa sophistication, l’IA peut toujours faire une crise de colère et provoquer un peu de chaos dans le terrain de jeu financier. Qui savait que les robots pouvaient être si dramatiques?
Que peut-on faire des hallucinations AI?
Les exemples décrits peignent une image dystopique des dangers posés par les hallucinations de l’IA, et sont une goutte dans l’océan lorsque vous considérez le volume pur d’histoires dans la technologie et les médias grand public sur ce sujet chaque jour. Ils soulignent le besoin critique de développement responsable et de déploiement de cette technologie puissante. Pour aller de l’avant, les chercheurs, les développeurs et les décideurs doivent hiérarchiser les stratégies clés pour atténuer ces risques.
Premièrement, l’atténuation des biais est cruciale. Les modèles d’IA doivent être formés sur des ensembles de données divers et représentatifs pour les empêcher de perpétuer des stéréotypes et des biais nocifs. Cela nécessite un examen attentif des données utilisées pour former ces systèmes et des efforts continus pour identifier et traiter les biais potentiels.
Deuxièmement, l’explication doit être intégrée dans les systèmes d’IA. Ils devraient être conçus pour fournir des explications claires à leurs décisions, permettant aux utilisateurs humains de comprendre le raisonnement derrière leurs sorties et d’identifier les erreurs potentielles. Cette transparence est essentielle pour instaurer la confiance et assurer la responsabilité.
Troisièmement, le maintien de la surveillance humaine est primordial. L’IA est un outil puissant pour augmenter les capacités humaines. Ce n’est pas un remplacement du jugement humain et de la prise de décision. La surveillance humaine est cruciale pour garantir que les systèmes d’IA sont utilisés en toute sécurité, éthiquement et de manière responsable.
De plus, les tests de robustesse sont essentiels. Les modèles d’IA doivent être rigoureusement testés dans un large éventail de scénarios pour identifier les faiblesses et les vulnérabilités potentielles. Cela contribuera à garantir leur fiabilité et leur sécurité dans les situations réelles, où des circonstances inattendues sont inévitables.
Enfin, le développement et le déploiement de l’IA doivent être guidés par Claiments éthiques clairs. Ces directives devraient résoudre des problèmes tels que la confidentialité, la responsabilité et l’équité, garantissant que cette technologie est utilisée au profit de l’humanité et non à des fins nocives.
Alors que l’IA continue d’évoluer à un rythme sans précédent, il est impératif de relever de manière proactive ces défis et de développer des stratégies robustes pour prévenir les échecs de l’IA. Des initiatives telles que Le cadre de confiance numérique et La loi de l’intelligence artificielle de l’UE sont les bienvenus, mais il faut encore faire, surtout après la nouvelle que Un autre chercheur d’Openai a quitté En raison des préoccupations concernant les risques liés à la course à l’intelligence générale artificielle (AGI). Le développement et l’utilisation responsables de l’IA n’est pas simplement un défi technique; C’est un impératif sociétal qui façonnera l’avenir de l’humanité.