Lynn White, une résidente californienne, a utilisé des outils d’intelligence artificielle pour se représenter elle-même devant le tribunal, réussissant à annuler un avis d’expulsion, selon Actualités NBC. La technologie l’a aidée à identifier les erreurs de procédure et à rédiger des documents juridiques pour faire appel, évitant ainsi d’importantes sanctions financières. White, qui était en retard sur le loyer, avait initialement perdu un procès devant jury concernant l’expulsion. Au lieu de continuer à travailler avec un réseau local de défense des locataires, elle a consulté ChatGPT et la plateforme de recherche d’IA Perplexity. Selon certaines informations, Amnesty International a analysé son cas, identifié d’éventuelles erreurs de procédure commises par le juge, l’a informée des mesures à prendre et a rédigé ses réponses au tribunal, qui ont constitué la base du succès de son appel. La technologie a fait partie intégrante de sa victoire au cours d’un processus qui s’est déroulé sur plusieurs mois. « Je ne saurais trop insister sur l’utilité de l’IA dans mon cas », a déclaré White à NBC News. « Je n’aurais jamais, jamais, jamais pu gagner cet appel sans l’IA. » Sa victoire l’a empêchée de faire face à ce qui aurait été des dizaines de milliers de dollars de pénalités potentielles accumulées au cours de la période du litige. Dans un autre cas, Staci Dennett, propriétaire d’une entreprise de fitness à domicile au Nouveau-Mexique, a utilisé l’IA pour négocier un règlement concernant une dette impayée. Elle a développé une méthode unique pour affiner ses arguments, en demandant au chatbot d’agir en critique exigeant de son travail. « Je dirais à ChatGPT de prétendre qu’il s’agit d’un professeur de droit à Harvard et de détruire mes arguments », a expliqué Dennett à propos de son processus. Elle poursuivrait cette critique basée sur l’IA « jusqu’à ce que j’obtienne un A-plus pour la mission ». Les arguments juridiques finaux ont été si efficaces que les avocats adverses ont commenté son talent. Dans un e-mail, ils lui auraient écrit : « Si le droit est quelque chose qui vous intéresse en tant que profession, vous pourriez certainement faire ce travail », suggérant la haute qualité du résultat assisté par l’IA. Ces résultats positifs sont confrontés aux risques importants liés à l’utilisation de l’IA dans des contextes juridiques. Les outils sont sujets aux « hallucinations », où ils génèrent et présentent des informations fabriquées comme des faits. Ce danger a été démontré lorsque le magnat des boissons énergisantes Jack Owoc a été sanctionné en août après avoir déposé une requête contenant de nombreuses citations juridiques inexistantes générées par l’IA. En conséquence, il a été condamné à effectuer dix heures de travaux d’intérêt général. Le problème de l’utilisation abusive de l’IA s’étend aux professionnels du droit. Un nombre croissant d’avocats ont été découverts en train de soumettre des dossiers contenant du contenu fabriqué de toutes pièces, généré par l’IA, ce qui entraîne des sanctions et des embarras professionnels. Dans un cas récent signalé par 404 Médiasun avocat de New York a été surpris en train d’utiliser l’IA pour un dossier, puis a soumis une explication de l’erreur générée par l’IA, suscitant de vives critiques de la part du juge qui préside. « Cette affaire ajoute un nouveau chapitre malheureux à l’histoire de l’utilisation abusive de l’intelligence artificielle dans la profession juridique », a déclaré le juge. a écrit dans une décision cinglante. Lors d’un autre incident survenu en août, un avocat californien a reçu ce qui a été qualifié d’amende « historique » de 10 000 $ pour une infraction similaire. L’avocat a déposé un appel généré par AI dans lequel 21 des 23 affaires judiciaires citées se sont révélées entièrement fabriquées de toutes pièces. Malgré ces dangers, l’accessibilité de l’IA a alimenté une augmentation du nombre de plaideurs pro-se. « J’ai vu de plus en plus de plaideurs pro-se au cours de la dernière année que je n’en ai probablement vu dans toute ma carrière », a déclaré Meagan Holmes, parajuriste de Thorpe Shwer, à NBC. Cette tendance se poursuit alors même que des entreprises comme Google et xAI d’Elon Musk mettent en garde contre l’utilisation de leurs outils à des fins de conseils juridiques ou pour « des décisions automatisées à enjeux élevés qui affectent les droits légaux ou matériels d’une personne ». L’avocat Robert Freund a reconnu le dilemme auquel sont confrontées les personnes sans fonds légaux. « Je peux comprendre plus facilement comment une personne sans avocat, et peut-être qui a l’impression de ne pas avoir l’argent nécessaire pour accéder à un avocat, serait tentée de s’appuyer sur l’un de ces outils », a-t-il déclaré à NBC. Freund a ensuite condamné les avocats qui agissent ainsi, qualifiant cela de trahison de leurs devoirs fondamentaux. « Ce que je ne comprends pas, c’est qu’un avocat trahisse les éléments les plus fondamentaux de nos responsabilités envers nos clients… et avance des arguments basés sur une fabrication totale. »





