Michael Cohen admet avoir utilisé un outil d'IA pour générer de faux cas

  • Michael Cohen a utilisé Google Bard, un outil d'IA, pour générer de fausses citations dans sa demande de fin de surveillance judiciaire.
  • Cohen et son avocat ont inclus des citations inexistantes soumises par l'outil d'IA, ce qui compromet leur crédibilité devant le tribunal.
  • Cet incident soulève des questions sur la fiabilité des outils d'IA pour la recherche juridique et met en lumière les risques liés à l'utilisation de tels programmes dans des affaires légales importantes.

L'ancien bras droit du président Donald Trump, Michael Cohen, a révélé dans une déclaration sous serment qu'il avait utilisé Google Bard pour rechercher des précédents dans sa tentative de mettre fin à la surveillance judiciaire après sa sortie de prison. L'ancien avocat du président du Parti républicain a déclaré avoir utilisé le programme d'intelligence artificielle (IA) pour fournir à ses avocats des citations fictives.

Les programmes d'IA défectueux dans la soumission de Cohen

Un examen des documents judiciaires non scellés a indiqué que les fausses citations étaient incluses dans la requête déposée par l'avocat de Cohen demandant la cessation anticipée de la surveillance judiciaire. Les autorités fictives figuraient dans la soumission au juge de Manhattan demandant la fin de la probation après sa libération.

Cohen a fait cette déclaration après sa sortie de prison pour violation des lois sur le financement des campagnes électorales, une accusation pour laquelle il a plaidé coupable en 2018.

Michael Cohen admet avoir utilisé un outil d'IA pour générer de faux cas

L'explication de Cohen figurait dans sa déclaration sous serment du vendredi 29, excluant toute conscience d'hallucinations lors de l'utilisation du service de texte génératif. Il a admis qu’il n’était pas conscient des risques associés aux chatbots basés sur l’IA, tels que la possibilité d’afficher de véritables citations et descriptions légales.

Cohen a soumis des citations inexistantes

Cohen a illustré qu'il n'avait jamais réalisé que son avocat, David Schwartz, inclurait les cas dans leur soumission sans s'assurer de leur existence. Les fausses citations de cas sont apparues à la mi-décembre suite à la demande du juge Jesse Furman soumise à l'avocat de Cohen avec copies, après avoir conclu qu'aucune des deux affaires n'existait.

appel des États-Unis pour le deuxième circuit, qui a répondu négativement à l'existence de tels cas. Le greffier a indiqué que le numéro de dossier indiqué n'était pas valide.

La nouvelle avocate de Cohen, Danya Perry, a informé le tribunal qu'elle ne pouvait pas retracer les affaires judiciaires citées. Cet aveu ajoute à l’épisode embarrassant pour Cohen.

L'ancien confident du président Trump est identifié comme étant le témoin clé dans une affaire pénale à Manhattan. Trump fait face à des accusations pour avoir fait taire des paiements d'argent afin de faire taire l'acteur de films pour adultes Stormy Daniels.

L’équipe juridique représentant Trump aux côtés de l’ancien président américain a considéré à plusieurs reprises Cohen comme un fabuliste en série et un menteur. Ils se moquent de sa sous-performance lors de la présentation des plaignants dans le procès pour fraude civile de la Trump Organization.

La révélation selon laquelle Cohen et son avocat ont déposé de fausses citations proposées par le programme gratuit d’IA ajoute des munitions à ceux qui l’attaquent. Le ridicule qui en résultera finira par se traduire par des tentatives visant à saper la crédibilité afin de venir à la barre des témoins.

Les outils basés sur l'IA ne s'avèrent pas fiables pour offrir des recherches juridiques crédibles

Le cas de Cohen est une deuxième instance d'un tribunal de Manhattan traitant de citations fictives attribuées à un programme génératif d'IA. À la mi-2023, un juge fédéral de Manhattan a confronté deux avocats qui s’appuyaient sur de fausses citations générées par l’IA. Le juge a imposé 5 000 $ en fonction de ChatGPT pour créer les fausses citations.

Les avocats qui se sont excusés ont blâmé ChatGPT d'OpenAI, alléguant qu'il les avait trompés en leur faisant inclure des recherches juridiques fictives. Steven Schwartz et son collègue Peter LoDuca ont admis avoir intenté une action en justice faisant référence à des cas passés, ignorant qu'ils avaient été inventés par le modèle basé sur l'IA développé par OpenAI, soutenu par Microsoft.

M. Shwartz a révélé que le programme fourni par l'entreprise technologique dirigée par Sam Altman pour rechercher les précédents juridiques a été utilisé pour étayer l'argument selon lequel le client poursuit la compagnie aérienne colombienne Avianca à la suite d'une blessure subie lors d'un vol en 2019.

Shwartz a indiqué que le ChatGPT avait cité des décisions de justice dans l'affaire Martinez contre Delta Airlines. Une autre affaire impliquait Zicherman contre Korean Air Lines. La dernière affaire opposait Varghese à China Southern Airlines.

L'incident de juin a fait surface dans l'affaire Cohen, où le dossier contenait de faux cas avec d'autres impliquant des compagnies aériennes inexistantes. Les deux incidents prouvent que les programmes basés sur l’IA sont susceptibles de créer des créations trompeuses présentées comme des énoncés de faits.

Les chatbots IA seront soumis à un examen minutieux et amèneront peut-être les experts juridiques à négliger leur utilisation pour exécuter des tâches simples telles que la recherche sur des affaires antérieures. Un tel développement nierait la crédibilité des programmes d’IA, même si les développeurs recherchent continuellement des solutions aux problèmes d’hallucinations.

Il est essentiel de surveiller l'évolution de la situation après l'aveu de Cohen dans une déclaration sous serment.

com si vous avez des questions Tokenhell n'