Share on facebook
Share on twitter
Share on email
Share on reddit
Share on linkedin
  • partager
Share on facebook
Share on twitter
Share on email

ChatGPT fait l’objet de critiques pour avoir attribué à des innocents des crimes qu’ils n’ont pas commis

Share on facebook
Share on twitter
Share on linkedin
Share on reddit
Share on email

Traduit de l’anglais. Article de Kerry J. Byrne et Nikolas Lanum publié le 18 avril 2023 sur le site de Fox News.

Les chatbots d’intelligence artificielle ont fait preuve d’une capacité effrayante à ternir des réputations et à accuser des innocents de crimes qu’ils n’ont pas commis

« L’intelligence artificielle crée des défis sans précédent pour le droit, la politique et la pratique du droit », a déclaré Stephen Wu, président de l’Institut national de l’intelligence artificielle et de la robotique de l’American Bar Association et actionnaire du Silicon Valley Law Group, à Fox News Digital.

« La technologie de l’IA a de nombreuses promesses », a-t-il ajouté, « mais elle pose également des risques pour les droits fondamentaux et même la sécurité physique des citoyens de notre pays ».

Une série d’affaires impliquant de fausses accusations de crimes ou d’actes répréhensibles mettent en lumière les difficultés juridiques potentielles à venir.

Ils surviennent à un moment où même les plus grands titans de la technologie semblent ne pas comprendre certains aspects du fonctionnement de l’intelligence artificielle ou ses pièges potentiels – et pourquoi, en dépit de ses qualités d’intelligence, l’IA semble facilement sujette à de terribles erreurs.

« Il y a un aspect que nous appelons, nous tous qui travaillons dans ce domaine, une boîte noire », a déclaré Sundar Pichai, PDG de Google, lors d’une interview accordée à l’émission « 60 Minutes » dimanche.

« On ne sait pas vraiment pourquoi il a dit ceci ou pourquoi il s’est trompé. Nous avons quelques idées, et notre capacité à comprendre cela s’améliore avec le temps, mais c’est là que se situe l’état de la situation ».

Ces erreurs ont été à l’origine de problèmes juridiques et éthiques dans le monde entier.

Un maire australien a menacé de poursuivre OpenAI, le propriétaire de ChatGPT, pour avoir prétendu à tort qu’il avait fait de la prison.

Jonathan Turley, professeur à l’université George Washington et collaborateur de Fox News, a été accusé à tort de harcèlement sexuel par ChatGPT, avec un faux article du Washington Post à l’appui, parmi d’autres scandales alimentés par des informations erronées générées par l’IA.

« Ce qui est vraiment menaçant dans cet incident, c’est que le système d’IA a inventé un article du Washington Post, puis a inventé une citation de cet article et a dit qu’il y avait une allégation de harcèlement lors d’un voyage en Alaska avec des étudiants », a déclaré Jonathan Turley à l’émission « The Story » de Fox News au début de ce mois.

« Ce voyage n’a jamais eu lieu. Je n’ai jamais fait de voyage avec des étudiants en droit, quels qu’ils soient. J’ai enseigné dans la mauvaise école et je n’ai jamais été accusé de harcèlement sexuel ».

[…]

William A. Jacobson, professeur à la Cornell Law School, a déclaré à Fox News Digital que M. Turley avait la chance de disposer d’une vaste plateforme lui permettant de faire passer le message et d’essayer de remédier à la situation.

Cependant, le commun des mortels ne sera pas en mesure d’exercer le même type de recours.

« Il s’agit d’une toute nouvelle frontière et je pense que la loi est en retard par rapport à la technologie, dans une situation où c’est essentiellement un algorithme, peut-être même pire qu’un algorithme, qui diffame les gens », a-t-il déclaré.

M. Jacobson a ajouté que la question de savoir qui est responsable dans cette situation, à quel titre et en vertu de quelles lois n’était pas tranchée.

Il a toutefois émis l’idée que la responsabilité du fait des produits ou le droit général de la responsabilité civile pourraient éventuellement être invoqués dans cette situation, par opposition au droit traditionnel de la diffamation. Il a également déclaré que le Congrès pourrait adopter des lois visant à résoudre ce problème particulier, bien qu’il ne pense pas que cela soit très probable.

À l’inverse, l’IA peut également être utilisée pour générer des fausses histoires intelligentes et très crédibles.

« À bien des égards, il [un outil d’IA générative] n’a aucun moyen de faire la différence entre une information vraie et une information fausse », a déclaré Joan Donovan, directrice de recherche au Shorenstein Center on Media, Politics and Public Policy de la Harvard Kennedy School, au Bulletin of Atomic Scientists la semaine dernière.

« C’est ce que fait un être humain. Il fait toutes ces choses : Il lit, il rassemble, il trie… en essayant de comprendre ce qui, dans un sujet, est important pour le public ».

Brian Hood, maire de Hepburn Shire, au nord de Melbourne, en Australie, a été choqué récemment lorsque ses administrés lui ont dit que ChatGPT prétendait qu’il avait passé du temps en prison pour son rôle dans un scandale de corruption.

En fait, M. Hood a dénoncé un scandale chez son ancien employeur, Note Printing Australia, et n’a jamais été inculpé, selon un rapport de Reuters.

Les avocats de M. Hood auraient envoyé une « mise en demeure » au propriétaire de ChatGPT, OpenAI, le 21 mars, lui donnant 28 jours pour corriger l’erreur ou faire face à un procès potentiel pour diffamation.

Il s’agirait du premier procès en diffamation intenté contre le service d’intelligence artificielle.

[…]

Pour lire l’article dans sa forme originale

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on reddit
Reddit
Share on email
Email

Les nouvelles à ne pas manquer cette semaine

  • Vous aimeriez aussi
  • Nouvelles semblables