Traduit de l’anglais. Article de Kerry J. Byrne et Nikolas Lanum publié le 18 avril 2023 sur le site de Fox News.
Les chatbots d’intelligence artificielle ont fait preuve d’une capacité effrayante à ternir des réputations et à accuser des innocents de crimes qu’ils n’ont pas commis
« L’intelligence artificielle crée des défis sans précédent pour le droit, la politique et la pratique du droit », a déclaré Stephen Wu, président de l’Institut national de l’intelligence artificielle et de la robotique de l’American Bar Association et actionnaire du Silicon Valley Law Group, à Fox News Digital.
« La technologie de l’IA a de nombreuses promesses », a-t-il ajouté, « mais elle pose également des risques pour les droits fondamentaux et même la sécurité physique des citoyens de notre pays ».
Une série d’affaires impliquant de fausses accusations de crimes ou d’actes répréhensibles mettent en lumière les difficultés juridiques potentielles à venir.
Ils surviennent à un moment où même les plus grands titans de la technologie semblent ne pas comprendre certains aspects du fonctionnement de l’intelligence artificielle ou ses pièges potentiels – et pourquoi, en dépit de ses qualités d’intelligence, l’IA semble facilement sujette à de terribles erreurs.
« Il y a un aspect que nous appelons, nous tous qui travaillons dans ce domaine, une boîte noire », a déclaré Sundar Pichai, PDG de Google, lors d’une interview accordée à l’émission « 60 Minutes » dimanche.
« On ne sait pas vraiment pourquoi il a dit ceci ou pourquoi il s’est trompé. Nous avons quelques idées, et notre capacité à comprendre cela s’améliore avec le temps, mais c’est là que se situe l’état de la situation ».
Ces erreurs ont été à l’origine de problèmes juridiques et éthiques dans le monde entier.
Un maire australien a menacé de poursuivre OpenAI, le propriétaire de ChatGPT, pour avoir prétendu à tort qu’il avait fait de la prison.
Jonathan Turley, professeur à l’université George Washington et collaborateur de Fox News, a été accusé à tort de harcèlement sexuel par ChatGPT, avec un faux article du Washington Post à l’appui, parmi d’autres scandales alimentés par des informations erronées générées par l’IA.
« Ce qui est vraiment menaçant dans cet incident, c’est que le système d’IA a inventé un article du Washington Post, puis a inventé une citation de cet article et a dit qu’il y avait une allégation de harcèlement lors d’un voyage en Alaska avec des étudiants », a déclaré Jonathan Turley à l’émission « The Story » de Fox News au début de ce mois.
« Ce voyage n’a jamais eu lieu. Je n’ai jamais fait de voyage avec des étudiants en droit, quels qu’ils soient. J’ai enseigné dans la mauvaise école et je n’ai jamais été accusé de harcèlement sexuel ».
[…]
William A. Jacobson, professeur à la Cornell Law School, a déclaré à Fox News Digital que M. Turley avait la chance de disposer d’une vaste plateforme lui permettant de faire passer le message et d’essayer de remédier à la situation.
Cependant, le commun des mortels ne sera pas en mesure d’exercer le même type de recours.
« Il s’agit d’une toute nouvelle frontière et je pense que la loi est en retard par rapport à la technologie, dans une situation où c’est essentiellement un algorithme, peut-être même pire qu’un algorithme, qui diffame les gens », a-t-il déclaré.
M. Jacobson a ajouté que la question de savoir qui est responsable dans cette situation, à quel titre et en vertu de quelles lois n’était pas tranchée.
Il a toutefois émis l’idée que la responsabilité du fait des produits ou le droit général de la responsabilité civile pourraient éventuellement être invoqués dans cette situation, par opposition au droit traditionnel de la diffamation. Il a également déclaré que le Congrès pourrait adopter des lois visant à résoudre ce problème particulier, bien qu’il ne pense pas que cela soit très probable.
À l’inverse, l’IA peut également être utilisée pour générer des fausses histoires intelligentes et très crédibles.
« À bien des égards, il [un outil d’IA générative] n’a aucun moyen de faire la différence entre une information vraie et une information fausse », a déclaré Joan Donovan, directrice de recherche au Shorenstein Center on Media, Politics and Public Policy de la Harvard Kennedy School, au Bulletin of Atomic Scientists la semaine dernière.
« C’est ce que fait un être humain. Il fait toutes ces choses : Il lit, il rassemble, il trie… en essayant de comprendre ce qui, dans un sujet, est important pour le public ».
Brian Hood, maire de Hepburn Shire, au nord de Melbourne, en Australie, a été choqué récemment lorsque ses administrés lui ont dit que ChatGPT prétendait qu’il avait passé du temps en prison pour son rôle dans un scandale de corruption.
En fait, M. Hood a dénoncé un scandale chez son ancien employeur, Note Printing Australia, et n’a jamais été inculpé, selon un rapport de Reuters.
Les avocats de M. Hood auraient envoyé une « mise en demeure » au propriétaire de ChatGPT, OpenAI, le 21 mars, lui donnant 28 jours pour corriger l’erreur ou faire face à un procès potentiel pour diffamation.
Il s’agirait du premier procès en diffamation intenté contre le service d’intelligence artificielle.
[…]
La récente exclusion de Randy Boissonault du Conseil des ministres fédéraux a largement été relayée…
Traduit de l’anglais. Article de Adrian Ghobrial publié le 14 novembre 2024 sur le site…
Le ministre fédéral de l'Emploi, du Développement de la main-d'œuvre et des Langues officielles était…
La vingt-neuvième "Conférence des partis" pour le climat (COP29) se déroule depuis déjà une semaine…
Ce matin, le gouvernement du Québec a annoncé son intention d'interdire le gaz naturel pour…
À chaque mois environ, un dossier sort dans les médias concernant un aspect de l’énorme…