Intelligence Artificielle Réglementation Digitale Technologie et Innovation Trends

ChatGPT : De la Fabrication de Fausses Informations aux Problèmes de Protection de Données

ChatGPT : De la Fabrication de Fausses Informations aux Problèmes de Protection de Données | Forcinews
Getting your Trinity Audio player ready...

ChatGPT, qui aurait atteint plus de 100 millions d’utilisateurs actifs par mois depuis sa sortie à la fin de l’année dernière, court aujourd’hui une multitude d’interdictions dans plusieurs et crée de plus en plus de polémiques liées à sa production de fausses informations.

Dans cet article, nous citons quelques incidents causés par ChatGPT :

ChatGPT accuse un professeur d’harcèlement sexuel

Un professeur de droit menant une recherche qu’il a menée sur ChatGPT  a demandé à ce dernier : “Le harcèlement sexuel par des professeurs a-t-il été un problème dans les facultés de droit américaines ; veuillez inclure au moins cinq exemples, ainsi que des citations d’articles de journaux pertinents”. A sa surprise, la réponse du programme qui a indiqué que son collègue, Jonathan Turley, a été accusé de harcèlement sexuel dans un article du Washington Post de 2018 après avoir peloté des étudiants en droit lors d’un voyage en Alaska.

En effet, le programme IA a répondu avec ceci comme exemple : 4. Centre de droit de l’Université de Georgetown (2018) Le professeur Jonathan Turley a été accusé de harcèlement sexuel par une ancienne étudiante qui a affirmé avoir fait des commentaires inappropriés lors d’un voyage scolaire. Citation : “La plainte allègue que Turley a fait des ‘commentaires sexuellement suggestifs’ et ‘a tenté de la toucher de manière sexuelle’ lors d’un voyage parrainé par une école de droit en Alaska.” (Washington Post, 21 mars 2018).”

ChatGPT a donc créé de fausses accusations et fabriqué des “faits”. Ce n’était pas seulement une surprise pour le professeur Eugene Volokh de l’UCLA, qui a mené la recherche puisque le professeur accusé par l’IA :

  • n’est jamais allé en Alaska avec des étudiants,
  • n’a jamais enseigné à l’Université de Georgetown,
  • et n’a jamais emmené d’étudiants en voyage de quelconque nature que ce soit en 35 ans d’enseignement.

En plus, The Washington Post n’a jamais publié un tel article et le professeur n’a jamais été accusé de harcèlement sexuel ou d’agression par qui que ce soit.

ChatGPT a inventé des recherches affirmant que les armes à feu ne sont pas nocives pour les enfants.

Dans une expérimentation faite sur ChatGPT, une utilisatrice a incité l’outil à générer un essai affirmant que l’accès aux armes à feu n’augmente pas le risque de mortalité infantile.

En réponse, ChatGPT a produit un essai bien écrit citant des articles universitaires de chercheurs de premier plan, dont un expert mondial de la violence armée. Les études citées dans les notes de bas de page n’existent pas.

ChatGPT a utilisé les noms de vrais chercheurs en armes à feu et de véritables revues universitaires pour créer tout un univers d’études fictives à l’appui de la thèse entièrement erronée selon laquelle les armes à feu ne sont pas dangereuses pour les enfants.

ChatGPT a tenté de justifier son erreur. Lorsqu’il a été mis au défi, le chatbot a doublé, crachant cette réponse : “Je peux vous assurer que les références que j’ai fournies sont authentiques et proviennent de revues scientifiques à comité de lecture.” Ce qui n’est pas vrai non plus.

ChatGPT interdit en Italie pour des problèmes de protection de données

L’organisme Italien de surveillance de la protection des données, Garante per la Protezione dei Dati Personali (alias Garante), a imposé une interdiction temporaire du service ChatGPT d’OpenAI dans le pays, invoquant des problèmes de protection des données.

À cette fin, il a ordonné à l’entreprise de cesser de traiter les données des utilisateurs avec effet immédiat, déclarant qu’il a l’intention d’enquêter sur l’entreprise pour savoir si elle traite illégalement ces données en violation de la législation de l’UE. Lois du règlement général sur la protection des données (RGPD).

“Aucune information n’est fournie aux utilisateurs et aux personnes concernées dont les données sont collectées par Open AI”, a noté le Garante. “Plus important encore, il semble qu’il n’y ait aucune base légale sous-tendant la collecte et le traitement massifs de données personnelles afin de ‘former’ les algorithmes sur lesquels s’appuie la plateforme.”

ChatGPT n’a pas divulgué ce qu’il a utilisé pour former son dernier grand modèle de langage (LLM), GPT-4, ni comment il l’a formé. Le Garante a également souligné l’absence de tout système de vérification de l’âge pour empêcher les mineurs d’accéder au service, les exposant potentiellement à des réponses “inappropriées”. Le propre chatbot de Google, appelé Bard, n’est ouvert qu’aux utilisateurs de plus de 18 ans.

En outre, le régulateur a soulevé des questions sur l’exactitude des informations présentées par ChatGPT, tout en soulignant une violation de données subie par le service au début du mois dernier qui a révélé les titres de discussion de certains utilisateurs et les informations relatives au paiement.

OpenAI dispose de 20 jours pour notifier à la Garante les mesures qu’elle a prises pour se mettre en conformité, sous peine d’amendes pouvant aller jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires annuel mondial total, selon le montant le plus élevé.

Avatar

Soulaimane AMRI

About Author

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Forcinews, le média de l’actualité sur le digital et les technologies.

Liens utiles

Recevez les dernières actualités du digital

    Selons les nouveautés, nos envois sont de 1 à 4 newsletters par mois.

    © 2018 – 2024, Forcinews All Rights Reserved. By Forcinet.