ChatGPT bientôt interdit en France ?

Avec plus de 150 millions d’utilisateurs actifs, l’avenir de ChatGPT est-il menacé en France et en Europe ? Découvrez les motifs de la décision inédite rendue par l’autorité de protection des données italienne et les potentielles conséquences sur l’avenir de l’IA en Europe dans cet article !

Trouver un DPO
Vous êtes à la recherche d'un "Data protection officer" ?
Sommaire :

La prise de position de la CNIL 

Cette décision est inédite en la matière. Alors que l’UE est en plein travail de création d’une nouvelle réglementation spécifique à l’intelligence artificielle (Artificial Intelligence Act), les données personnelles des personnes concernées sont déjà au cœur de risques actuels liés à l’utilisation de l’IA, toujours plus innovante. Le RGPD n’épargne aucun domaine, et l’IA est intimement concernée par ces enjeux. 

Quel avenir pour ChatGPT, et notamment l’IA au sein de l’UE selon le RGPD et les autorités de contrôle ? 

Sur la question, la CNIL s’est récemment exprimée dans une réponse accordée à l’Informé. Après avoir pris contact avec l’autorité italienne, qui vient d’interdire l’utilisation de ChatGPT en Italie, afin d’échanger sur les enjeux et risques créés par l’IA concernant la protection des données, la CNIL annonce également vouloir clarifier la réglementation applicable à l’IA très prochainement !

Plus que jamais, la protection des données personnelles et la conformité au RGPD sont de réels enjeux. Procédez à votre mise en conformité, accompagné d’un DPO ou d’un logiciel, et évitez d’être, vous aussi, potentiellement interdit sur le territoire de l’Union Européenne. 🙃

Réactions : les autorités allemandes et canadiennes ouvrent leurs enquêtes 

En réaction à la décision italienne, les autorités allemande et canadienne de protection des données ont pris les devants. 

En effet, dans divers communiqués, les autorités de protection ont déclaré vouloir ouvrir leurs enquêtes concernant la société Open AI, et notamment leurs pratiques concernant la protection des données personnelles des utilisateurs de ChatGPT. Elles n’ont également  pas hésité à affirmer qu’en cas de manquements majeurs et de violations trop importantes du RGPD, elles interdiraient l’utilisation de cette IA sur leurs territoires. 

Des prises de position affirmées et déterminantes pour l’avenir de ChatGPT sur la scène européenne et internationale, mais également pour l’avenir de l’IA ! 

Mais d’abord, c’est quoi ChatGPT ? Rappel : 

ChatGPT est LA révolution en matière d’intelligence artificielle. Rendue accessible en novembre dernier, la plateforme compte désormais plus de 150 millions d’utilisateurs actifs. Concrètement, c’est un système d’IA basé sur un modèle conversationnel. ChatGPT peut : 

  • vous rédiger un article 
  • vous créer des lignes de code 
  • rédiger des essais et des dissertations 
  • créer votre lettre de motivation

En résumé, ChatGPT 3 est un programme qui peut comprendre et générer du texte en plusieurs langues et dans différents styles. 

En bref, c’est LA dernière grande révolution en matière d’intelligence artificielle, créée par OpenAI, à l’initiative d’Elon Musk, Sam Altman, Greg Brockman et d’anciens ingénieurs de Google.

Les faits 

ChatGPT interdit en Italie ? L’autorité de contrôle de protection des données italienne a récemment pris une décision radicale en interdisant à ChatGPT d’exercer son activité en Italie et se conformer au RGPD. 

Le 20 mars dernier, ChatGPT a subi une violation de données importante. Pendant près de 9 heures, de nombreuses données personnelles étaient accessibles au grand public, notamment des données d’identification, des extraits de conversation et des données bancaires. 

Un incident de grande ampleur qui n’a pas manqué de faire réagir l’autorité de protection des données italienne, la “Garante per la Protezione dei dati personal” qui fait part de sa décision d’interdire ChatGPT dans l’ensemble de l’Italie pour manquements au RGPD. 

Le RGPD Règlement Général de Protection des Données , c’est l’instrument de la  cybersécurité. La conformité au RGPD  qui permet de limiter les cyberattaques, et d’éviter d’éveiller les soupçons des autorités de protection des données ! Pour organiser votre conformité, consultez notre article : RGPD : Le Guide complet 

La décision de l’autorité italienne

Dans un communiqué publié le 31 mars dernier, l’autorité italienne évoque deux manquements majeurs au RGPD.

Premièrement, l’autorité reproche à ChatGPT de ne pas contrôler l’âge des utilisateurs de la plateforme : un comportement contraire à ce qu’impose l’article 8 du RGPD

Deuxièmement, c’est l’opacité du traitement réalisé par ChatGPT et l’absence de mention d’une base légale qui alerte l’autorité de protection des données. En effet, les utilisateurs de ChatGPT n’ont que très peu d’informations quant à la nature du traitement et notamment la réutilisation des données. La plateforme informe que les données saisies lors de la formulation de requêtes seront réutilisées afin de pouvoir entraîner l’algorithme, mais il n’y a pas de détails sur cette réutilisation. 

Ce comportement est contraire aux articles 6 et 13 du RGPD. 

Une interdiction concrète déjà mise en place

L’autorité italienne a interdit l’utilisation de ChatGPT en Italie tant que le RGPD n’était pas respecté. Comment ? L’autorité a ordonné à Open AI de ne plus traiter des données et de ne plus rendre accessible la plateforme aux utilisateurs ayant renseigné une adresse mail italienne. 

OpenAI, société créatrice de ChatGPT, a désormais 20 jours pour pouvoir organiser sa conformité au RGPD. À défaut, ChatGPT ne sera plus accessible en Italie, et la société risque une amende s’élevant jusqu’à 4% de son CA annuel !

Lien de la décision : Intelligenza artificiale: il Garante blocca ChatGPT. Raccolta illecita di… 

Trouver un DPO
Vous êtes à la recherche d'un "Data protection officer" ?
Inscrivez-vous à notre newsletter RGPD

👉  Restez informé et soyez averti dès la publication de nouveaux articles.

FAQ : Divorce, droit de la famille

Cette procédure peut conduire à des condamnations sous astreinte et des  amendes allant jusqu’à 20 000 000 € ou 4% du chiffre d’affaires annuel, avec le montant le plus élevé retenu. En outre, la CNIL peut décider de rendre la décision publique ce qui peut être dévastateur.

Cette procédure réservée aux cas peu complexes, mais qui peut être prononcée par un seul membre de la CNIL désigné à cet effet, peut amener à des sanctions de mise en conformité sous astreinte et une amende maximale de 20 000 €