swissprivacy.law
  • Décision
  • Doctrine
  • Jurisprudence
  • Réglementation
  • À propos
  • Abonnement à notre newsletter
  • Generic selectors
    Expression exacte 
    Rechercher dans le titre 
    Rechercher dans le contenu 
    Post Type Selectors
swissprivacy.law
  • Décision
  • Jurisprudence
  • Doctrine
  • Réglementation
  • À propos
  • Generic selectors
    Expression exacte 
    Rechercher dans le titre 
    Rechercher dans le contenu 
    Post Type Selectors
S'abonner
-->

L’utilisation de ChatGPT temporairement restreinte en Italie : une décision motivée par la pizza hawaïenne ou les pâtes au ketchup ?

Livio di Tria, le 1er avril 2023
Le Président de l’au­to­rité italienne de protec­tion des données, le Garante per la prote­zione dei dati perso­nali, a pris une déci­sion le 30 mars 2023 qui limite tempo­rai­re­ment le trai­te­ment de données person­nelles par le service « ChatGPT » d’OpenAI.

Garante per la prote­zione dei dati perso­nali, Provvedimento del 30 marzo 2023

De quoi parle-t-on ?

Le Presidente del Garante per la prote­zione dei dati perso­nali (GPDP), soit le Président de l’autorité italienne de protec­tion des données, a prononcé le 30 mars 2023 une déci­sion enjoi­gnant à OpenAI de limi­ter tempo­rai­re­ment le trai­te­ment de données person­nelles via son – désor­mais célèbre – service ChatGPT, ce qui implique que le service n’est plus acces­sible depuis l’Italie. Parallèlement, une enquête admi­nis­tra­tive a été ouverte.

Nous souli­gnons qu’un commu­ni­qué de presse a égale­ment été publié par le GPDP le 31 mars 2023. Celui-ci mentionne expres­sé­ment la faille de sécu­rité qui a touché le service ChatGPT le 20 mars 2023 lors de laquelle les conver­sa­tions des utili­sa­teurs et les infor­ma­tions de paie­ment des abon­nés au service payant ont été briè­ve­ment expo­sées. Cette faille pour­rait d’ailleurs être le déclen­cheur initial de l’affaire.

Remarques limi­naires

Préalablement à l’analyse de la déci­sion (dont le titre de la contri­bu­tion humo­ris­tique ne reflète pas l’importance de la déci­sion, mais se veut provo­ca­teur)1, nous nous devons de formu­ler plusieurs remarques limi­naires néces­saires à la compré­hen­sion du cadre dans laquelle la déci­sion a été rendue.

Premièrement, la déci­sion s’étend à toutes les données person­nelles des personnes concer­nées établies sur le terri­toire italien. Elle a été rendue en confor­mité avec l’art. 58 par. 2 let. f RGPD qui permet à chaque auto­rité d’adopter une mesure correc­trice permet­tant d’imposer une limi­ta­tion tempo­raire ou défi­ni­tive, y compris une inter­dic­tion, du traitement.

Deuxièmement, la déci­sion a été rendue par le Président du GPDP comme le lui permet l’art. 5 par. 8 du Règlement 1/​2000 rela­tif à l’or­ga­ni­sa­tion et au fonc­tion­ne­ment du Bureau du Garante de la protec­tion des données. Ce dernier prévoit que dans les cas d’ur­gence parti­cu­lière et d’im­pos­si­bi­lité de report qui ne permettent pas de convo­quer le GPDP en temps utile, le Président peut adop­ter les mesures rele­vant de la compé­tence de l’or­gane. Ces mesures doivent toute­fois être rati­fiées par le GPDP qui, en tant qu’organe collé­gial, est apte à prendre les déci­sions fondées sur le RGPD. À cet égard, la déci­sion doit être rati­fiée lors de la première réunion utile, à convo­quer au plus tard le tren­tième jour suivant le prononcé de la décision.

Troisièmement, OpenAI ne dispose pas d’un établis­se­ment au sein de l’Union euro­péenne. C’est la raison pour laquelle la déci­sion a été noti­fiée à son repré­sen­tant (art. 27 RGPD) au sein de l’Union euro­péenne. Conformément à la poli­tique de confi­den­tia­lité d’OpenAI, le repré­sen­tant dési­gné pour les utili­sa­teurs euro­péens est l’entreprise VeraSafe Ireland Ltd

Quatrièmement, la déci­sion est tempo­raire. OpenAI dispose d’un délai de 20 jours pour commu­ni­quer les initia­tives prises pour mettre en œuvre les pres­crip­tions de la déci­sion et four­nir tout élément jugé utile pour justi­fier les viola­tions iden­ti­fiées par le GPDP. À noter que l’absence de réponse à la demande du GPDP est passible d’une amende admi­nis­tra­tive pouvant s’élever jusqu’à EUR 20’000’000 ou, dans le cas d’une entre­prise, jusqu’à 4% du chiffre d’affaires annuel mondial (art. 83 par. 5 let. e RGPD).

Le dernier point, mais non des moindres, concerne l’impact pratique que pourra avoir la déci­sion et son effet boule de neige. Si la déci­sion dont il est ques­tion ne déploie des effets que sur le terri­toire italien, d’autres auto­ri­tés euro­péennes ont déjà pris contact avec leur homo­logue italien afin d’échanger sur les constats qui ont pu être faits. C’est par exemple le cas de la Commission natio­nale de l’informatique et des liber­tés (CNIL), soit l’autorité fran­çaise de protec­tion des données. Il ne serait donc pas impos­sible que d’autres déci­sions soient rendues prochainement.

Qu’est-ce qu’on reproche à OpenAI et à son service ChatGPT ? 

En raison du carac­tère urgent, et du fait que l’enquête en est à ses prémisses, la déci­sion du GPDP n’est que partiel­le­ment moti­vée. À ce stade, seuls trois points peuvent être mis en exergue.

Premièrement, le GPDP est d’avis qu’aucune infor­ma­tion n’est four­nie aux utili­sa­teurs et aux personnes concer­nées dont les données sont collec­tées par OpenAI via ChatGPT. Le GPDP fait ici réfé­rence au devoir d’informer à charge du respon­sable du trai­te­ment tel que fixé par les art. 13 et 14 RGPD. Nous rele­vons qu’OpenAI dispose d’une poli­tique de confi­den­tia­lité abor­dant la ques­tion des données collec­tées et trai­tées (cf. par. 1 de la poli­tique).  Si les infor­ma­tions collec­tées lors de la créa­tion d’un compte – proces­sus obli­ga­toire pour utili­ser ChatGPT – sont pour leur part détaillées, les infor­ma­tions qui sont collec­tées lors de l’utilisation de ChatGPT ne sont pas aussi claires. Cela soulève en effet des ques­tions dans la mesure où, lorsqu’une personne utilise ChatGPT, elle peut non seule­ment révé­ler des données person­nelles qui la concernent, mais aussi des infor­ma­tions qui concernent des tiers (p. ex. lorsqu’on demande à ChatGPT de rédi­ger une lettre à l’attention d’une personne précise). De telles données peuvent en outre être inexactes, ce qui est égale­ment un problème dès lors que le service utilise ces données en vue d’entraîner les algo­rithmes sur lesquels il s’appuie.

Deuxièmement, le GPDP relève qu’aucune base juri­dique au sens de l’art. 6 RGPD ne semble sous-tendre la collecte et le trai­te­ment massifs de données person­nelles en vue d’entraîner les algo­rithmes sur lesquels le service s’appuie. Ce point est parti­cu­liè­re­ment problé­ma­tique puisqu’en droit euro­péen, le trai­te­ment doit néces­sai­re­ment repo­ser sur l’une des bases juri­diques prévues par l’art. 6 RGPD. En l’espèce, force est d’admettre que la poli­tique de confi­den­tia­lité d’OpenAI ne détaille pas sur quel(s) fondement(s) les trai­te­ments reposent. La critique du GPDP ne prête donc pas le flanc à la critique.

Troisièmement, le GPDP relève que le service est inter­dit aux enfants de moins de 13 ans (cf. par. 6 de la poli­tique). Malgré cette inter­dic­tion, le GPDP relève l’absence de tout méca­nisme de véri­fi­ca­tion de l’âge, ce qui expose les enfants à rece­voir des réponses inap­pro­priées à leur âge et à leur sensi­bi­lité, et ce contrai­re­ment à l’art. 8 RGPD. À ce titre, OpenAI aurait dû mettre en œuvre des mesures tech­niques et orga­ni­sa­tion­nelles appro­priées par défaut et dès la concep­tion du traitement.

Au vu de ce qui précède, le GPDP conclut que le service ChatGPT est contraire aux art. 5, 6, 8, 13 et 25 RGPD.

Intelligence arti­fi­cielle et protec­tion des données : je t’aime moi non plus

Ces dernières années, le Parlement euro­péen et le Conseil ont expli­ci­te­ment demandé des mesures légis­la­tives concer­nant les systèmes d’in­tel­li­gence arti­fi­cielle (IA) afin de garan­tir un cadre pouvant permettre à la fois la sécu­rité et l’innovation.

En 2018, la Commission euro­péenne a publié sa « stra­té­gie euro­péenne en matière d’IA », ainsi qu’un « plan coor­donné dans le domaine de l’in­tel­li­gence arti­fi­cielle », a mis en place un groupe d’ex­perts de haut niveau sur l’in­tel­li­gence arti­fi­cielle et a publié sur cette base, en 2019, des « lignes direc­trices en matière d’éthique pour une IA digne de confiance ».

En 2020, la Commission euro­péenne a publié dans ce contexte son « livre blanc sur l’IA » qui déve­lop­pait pour la première fois une approche spéci­fique de la régle­men­ta­tion de l’IA. Sur cette base, la Commission euro­péenne a fina­le­ment présenté le 21 avril 2021 une première propo­si­tion de règle­ment sur l’in­tel­li­gence arti­fi­cielle (égale­ment connu sous le nom de Règlement sur l’IA, ou AI Act), qui consti­tue la première régle­men­ta­tion hori­zon­tale juri­di­que­ment contrai­gnante au monde sur les systèmes d’IA (et qui prévoit un champ d’application extraterritorial).

Le Règlement sur l’IA – qui n’est qu’au stade de propo­si­tion – répar­tit les systèmes d’IA en caté­go­ries et les classe en fonc­tion du degré de risque qu’ils présentent pour la santé, la sécu­rité et les droits fonda­men­taux. Il en résulte les quatre caté­go­ries de risques suivantes :

  • système d’IA interdit ;
  • système d’IA à haut risque ;
  • système d’IA à risque limité ;
  • système d’IA à risque minimal.

Dans la première caté­go­rie (système d’IA inter­dit), tout ce qui est consi­déré comme une menace évidente pour les citoyens de l’UE est inter­dit. Cela concerne par exemple l’éva­lua­tion du compor­te­ment social par les auto­ri­tés (ce que l’on appelle le « social scoring ») aux jouets avec assis­tant vocal qui incitent les enfants à adop­ter un compor­te­ment à risque.

La deuxième caté­go­rie (système d’IA à haut risque) comprend d’une part tous les systèmes qui sont des produits couverts par certains autres règle­ments de l’UE ou qui sont utili­sés comme compo­sants de sécu­rité dans un tel produit lorsque celui-ci est soumis à une évalua­tion de confor­mité par un tiers (annexe II). Ensuite, la liste de l’an­nexe III comprend des systèmes d’IA dont les risques se sont déjà concré­ti­sés ou dont on peut prévoir qu’ils se concré­ti­se­ront, dans les domaines de l’iden­ti­fi­ca­tion et de la caté­go­ri­sa­tion biomé­triques, des infra­struc­tures critiques, de l’édu­ca­tion, du lieu de travail, de l’ac­cès aux services, de l’ap­pli­ca­tion de la loi, de la migra­tion et de l’asile, ainsi que de l’ad­mi­nis­tra­tion de la justice et des proces­sus démocratiques.

La caté­go­rie à haut risque est la pièce maîtresse de la propo­si­tion. Il prévoit, pour les systèmes à haut risque, certaines exigences qui doivent être contrô­lées dans le cadre d’un système de gestion des risques. Ces systèmes doivent notam­ment être déve­lop­pés sur la base de données répon­dant à certains critères de qualité et atteindre un niveau défini de préci­sion et de sécu­rité. Des systèmes de gestion des risques et une docu­men­ta­tion tech­nique doivent être tenus à jour et une jour­na­li­sa­tion auto­ma­tique doit être assurée.

La troi­sième caté­go­rie à risque limité comprend les systèmes d’IA qui inter­agissent avec des personnes physiques (comme les chat­bots). Ils sont soumis à des obli­ga­tions de trans­pa­rence, c’est-à-dire que les personnes doivent être infor­mées qu’elles inter­agissent avec un système d’IA si cela ne ressort pas clai­re­ment du contexte.

La dernière caté­go­rie comprend les systèmes d’IA qui ne présentent pas de risque néces­si­tant une régle­men­ta­tion et qui ne sont fina­le­ment pas concer­nés par les dispo­si­tions du Règlement sur l’IA. La Commission euro­péenne part du prin­cipe que la grande majo­rité des systèmes d’IA entrent dans cette caté­go­rie et cite comme exemple des appli­ca­tions telles que les jeux vidéo basés sur l’IA ou les filtres anti-spam.

Conclusion

La déci­sion du Président du GPDP a été prise dans l’urgence. Elle est certai­ne­ment moti­vée par la faille de sécu­rité dont a été victime OpenAI. Bien que tempo­raire, la déci­sion du GPDP est impor­tante en raison de la portée qu’elle pour­rait avoir (notam­ment auprès des autres auto­ri­tés) et en raison de l’augmentation du nombre d’utilisateurs et d’utilisatrices de ChatGPT. Nous nous réjouis­sons donc des conclu­sions de l’enquête menée par le GPDP.

La déci­sion confirme égale­ment à quel point le déve­lop­pe­ment de l’IA peut repré­sen­ter un problème en matière de protec­tion des données, raison pour laquelle un enca­dre­ment juri­dique est souhai­table. Seul ce cadre pourra permettre de garan­tir à la fois la sécu­rité et l’innovation.

  1. L’auteur s’ex­cuse pour le titre de mauvais goût, mais réaf­firme par-là que tous les mélanges culi­naires ne sont pas néces­sai­re­ment accep­tables. Lorsqu’on lui pose la ques­tion de savoir si une pizza hawaïenne ou des pâtes au ketchup sont socia­le­ment accep­tables, ChatGPT y répond par l’affirmatif. Ni le Chef Alfredo Linguini, ni le Chef Rémy ne sauraient vali­der cette affir­ma­tion, pas plus que l’au­teur de ces quelques lignes dont les racines italiennes bouillonnent à la lecture de la réponse comme une marmite prête à exploser.


Proposition de citation : Livio di Tria, L’utilisation de ChatGPT temporairement restreinte en Italie : une décision motivée par la pizza hawaïenne ou les pâtes au ketchup ?, 1er avril 2023 in www.swissprivacy.law/213


Les articles de swissprivacy.law sont publiés sous licence creative commons CC BY 4.0.
Sur ce thème
  • Identificare i fondamenti giuridici del trattamento nel RGPD: una vera sfida! Il caso delle fondazioni…
  • Nécessité d'un algorithme transparent pour un consentement valable
  • Dark patterns : wait & see
  • Utilisation des données biométriques des employés
Derniers articles
  • Les modèles de prix confidentiels soumis au principe de la transparence ?
  • Transparence à géométrie variable : le malaise vaudois
  • Votre carte d’identité comme carte de fidélité RGPD
  • Les limites du secret d’affaires : Analyse des recommandations du PFPDT par le TAF
Abonnement à notre newsletter
swissprivacy.law