swissprivacy.law
  • Décision
  • Doctrine
  • Jurisprudence
  • Réglementation
  • À propos
  • Abonnement à notre newsletter
swissprivacy.law
  • Décision
  • Jurisprudence
  • Doctrine
  • Réglementation
  • À propos
S'abonner
Generic selectors
Expression exacte
Rechercher dans le titre
Rechercher dans le contenu
Post Type Selectors
Filtrer par catégorie
Décision
Doctrine
Jurisprudence
Réglementation

La légalité de la surveillance numérique des examens universitaires à distance

Alexandre Flückiger, le 10 décembre 2020
La surveillance d’exa­mens à distance à l’aide d’ou­tils infor­ma­tiques consti­tue indu­bi­ta­ble­ment une restric­tion aux droits fonda­men­taux des étudiantes et étudiants. Dans cette contri­bu­tion, le prof. Alexandre Flückiger examine cette problé­ma­tique très actuelle sous l’angle de la base légale néces­saire pour une telle restric­tion (art. 36 Cst.). Sans préju­ger la ques­tion de la propor­tion­na­lité, il parvient à la conclu­sion qu’à défaut d’une base légale formelle claire, une surveillance recou­rant à la biomé­trie, à l’intelligence arti­fi­cielle ou à l’enregistrement vidéo néces­site un consen­te­ment expli­cite, libre et éclairé des personnes exami­nées. Une base légale maté­rielle ne peut suffire que pour une surveillance vidéo simple sans enre­gis­tre­ment, pour autant qu’elle émane des instances parti­ci­pa­tives de l’Université.

1  Introduction : la recom­man­da­tion des prépo­sés à la protec­tion des données et à la transparence

Les prépo­sés gene­vois à la protec­tion des données et à la trans­pa­rence ont rendu le 16 novembre 2020 une recom­man­da­tion auto­ri­sant l’usage d’un logi­ciel couplant biomé­trie, intel­li­gence arti­fi­cielle et enre­gis­tre­ment sonore et vidéo afin d’automatiser la véri­fi­ca­tion d’identité et la surveillance des examens à l’Université de Genève (en l’espèce l’outil de e‑proctoring TestWe)1.

Les prépo­sés recom­mandent ce logi­ciel pour les seules sessions de janvier/​février et de juin/​juillet 2021 à condi­tion de n’être utilisé que pour les examens « dont la typo­lo­gie implique que la fraude est plus facile à réali­ser » (notam­ment QCM) et réunis­sant plus de 200 personnes. Les prépo­sés recom­mandent égale­ment d’adopter une direc­tive d’ex­ploi­ta­tion, de donner une infor­ma­tion détaillée aux desti­na­taires, d’adapter le contrat, de limi­ter le délai de conser­va­tion des données ainsi que du vision­ne­ment des images. Dans tous les cas, les personnes exami­nées devraient dispo­ser d’un droit à passer l’examen sous un mode alter­na­tif (examen en présen­tiel ou autre) quelles que soient les contraintes liées à la situa­tion sanitaire.

Dans la mesure où une telle surveillance restreint les droits fonda­men­taux des personnes exami­nées, celle-ci doit être prise dans l’intérêt public, repo­ser sur une base légale et rester propor­tion­née (art. 43 Cst. GE ; art. 36 Cst.).

2  L’intérêt public à préve­nir la fraude

Sous l’angle de l’intérêt public, la mise en œuvre des règles préve­nant la fraude univer­si­taire s’impose. Un établis­se­ment de forma­tion ne saurait les rendre illu­soires au risque de miner la qualité de sa forma­tion, d’éroder la confiance dans la qualité de ses diplômes, de mettre en danger le public en déli­vrant des titres n’attestant pas des connais­sances réelles de leurs titu­laires ou d’éluder les prin­cipes d’équité et d’égalité des chances entre personnes exami­nées2. La surveillance élec­tro­nique fait indu­bi­ta­ble­ment partie des moyens envi­sa­geables pour atteindre ce but.

3  La base légale en général

3.1  L’échelle des atteintes

Sous l’angle de la base légale, il importe de distin­guer selon les diffé­rentes moda­li­tés de surveillance élec­tro­nique pour évaluer le degré d’atteinte.

I – L’atteinte est la plus grave en présence d’une webcam enre­gis­trant son et image, assis­tée par un contrôle enre­gis­tré et automatisé :

  1. de l’identité par a) des moyens biomé­triques clas­siques (recon­nais­sance faciale, de l’iris ou de l’empreinte vocale) ou b) de biomé­trie compor­te­men­tale (« beha­vio­ral biome­trics » telle l’analyse du profil de frappe au clavier) ;
  2. des compor­te­ments par des algo­rithmes d’intelligence arti­fi­cielle profi­lant des compor­te­ments poten­tiel­le­ment suspects. Les données peuvent prove­nir a) d’une webcam dans la pièce qui véri­fie par exemple l’absence de la personne exami­née devant la caméra ou la présence d’une autre personne, qui analyse la posture (mains sous la table, autres postures anor­males) ou les dépla­ce­ments oculaires, voire qui détecte des sons, des objets ou d’autres chan­ge­ments inso­lites. Ces données peuvent être affi­nées b) par des camé­ras spéciales et des procé­dés d’intelligence arti­fi­cielle (compu­ter vision) suscep­tibles de détec­ter des dispo­si­tifs cachés comme l’ob­jec­tif d’une caméra dans un bouton ou les ondes radio d’un appa­reil émet­teur. Enfin, les données peuvent résul­ter c) de dispo­si­tifs de surveillance biomé­triques portables (montres intel­li­gentes, brace­lets de fitness) qui analysent les mouve­ments, le pouls ou la tempé­ra­ture corpo­relle des candi­dats et candi­dates3.
  3. de l’environnement de travail (enre­gis­tre­ment, véri­fi­ca­tion, prise de contrôle ou blocage de l’ac­cès sur l’ordinateur person­nel au disque dur, aux messa­ge­ries, aux réseaux sociaux ou à d’autres programmes).

II – En l’absence des auto­ma­tismes de surveillance précé­dents, mais en présence d’un suivi en temps réel par caméra compre­nant un enre­gis­tre­ment sonore et vidéo, l’atteinte n’est pas aussi impor­tante mais reste d’une certaine gravité.

III – L’atteinte est la plus faible en présence d’une seule surveillance vidéo en temps réel sans enregistrement.

3.2  La surveillance par vidéo, biomé­trie et intel­li­gence artificielle

De la grada­tion précé­dente découlent les consé­quences suivantes : plus l’atteinte est grave, plus la densité et le niveau norma­tifs doivent être élevés. Bien que la léga­lité s’applique moins stric­te­ment pour le corps estu­dian­tin qui est dans un rapport de droit spécial avec l’État, une base légale formelle reste exigible si l’atteinte est grave4.

Tel est le cas de l’hypothèse I‑i. Les contrôles biomé­triques comprennent des données person­nelles sensibles néces­si­tant une base légale formelle en droit de la protec­tion des données euro­péen (UE et Conseil de l’Europe)5  et ‑ bien­tôt ‑ fédé­ral (art. 5 let. c ch. 4 nLPD6). Cela démontre le carac­tère poten­tiel­le­ment grave de l’atteinte. Les projets de lois, de même que le droit étran­ger ou inter­na­tio­nal, pouvant être utili­sés à titre inter­pré­ta­tif7 et la lacune du droit canto­nal n’étant sur ce point pas déli­bé­rée, les données biomé­triques doivent être consi­dé­rées comme sensibles au sens de l’art. 4 let. b LIPAD et doivent donc repo­ser sur une base légale formelle claire ou un consen­te­ment expli­cite (art. 35 al. 2 LIPAD). Les procé­dés de biomé­trie compor­te­men­tale semblent quant à eux plutôt rele­ver d’un profi­lage de la person­na­lité, exigeant égale­ment une base légale formelle.

Une base légale formelle est égale­ment exigible pour les hypo­thèses I‑ii et I‑iii. Le déclen­che­ment d’alarmes en cas de gestes suspects ou d’accès prohibé à l’environnement de travail laisse présu­mer d’une atti­tude frau­du­leuse qui conduit poten­tiel­le­ment à un renver­se­ment du fardeau de la preuve. Le logi­ciel établit par ailleurs un profil algo­rith­mique des étudiantes et étudiants en détec­tant les compor­te­ments suspects. L’enregistrement de telles données permet­trait ainsi d’établir un profi­lage simple, voire « à risque élevé », de la personne exami­née au sens de l’art. 5 let. f et g nLPD. Dans le cas de figure où chaque inci­dence de compor­te­ment anor­mal devait entraî­ner auto­ma­ti­que­ment un point de péna­lité par exemple, il convien­drait d’appliquer par analo­gie les règles prévues dans le futur droit fédé­ral sur les déci­sions indi­vi­duelles auto­ma­ti­sées (cf. art. 21 nLPD). Ce type de surveillance pose égale­ment problème pour les personnes souf­frant de handi­caps, ne dispo­sant pas d’un envi­ron­ne­ment suffi­sam­ment tran­quille ou présen­tant des compor­te­ments atypiques, une couleur de peau parti­cu­lière ou des carac­té­ris­tiques physiques compli­quant l’identification biomé­trique8. La loi formelle doit par ailleurs être suffi­sam­ment dense pour préser­ver la confi­den­tia­lité des données et empê­cher les abus9, par exemple par l’énumération des critères de suspi­cion sur lesquels les algo­rithmes ont le droit de se repo­ser. Le fait de ne suppri­mer que l’identification biomé­trique ne permet donc pas d’éviter l’exigence d’une base légale formelle pour de tels systèmes, sous réserve de l’hypothèse d’un consen­te­ment expli­cite, libre et éclairé.

Dans les trois subdi­vi­sions de l’hypothèse I, on peut s’inspirer par analo­gie de la vidéo­sur­veillance du domaine public où le Tribunal fédé­ral a reconnu, à la suite de la doctrine, que l’at­teinte aux droits fonda­men­taux était la plus grave lorsque des appa­reils tech­ni­que­ment perfec­tion­nés étaient employés ; ainsi lorsque la vidéo­sur­veillance était « doublée d’un trai­te­ment infor­ma­tisé, permet­tant en parti­cu­lier d’éta­blir des profils de person­na­lité éven­tuel­le­ment en couplage avec des bases de données biomé­triques, de suivre auto­ma­ti­que­ment une scène, d’ini­tier des alarmes en fonc­tion de l’ana­lyse de compor­te­ments types ou de carac­té­ris­tiques prédé­fi­nies »10.

3.3  La surveillance par enre­gis­tre­ment vidéo simple

Dans l’hypothèse II, l’enregistrement vidéo et sonore des faits et gestes d’une personne dans son domaine privé consti­tue égale­ment un trai­te­ment de données person­nelles, en partie sensibles11, si bien qu’une base légale formelle claire ou un consen­te­ment expli­cite, libre et éclairé sont exigés en vertu de l’art. 35 al. 2 LIPAD. L’enregistrement dévoile en effet des infor­ma­tions sur l’origine raciale ou ethnique, voire la sphère intime ou même la santé, sans exclure des données sur les acti­vi­tés reli­gieuses ou poli­tiques (p. ex. un tabou­ret de prière dans la pièce, un poster du Che voire des images mora­le­ment ou péna­le­ment répré­hen­sibles). Dans la plupart des cas, une partie de l’atteinte peut être préve­nue par la colla­bo­ra­tion de la personne exami­née qui soit ôtera les éléments problé­ma­tiques, soit trou­vera un envi­ron­ne­ment plus neutre. Si c’est de bonne foi impos­sible, une loca­li­sa­tion alter­na­tive devrait être offerte par l’institution. Limiter les mouve­ments de la caméra permet aussi de restreindre l’atteinte.

Expressions d’un rapport de droit public spécial, les obli­ga­tions ne portant pas une atteinte grave prises en rela­tion avec le but même de l’Université desti­nées à assu­rer la bonne marche du service public n’ont toute­fois pas besoin de base légale spéciale12. Il en va ainsi, par exemple, de l’organisation des cours et des examens13. Cependant, contrai­re­ment à la vidéo­sur­veillance du domaine public où la liberté de dépla­ce­ment est présup­po­sée, celle d’un examen, en salle ou à distance, repose sur le précepte inverse : une limi­ta­tion des liber­tés par une surveillance déli­bé­rée et trans­pa­rente. Lors des examens présen­tiels, une caméra avec micro n’enregistre toute­fois pas chaque personne exami­née indi­vi­duel­le­ment. Si l’atteinte portée par un enre­gis­tre­ment vidéo simple n’est pas aussi impor­tante que dans l’hypothèse précé­dente, elle reste cepen­dant d’une certaine gravité ; d’autant plus si l’on admet que des données sensibles sont enre­gis­trées. Une base légale formelle claire ou un consen­te­ment expli­cite sont dès lors exigés en vertu de l’art. 35 al. 2 LIPAD.

3.4  La surveillance vidéo sans enregistrement

Dans l’hypothèse III, l‘atteinte est la plus faible. Il n’y en aurait même aucune si l’on appli­quait par analo­gie une juris­pru­dence constante de la CourEDH rela­tive à la vidéo­sur­veillance du domaine public : « S’agissant de la surveillance des actions d’un indi­vidu au moyen de maté­riel photo ou vidéo, les organes de la Convention ont ainsi estimé que la surveillance des faits et gestes d’une personne dans un lieu public au moyen d’un dispo­si­tif photo­gra­phique ne mémo­ri­sant pas les données visuelles ne consti­tuait pas en elle-même une forme d’ingérence dans la vie privée. En revanche, des consi­dé­ra­tions tenant à la vie privée peuvent surgir dès lors que des données à carac­tère person­nel, notam­ment les images d’une personne iden­ti­fiée, sont recueillies et enre­gis­trés de manière systé­ma­tique ou perma­nente »14.

Une appli­ca­tion par analo­gie au domaine privé ne relève pour­tant pas de l’évidence : surveiller à distance l’intérieur d’un domi­cile, même sans enre­gis­tre­ment, diffère du domaine public où quiconque est suscep­tible d’être vu. L’atteinte reste cepen­dant légère compte tenu tant du contexte d’un examen, qui présup­pose de toute manière une super­vi­sion en présen­tiel, que de l’absence de données enre­gis­trées où l’on peut admettre que la caméra se substi­tue simple­ment aux yeux et oreilles du person­nel de surveillance.

Étant donné l’existence d’un rapport de droit spécial, une base légale maté­rielle peut suffire lors d’une surveillance vidéo sans enre­gis­tre­ment, pour autant selon nous qu’elle émane des instances parti­ci­pa­tives de l’Université. Dans ce cas, la légi­ti­mité démo­cra­tique que vise le prin­cipe de léga­lité est assu­rée puisque les prin­ci­pales personnes concer­nées sont direc­te­ment asso­ciées au proces­sus de décision.

Concrètement, il faudrait dispo­ser d’un fonde­ment clair dans le Statut adopté par l’Assemblée de l’Université de Genève et approuvé par le Conseil d’État (art. 41 de la loi sur l’Université15), et/​ou dans les règle­ments d’études approu­vés par les Conseils parti­ci­pa­tifs des Facultés (art. 29 al. 1 let. a du Statut) ; le tout devant être précisé par des direc­tives recto­rales et décanales.

À défaut d’une base claire dans le Statut, une base parti­ci­pa­tive claire au niveau facul­taire (règle­ment d’études) préci­sée par une direc­tive déca­nale pour­rait suffire ; mais pour autant que ces textes reposent sur une direc­tive recto­rale auto­ri­sant les Conseils parti­ci­pa­tifs à intro­duire une telle surveillance, sans toute­fois les y contraindre. En effet, en cas de contrainte par le Rectorat sans base claire dans le Statut, la déci­sion de surveillance ne pour­rait pas être libre­ment prise par l’instance parti­ci­pa­tive facultaire.

4  La base légale et le consen­te­ment dans la pratique genevoise

En pratique, le Rectorat de l’Université de Genève a auto­risé, par direc­tive interne révi­sée le 24 novembre 2020, une surveillance numé­rique des examens de janvier-février 2021 en limi­tant le choix à une surveillance par visio­con­fé­rence Zoom, avec ou sans enre­gis­tre­ment, et à « d’autres outils numé­riques »16.

Au niveau facul­taire par exemple, le déca­nat de la Faculté d’économie et mana­ge­ment (GSEM) a prévu et régle­menté la surveillance par TestWe17. Le Conseil parti­ci­pa­tif de Faculté de droit a auto­risé quant à lui le corps ensei­gnant à recou­rir à une « surveillance ponc­tuelle et aléa­toire » « par des outils numé­riques », avec ou sans enre­gis­tre­ment18, en pratique par Zoom.

On ne trouve cepen­dant pas de base légale formelle claire au niveau du Grand Conseil, ni de base maté­rielle au niveau du Conseil d’État. La loi sur l’Université n’ayant pas été révi­sée, l’état de néces­sité au sens de l’article 113 Cst. GE, proclamé le 1er novembre 202019, aurait pour­tant permis au Conseil d’État d’adopter un arrêté urgent, valant base légale formelle à titre extra­or­di­naire et provi­soire20, dans la mesure où cette surveillance découle de la crise sanitaire.

Si une base légale permet de se passer du consen­te­ment de la personne exami­née, le consen­te­ment de celle-ci permet de suppléer au défaut de base légale pour autant qu’il soit expli­cite, libre et éclairé (art. 35 al. 2 LIPAD). Pourtant, à propos de l’utilisation du logi­ciel de surveillance biomé­trique et algo­rith­mique TestWe, les prépo­sés gene­vois « émettent de sérieux doutes sur le fait que les étudiants puissent, dans un tel cas, émettre un consen­te­ment expli­cite, libre et éclairé »21 préci­sant que « le consen­te­ment des étudiants ne saurait suppléer au manque de base légale formelle »22. À ce stade du raison­ne­ment, on pour­rait penser que les prépo­sés condamnent le recours à ce logi­ciel. Pourtant, ils concluent leur recom­man­da­tion en jugeant qu’« un étudiant ne souhai­tant pas se voir impo­ser un trai­te­ment biomé­trique de ses données [devrait]se voi[r] offrir un choix alter­na­tif (passa­tion de l’exa­men en présen­tiel ou autre), quelles que soient les contraintes liées à la situa­tion sani­taire. »23

Si cette conclu­sion est à saluer, elle recèle toute­fois une injonc­tion para­doxale si le droit sani­taire devait inter­dire l’organisation d’examens en présen­tiel, car on serait alors face à deux ordres contra­dic­toires. En cas d’interdiction, il ne reste­rait d’autre solu­tion que de passer l’examen sous une « autre » moda­lité, selon la recom­man­da­tion des préposés.

À ce sujet, la GSEM offre, dans l’hypothèse où les examens présen­tiels seraient tempo­rai­re­ment suspen­dus pour « force majeure en lien avec la situa­tion sani­taire actuelle (COVID-19) », à titre alter­na­tif « une évalua­tion à distance avec une version de TestWe sans trai­te­ment biomé­trique »24, mais pas sans une surveillance auto­ma­ti­sée de certains compor­te­ments. Outre son défaut de base légale formelle, cette solu­tion n’offre pas une véri­table alter­na­tive permet­tant de consen­tir libre­ment, car n’étant plus auto­ma­ti­que­ment iden­ti­fiables par recon­nais­sance faciale, les candi­dates et candi­dats devront subir, contrai­re­ment aux autres, des contrôles manuels suscep­tibles de les prété­ri­ter tant au niveau du temps dispo­nible que de la perte de concen­tra­tion potentielle.

Par chance, ce problème semble doré­na­vant être théo­rique (provi­soi­re­ment du moins), car le Conseil fédé­ral vient d’apporter, par révi­sion du 4 décembre 2020, une excep­tion à l’interdiction des acti­vi­tés présen­tielles dans les établis­se­ments de forma­tion en vigueur depuis le 2 novembre 202025, en permet­tant d’organiser des examens en présen­tiels, même au-delà de 50 personnes26.

5  Conclusion

En conclu­sion, à défaut d’une base claire dans la loi sur l’Université ou dans une ordon­nance de néces­sité du Conseil d’État, la surveillance numé­rique des examens de janvier/​février 2021 par biomé­trie et/​ou intel­li­gence arti­fi­cielle (TestWe) ou par simple vidéo­sur­veillance enre­gis­trée (Zoom) n’est admis­sible que si les étudiants et étudiantes y consentent de manière expli­cite, libre et éclai­rée. Les personnes candi­dates doivent dès lors se voir offrir, à titre alter­na­tif, la possi­bi­lité effec­tive d’opter pour un examen présen­tiel clas­sique sans crainte de discrimination.

Seule une surveillance par simple vidéo non enre­gis­trée peut être impo­sée sans consen­te­ment indi­vi­duel, à condi­tion d’avoir été clai­re­ment et libre­ment déci­dée par une instance univer­si­taire parti­ci­pa­tive. Ainsi, à défaut de base claire dans le Statut de l’Université, un tel fonde­ment dans les règle­ments d’études, approu­vés par les Conseils parti­ci­pa­tifs des Facultés et préci­sés par direc­tives déca­nales, peut suffire à condi­tion de repo­ser sur une direc­tive recto­rale auto­ri­sant les Conseils parti­ci­pa­tifs à intro­duire une telle surveillance, sans toute­fois les y contraindre.

On préci­sera que cette conclu­sion ne présume pas la consti­tu­tion­na­lité de tels procé­dés à défaut d’avoir procédé ici à une analyse de la propor­tion­na­lité : une surveillance numé­ri­sée, repo­sât-elle sur une base légale suffi­sante, pourra toujours échouer au test de propor­tion­na­lité, comme le droit comparé le démontre.

En droit fran­çais par exemple, « n’apparaissent à priori pas propor­tion­nés au regard de la fina­lité pour­sui­vie : les dispo­si­tifs de surveillance permet­tant de prendre le contrôle à distance de l’ordinateur person­nel de l’étudiant (notam­ment pour véri­fier l’accès aux cour­riels ou aux réseaux sociaux) ; les dispo­si­tifs de surveillance repo­sant sur des trai­te­ments biomé­triques (exemple : recon­nais­sance faciale via une webcam). »27

Les prépo­sés gene­vois parviennent, dans leur recom­man­da­tion, à la fois à la même conclu­sion (« l’utilisation d’un logi­ciel d’eproc­to­ring tel que TestWe, faisant usage de tech­no­lo­gie biomé­trique, n’est pas propor­tion­née dans le cadre de la passa­tion d’examens acadé­miques »28) et à la conclu­sion exac­te­ment inverse au para­graphe suivant où ils en recom­mandent néan­moins l’utilisation, qu’ils estiment « tolé­rable », après une « pondé­ra­tion des inté­rêts […] [prenant] en compte le carac­tère extra­or­di­naire de la situa­tion [épidé­mio­lo­gique] ». La pesée des inté­rêts étant partie inté­grante du contrôle de propor­tion­na­lité, ils recon­naissent donc impli­ci­te­ment ‑ même si le raison­ne­ment est dérou­tant ‑ que l’utilisation d’un tel logi­ciel de surveillance est propor­tion­née dans le contexte sani­taire parti­cu­lier de la pandé­mie de covid-19.

  1. www​.ge​.ch/​p​p​d​t​/​d​o​c​/​d​o​c​u​m​e​n​t​a​t​i​o​n​/​R​e​c​o​m​m​a​n​d​a​t​i​o​n​-​1​6​-​n​o​v​e​m​b​r​e​-​2​0​2​0​.​pdf (faisant suite à un avis du 30 avril 2020).
  2. Sur ce dernier point, cf. TAF, arrêt B‑6383/​2017 du 20.08.2018, c. 6.3.5.
  3. Sur ces diffé­rentes tech­niques, cf. O. Mikhalchuk, Using AI and biome­trics to enhance exam proc­to­ring, 14 01 2020 (www​.biome​tri​cup​date​.com/​2​0​2​0​0​1​/​u​s​i​n​g​-​a​i​-​a​n​d​-​b​i​o​m​e​t​r​i​c​s​-​t​o​-​e​n​h​a​n​c​e​-​e​x​a​m​-​p​r​o​c​t​o​r​ing).
  4. ATF 142 I 49, 64 ss ; 139 I 280, 284 ss.
  5. Art. 6 al. 1 Convention 108+ (FF 2020 577); art. 9 al. 1 RGPD.
  6. Délai réfé­ren­daire au 14 janvier 2021 (FF 2020 7397).
  7. A. Flückiger, (Re)faire la loi, Berne 2019, p. 297 (réf. cit.).
  8. The New York Times, How it feels when soft­ware watches you take tests, 29.09.2020 ; Center for Democracy & Technology, How Automated Test Proctoring Software Discriminates Against Disabled Students, 16.11.2020 ; The Verge, Exam anxiety : how remote test-proc­to­ring is cree­ping students out, 29.04.2020.
  9. ATF 137 I 167, 191.
  10. TF, arrêt 1P.358/2006 du 14.12.2006, c. 5.3 ; A. Flückiger/​ A. Auer, La vidéo­sur­veillance dans l’œil de la Constitution, PJA 2006, 934.
  11. J. Dubey, Droits fonda­men­taux II, 2018, N. 1859.
  12. P. Moor et al., Droit admi­nis­tra­tif III, 2018, p. 512.
  13. TA St-Gall, arrêt B 2014/​171 du 25.02.2016, c. 2.1.
  14. López Ribalda et autres c. Espagne du 17 10 2019, § 57.
  15. RS GE C 1 30.
  16. Ch. 7 ss des Modalités appli­cables à l’en­sei­gne­ment et au contrôle des connais­sances pour l’an­née acadé­mique 2020–2021, du 6.10.2020.
  17. Directive examens en ligne GSEM, du 9.11.2020 ; Directive d’exploitation du système de e‑proctoring, du 20.11.2020.
  18. Art. 13 al. 3 et 4 du règle­ment concer­nant le contrôle des connais­sances du 01.06.2005.
  19. Art. 1 al. 1 arrêté COVID-19 du 1er novembre 2020.
  20. Cf. dans ce sens en droit fédé­ral ATF 123 IV 29, 38.
  21. Ch. 3.3 note 30 et ch. 3.5.2.
  22. Ch. 3.3.
  23. Ch. 4 3e tiret.
  24. GSEM, Directive d’exploitation du système de e‑proctoring, du 20.11.2020, ch. 17.
  25. Art. 6d ordon­nance COVID-19 situa­tion parti­cu­lière (RS 818.101.26). En droit canto­nal, voir l’art. 10 de l’Arrêté COVID-19 du 1er novembre 2020.
  26. Art. 6d al. 1 let. c ch. 2 et al. 1bis ordon­nance COVID-19 situa­tion parti­cu­lière (RO 2020 5189).
  27. CNIL, avis du 20 mai 2020.
  28. ch. 4.


Proposition de citation : Alexandre Flückiger, La légalité de la surveillance numérique des examens universitaires à distance, 10 décembre 2020 in www.swissprivacy.law/42


Les articles de swissprivacy.law sont publiés sous licence creative commons CC BY 4.0.
Sur ce thème
  • L’utilisation d’applications de surveillance d’examen à distance
  • Information préalable aux tiers dont les données sont transmises dans une procédure d’assistance…
  • Comment est votre blanquette ?
  • Le secret contestable des amendes fiscales liées à l’activité politique de Pierre Maudet
Derniers articles
  • Contenu de l’information sur le licenciement d’un employé à l’interne
  • L’administration publique responsable dans l’utilisation de services en nuage
  • Une DPO peut-elle être licenciée pour une raison autre que celle liée à ses qualités professionnelles ?
  • La mise en place de mesures de sécurité techniques et organisationnelles : not just a checklist !
Abonnement à notre newsletter
swissprivacy.law