swissprivacy.law
  • Décision
  • Jurisprudence
  • Doctrine
  • Réglementation
  • À propos
  • Generic selectors
    Expression exacte 
    Rechercher dans le titre 
    Rechercher dans le contenu 
    Post Type Selectors
swissprivacy.law
  • Décision
  • Jurisprudence
  • Doctrine
  • Réglementation
  • À propos
  • Generic selectors
    Expression exacte 
    Rechercher dans le titre 
    Rechercher dans le contenu 
    Post Type Selectors
S'abonner
-->

Simple algorithme d’aide à la décision ou décision automatisée ? Une délimitation subtile

Selma Bentaleb, le 4 décembre 2025
Le Tribunal admi­nis­tra­tif fédé­ral autri­chien confirme que le modèle prédic­tif AMAS, utilisé par l’Agence publique pour l’emploi pour clas­ser les deman­deurs d’emploi selon leurs chances de réin­ser­tion, ne rend pas de déci­sion indi­vi­duelle auto­ma­ti­sée au sens de l’art. 22 RGPD. Le score oriente l’évaluation, mais ne remplace pas l’appréciation du conseiller, qui reste déterminante. 

Tribunal admi­nis­tra­tif fédé­ral autri­chien, arrêt W256 2235360–1/36E du 1er septembre 2025

En fait

L’Agence publique pour l’emploi autri­chienne (Arbeitmarktservice, ci-après : l’« Agence ») a conçu un modèle statis­tique, nommé AMAS (acro­nyme de « Arbeitsmarktchancen Assistenz-System »), destiné à évaluer les chances de réin­ser­tion profes­sion­nelle des deman­deurs d’emploi. Avant le premier entre­tien avec un conseiller, l’outil attri­bue à chaque deman­deur d’emploi un score sur la base de données telles que leur âge, leur forma­tion, leur situa­tion fami­liale ou leur histo­rique d’emploi. Sur cette base, les deman­deurs sont répar­tis en trois caté­go­ries (personnes ayant de fortes, moyennes ou faibles chances de réin­té­grer le marché du travail), lesquelles servent de point de départ pour défi­nir l’ampleur des mesures d’accompagnement dont ils bénéficieront.

En 2020, l’Autorité autri­chienne de protec­tion des données inter­dit l’utilisation du modèle, au motif que le score consti­tue une déci­sion indi­vi­duelle auto­ma­ti­sée au sens de l’art. 22 RGPD. Selon elle, même si l’outil se présente comme un soutien à la déci­sion, son influence réelle sur l’évaluation des conseillers est telle qu’il déter­mine en réalité le niveau d’accompagnement des deman­deurs d’emploi.

Après une première déci­sion annu­lée pour des raisons procé­du­rales, l’affaire est renvoyée devant le Tribunal admi­nis­tra­tif fédé­ral autri­chien (TAF/​AT). Celui-ci doit déter­mi­ner si l’AMAS rend effec­ti­ve­ment une déci­sion fondée exclu­si­ve­ment sur un trai­te­ment auto­ma­tisé, ou s’il demeure un simple outil d’aide à l’évaluation.

AMAS et déci­sion indi­vi­duelle automatisée

Le TAF/​AT relève d’abord que l’Agence dispose d’une base légale claire pour collec­ter et trai­ter les données néces­saires à l’accomplissement de sa mission. Le litige ne porte donc pas sur la licéité du trai­te­ment, mais sur la quali­fi­ca­tion du méca­nisme d’évaluation au regard de l’art. 22 RGPD.

Cette dispo­si­tion recon­naît aux personnes concer­nées le droit de ne pas faire l’objet d’une déci­sion repo­sant unique­ment sur un trai­te­ment auto­ma­tisé, lorsqu’une telle déci­sion produit des effets juri­diques ou l’affecte de manière signi­fi­ca­tive (cf. swiss​pri​vacy​.law/​3​79/). Son appli­ca­tion suppose la réunion de trois condi­tions : (1) l’existence d’une déci­sion, (2) l’absence d’intervention humaine dans son adop­tion (y compris en cas de profi­lage), et (3) l’existence d’un effet juri­dique ou d’un effet signi­fi­ca­tif compa­rable (cf.  swiss​pri​vacy​.law/​2​86/).

Dans le cas présent, les première et troi­sième condi­tions ne sont pas liti­gieuses. Le TAF/​AT concentre donc son analyse sur la seule condi­tion qui l’est : l’existence ou l’absence d’intervention humaine dans le proces­sus déci­sion­nel. Cela implique de déter­mi­ner si la déci­sion finale repose exclu­si­ve­ment sur le trai­te­ment algo­rith­mique, ou si le score consti­tue simple­ment un élément d’appréciation parmi d’autres dans le proces­sus décisionnel.

Intervention du conseiller dans le proces­sus décisionnel

Le TAF/​AT examine alors la manière dont les conseillers utilisent concrè­te­ment l’AMAS.

Selon les direc­tives internes de l’Agence, le score produit par l’AMAS ne doit pas être suivi aveu­gle­ment, mais doit être discuté avec le deman­deur et replacé dans le contexte de sa situa­tion person­nelle. Ainsi, le conseiller doit s’en écar­ter lorsqu’il appa­raît incor­rect, inadapté ou incom­plet. L’arrêt précise égale­ment que ces direc­tives imposent aux conseillers de confron­ter le résul­tat algo­rith­mique à l’auto-évaluation du deman­deur, d’en débattre avec lui et de consi­gner cette discus­sion, ainsi que tout désac­cord éven­tuel, dans la conven­tion d’accompagnement. Les conseilleurs ont d’ailleurs été formés à une utili­sa­tion de l’AMAS conforme à ces lignes directrices.

En outre, le TAF/​AT relève que de nombreux éléments essen­tiels, tels que la moti­va­tion du deman­deur d’emploi, son état de santé, les contraintes et diffi­cul­tés sociales, sa situa­tion finan­cière et son évalua­tion quali­ta­tive des compé­tences, échappent au modèle statis­tique et ne peuvent être évalués qu’au cours de l’entretien.

Enfin, l’analyse des dossiers démontre que ces éléments, recueillis lors de l’entretien avec le deman­deur d’emploi, sont régu­liè­re­ment pris en compte, que les conseillers ne suivent pas le score de manière méca­nique et que le clas­se­ment final doit être motivé. Puisque le conseiller conserve un véri­table pouvoir d’appréciation, le TAF/​AT en déduit que l’entretien n’est pas une simple formalité.

Dans ces circons­tances, les mesures d’accompagnement dont béné­fi­cie­ront les deman­deurs d’emploi ne sont pas déter­mi­nées de façon exclu­si­ve­ment auto­ma­ti­sée. Au contraire, le score ne fait qu’orienter l’évaluation, sans s’y substi­tuer. Ainsi, l’AMAS reste un outil d’aide à la déci­sion et ne rend pas de déci­sion indi­vi­duelle auto­ma­ti­sée au sens de l’art. 22 RGPD. Le TAF/​AT conclut donc que l’Agence n’enfreint pas l’art. 22 RGPD.

Le TAF/​AT relève toute­fois qu’une requa­li­fi­ca­tion en tant que déci­sion indi­vi­duelle auto­ma­ti­sée pour­rait avoir lieu si, dans la pratique, les conseillers se conten­taient de vali­der systé­ma­ti­que­ment le résul­tat du modèle, ce qui ferait bascu­ler l’outil dans le champ de l’art. 22 RGPD.

Enseignements de l’arrêt

La solu­tion rete­nue s’inscrit dans la conti­nuité des affaires SCHUFA, dans lesquelles la CJUE a jugé que l’attribution d’un score de solva­bi­lité peut déjà consti­tuer une déci­sion indi­vi­duelle auto­ma­ti­sée lorsqu’il décide de manière déter­mi­nante de l’accès à une pres­ta­tion (cf.  swiss​pri​vacy​.law/​274).

Toutefois, compte tenu du rôle attri­bué effec­ti­ve­ment au score dans la procé­dure concrète, l’affaire en cause diffère de l’affaire SCHUFA. Ainsi, l’arrêt rappelle que l’art. 22 RGPD ne s’applique pas du seul fait qu’un algo­rithme inter­vient dans la procé­dure, mais lorsque la déci­sion dépend réel­le­ment de lui. Tant que le score reste un élément parmi d’autres, et que le conseiller tient effec­ti­ve­ment compte de la situa­tion person­nelle du deman­deur, la déci­sion demeure humaine. À l’inverse, si le score est suivi presque auto­ma­ti­que­ment, la déci­sion devient en pratique auto­ma­ti­sée, même si un être humain appa­raît dans le proces­sus décisionnel.

Au vu des faits établis par le TAF/​AT, la confor­mité de l’AMAS au cadre légal repose sur la capa­cité du conseiller à exer­cer un juge­ment propre et à docu­men­ter ce qu’il retient du cas concret. Mais cette marge reste fragile. En effet, l’usage crois­sant de modèles prédic­tifs augmente le risque que l’on s’appuie trop large­ment sur l’algorithme, au point de vider l’intervention humaine de sa substance.

En Suisse, la situa­tion juri­dique est compa­rable. Le Conseil fédé­ral a d’ailleurs expli­qué que les règles suisses sur les déci­sions auto­ma­ti­sées (art. 21 LPD) ont été élabo­rées en tenant compte des instru­ments euro­péens, notam­ment de la Convention 108+ et du RGPD (Message LPD, p. 6593, 6620 et 6673 s.). Les déve­lop­pe­ments euro­péens sont donc perti­nents pour comprendre l’approche suisse. Dans les deux ordres juri­diques, l’enjeu central réside dans le rôle effec­tif joué par l’algorithme : une déci­sion devient auto­ma­ti­sée lorsque l’issue dépend unique­ment du score calculé, et non lorsque le juge­ment humain reste déterminant.



Proposition de citation : Selma Bentaleb, Simple algorithme d’aide à la décision ou décision automatisée ? Une délimitation subtile, 4 décembre 2025 in www.swissprivacy.law/384


Les articles de swissprivacy.law sont publiés sous licence creative commons CC BY 4.0.
Sur ce thème
  • La caméra de surveillance a-t-elle pris une décision individuelle automatisée ?
  • Relations contractuelles et notion de responsabilité du traitement
  • La Convention 108+, une réponse adéquate à l’ère du numérique !
  • La CJUE serre la vis au traitement des données par les sociétés de fourniture de renseignements commerciaux 
Derniers articles
  • Simple algorithme d’aide à la décision ou décision automatisée ? Une délimitation subtile
  • Autodétermination informationnelle d’une société dans une procédure d’assistance administrative en matière fiscale ? Oui, mais non
  • Saisie de courriels sans autorisation préalable en procédure administrative
  • L’intérêt prépondérant à la remise à un employé d’un rapport le concernant
Abonnement à notre newsletter
swissprivacy.law