Simple algorithme d’aide à la décision ou décision automatisée ? Une délimitation subtile

Tribunal administratif fédéral autrichien, arrêt W256 2235360–1/36E du 1er septembre 2025
En fait
L’Agence publique pour l’emploi autrichienne (Arbeitmarktservice, ci-après : l’« Agence ») a conçu un modèle statistique, nommé AMAS (acronyme de « Arbeitsmarktchancen Assistenz-System »), destiné à évaluer les chances de réinsertion professionnelle des demandeurs d’emploi. Avant le premier entretien avec un conseiller, l’outil attribue à chaque demandeur d’emploi un score sur la base de données telles que leur âge, leur formation, leur situation familiale ou leur historique d’emploi. Sur cette base, les demandeurs sont répartis en trois catégories (personnes ayant de fortes, moyennes ou faibles chances de réintégrer le marché du travail), lesquelles servent de point de départ pour définir l’ampleur des mesures d’accompagnement dont ils bénéficieront.
En 2020, l’Autorité autrichienne de protection des données interdit l’utilisation du modèle, au motif que le score constitue une décision individuelle automatisée au sens de l’art. 22 RGPD. Selon elle, même si l’outil se présente comme un soutien à la décision, son influence réelle sur l’évaluation des conseillers est telle qu’il détermine en réalité le niveau d’accompagnement des demandeurs d’emploi.
Après une première décision annulée pour des raisons procédurales, l’affaire est renvoyée devant le Tribunal administratif fédéral autrichien (TAF/AT). Celui-ci doit déterminer si l’AMAS rend effectivement une décision fondée exclusivement sur un traitement automatisé, ou s’il demeure un simple outil d’aide à l’évaluation.
AMAS et décision individuelle automatisée
Le TAF/AT relève d’abord que l’Agence dispose d’une base légale claire pour collecter et traiter les données nécessaires à l’accomplissement de sa mission. Le litige ne porte donc pas sur la licéité du traitement, mais sur la qualification du mécanisme d’évaluation au regard de l’art. 22 RGPD.
Cette disposition reconnaît aux personnes concernées le droit de ne pas faire l’objet d’une décision reposant uniquement sur un traitement automatisé, lorsqu’une telle décision produit des effets juridiques ou l’affecte de manière significative (cf. swissprivacy.law/379/). Son application suppose la réunion de trois conditions : (1) l’existence d’une décision, (2) l’absence d’intervention humaine dans son adoption (y compris en cas de profilage), et (3) l’existence d’un effet juridique ou d’un effet significatif comparable (cf. swissprivacy.law/286/).
Dans le cas présent, les première et troisième conditions ne sont pas litigieuses. Le TAF/AT concentre donc son analyse sur la seule condition qui l’est : l’existence ou l’absence d’intervention humaine dans le processus décisionnel. Cela implique de déterminer si la décision finale repose exclusivement sur le traitement algorithmique, ou si le score constitue simplement un élément d’appréciation parmi d’autres dans le processus décisionnel.
Intervention du conseiller dans le processus décisionnel
Le TAF/AT examine alors la manière dont les conseillers utilisent concrètement l’AMAS.
Selon les directives internes de l’Agence, le score produit par l’AMAS ne doit pas être suivi aveuglement, mais doit être discuté avec le demandeur et replacé dans le contexte de sa situation personnelle. Ainsi, le conseiller doit s’en écarter lorsqu’il apparaît incorrect, inadapté ou incomplet. L’arrêt précise également que ces directives imposent aux conseillers de confronter le résultat algorithmique à l’auto-évaluation du demandeur, d’en débattre avec lui et de consigner cette discussion, ainsi que tout désaccord éventuel, dans la convention d’accompagnement. Les conseilleurs ont d’ailleurs été formés à une utilisation de l’AMAS conforme à ces lignes directrices.
En outre, le TAF/AT relève que de nombreux éléments essentiels, tels que la motivation du demandeur d’emploi, son état de santé, les contraintes et difficultés sociales, sa situation financière et son évaluation qualitative des compétences, échappent au modèle statistique et ne peuvent être évalués qu’au cours de l’entretien.
Enfin, l’analyse des dossiers démontre que ces éléments, recueillis lors de l’entretien avec le demandeur d’emploi, sont régulièrement pris en compte, que les conseillers ne suivent pas le score de manière mécanique et que le classement final doit être motivé. Puisque le conseiller conserve un véritable pouvoir d’appréciation, le TAF/AT en déduit que l’entretien n’est pas une simple formalité.
Dans ces circonstances, les mesures d’accompagnement dont bénéficieront les demandeurs d’emploi ne sont pas déterminées de façon exclusivement automatisée. Au contraire, le score ne fait qu’orienter l’évaluation, sans s’y substituer. Ainsi, l’AMAS reste un outil d’aide à la décision et ne rend pas de décision individuelle automatisée au sens de l’art. 22 RGPD. Le TAF/AT conclut donc que l’Agence n’enfreint pas l’art. 22 RGPD.
Le TAF/AT relève toutefois qu’une requalification en tant que décision individuelle automatisée pourrait avoir lieu si, dans la pratique, les conseillers se contentaient de valider systématiquement le résultat du modèle, ce qui ferait basculer l’outil dans le champ de l’art. 22 RGPD.
Enseignements de l’arrêt
La solution retenue s’inscrit dans la continuité des affaires SCHUFA, dans lesquelles la CJUE a jugé que l’attribution d’un score de solvabilité peut déjà constituer une décision individuelle automatisée lorsqu’il décide de manière déterminante de l’accès à une prestation (cf. swissprivacy.law/274).
Toutefois, compte tenu du rôle attribué effectivement au score dans la procédure concrète, l’affaire en cause diffère de l’affaire SCHUFA. Ainsi, l’arrêt rappelle que l’art. 22 RGPD ne s’applique pas du seul fait qu’un algorithme intervient dans la procédure, mais lorsque la décision dépend réellement de lui. Tant que le score reste un élément parmi d’autres, et que le conseiller tient effectivement compte de la situation personnelle du demandeur, la décision demeure humaine. À l’inverse, si le score est suivi presque automatiquement, la décision devient en pratique automatisée, même si un être humain apparaît dans le processus décisionnel.
Au vu des faits établis par le TAF/AT, la conformité de l’AMAS au cadre légal repose sur la capacité du conseiller à exercer un jugement propre et à documenter ce qu’il retient du cas concret. Mais cette marge reste fragile. En effet, l’usage croissant de modèles prédictifs augmente le risque que l’on s’appuie trop largement sur l’algorithme, au point de vider l’intervention humaine de sa substance.
En Suisse, la situation juridique est comparable. Le Conseil fédéral a d’ailleurs expliqué que les règles suisses sur les décisions automatisées (art. 21 LPD) ont été élaborées en tenant compte des instruments européens, notamment de la Convention 108+ et du RGPD (Message LPD, p. 6593, 6620 et 6673 s.). Les développements européens sont donc pertinents pour comprendre l’approche suisse. Dans les deux ordres juridiques, l’enjeu central réside dans le rôle effectif joué par l’algorithme : une décision devient automatisée lorsque l’issue dépend uniquement du score calculé, et non lorsque le jugement humain reste déterminant.
Proposition de citation : Selma Bentaleb, Simple algorithme d’aide à la décision ou décision automatisée ? Une délimitation subtile, 4 décembre 2025 in www.swissprivacy.law/384
Les articles de swissprivacy.law sont publiés sous licence creative commons CC BY 4.0.
