Prise de position sur l’avant-projet de Loi fédérale sur les plateformes de communication et les moteurs de recherche

Quentin Jacquemin, Pauline Meyer, Charlotte Beck et Lucile Pasche ont contribué à la prise de position sur le projet soumis à consultation au nom de swissprivacy.law, disponible ici.
I. Introduction
A. Du cadre légal actuel à l’AP-LPCom
À l’heure actuelle, il n’existe en Suisse aucune réglementation légale spécifique ni de pratique juridique détaillée concernant la responsabilité des intermédiaires – ou fournisseurs de services, en particulier des grandes plateformes en ligne de réseaux sociaux comme Instagram, X, LinkedIn, TikTok ou YouTube – pour des contenus illicites diffusés sur leurs plateformes par des tiers, et il n’existe pas non plus de réglementation qui renforce les droits des utilisateurs vis-à-vis des intermédiaires ou qui oblige ces derniers à plus de transparence (Office fédéral de la communication [OFCOM], Rapport intermédiaires, 2021, p. 49). Jusqu’ici, le Conseil fédéral (CF) avait renoncé à de multiples reprises d’édicter des dispositions spécifiques pour encadrer davantage la responsabilité des intermédiaires, et plus largement la modération de contenus en ligne.
Dans un rapport intermédiaire de 2021, l’OFCOM est arrivé à la conclusion que les principes généraux du droit civil et pénal étaient suffisants pour encadrer la responsabilité des intermédiaires en ligne, mais que les droits des utilisateurs suisses devaient en revanche être mieux protégés face à ces derniers. En conclusion de ce rapport, l’OFCOM appelle ainsi à « une large discussion sur la question de l’intégration sociale et de la gouvernance des intermédiaires en Suisse » sans pour autant recommander l’adoption d’une nouvelle loi.
C’est donc à notre avis l’entrée en vigueur anticipée du Règlement sur les services numériques (DSA) le 16 novembre 2022 dans l’Union européenne (UE) – intégralement applicable depuis le 17 février 2024 – qui a véritablement permis de relancer l’intérêt d’adopter une législation spécifique en Suisse. Pour beaucoup, le DSA constitue un règlement d’importance systémique qui redéfinit les règles du jeu, notamment en matière de modération de contenus, à l’image de ce qu’a provoqué le RGPD.
C’est dans ce contexte que le CF a annoncé le 5 avril 2023 « aspirer à une réglementation » pour obtenir davantage de droits face aux grandes plateformes de communication, comme Google, Facebook, YouTube et X. Pour ce faire, il a chargé le Département fédéral de l’environnement, des transports, de l’énergie et de la communication (DETEC) d’élaborer un projet de consultation d’ici à fin mars 2024, avec pour mission de se fonder spécifiquement « lorsque cela est pertinent » sur les règles du DSA.
La publication du projet initialement prévue pour mars 2024 a toutefois été reportée à deux reprises, d’abord en 2024, puis en avril 2025 pour une durée indéterminée en raison de tensions liées aux droits de douane américains. À la surprise générale, le CF a néanmoins dévoilé dans son communiqué de presse du 29 octobre 2025 un avant-projet de « loi fédérale sur les plateformes de communication et les moteurs de recherche » (AP-LPCom) accompagné d’un rapport explicatif, tout en invitant les parties intéressées à prendre part à la consultation publique du projet auprès de l’OFCOM.
La consultation publique s’est récemment achevée le 16 février 2026. Aux côtés d’autres acteurs de la société civile suisse comme AlgorithmWatch CH, Digital Law Center, ARTISET et YOUVITA, HotellerieSuisse, Syndicat suisse des mass media, economiesuisse, humanrights.ch, Protection de l’enfance Suisse, GREA, Fédération suisse des psychologues, swissprivacy.law a également pris part à cette consultation publique et présente ici sa prise de position. À l’instar de la majorité de ces acteurs, swissprivacy.law s’est prononcé en faveur du projet de loi, moyennant toutefois un nombre substantiel d’adaptations.
B. Présentation de l’AP-LPCom
L’AP-LPCom a pour but de renforcer les droits des utilisateurs des plateformes de communication et des moteurs de recherche et d’améliorer la transparence en ce qui concerne leur fonctionnement et leurs risques (art. 1 AP-LPCom).
Pour ce faire, l’AP-LPCom entend imposer un certain nombre d’obligations de diligence aux « fournisseurs de plateformes de communication et de moteurs de recherche » (art. 2 AP-LPCom).
En particulier, ces fournisseurs de services devraient mettre en place une procédure permettant aux utilisateurs de notifier certains contenus illicites auxquels ils ont accès depuis la Suisse (art. 4 AP-LPCom), tout en ayant l’obligation de traiter ces signalements (art. 5 AP-LPCom) avec diligence (art. 14 AP-LPCom) et de communiquer aux utilisateurs concernés, les éventuelles mesures de restrictions qui auraient été prises par la plateforme à la suite de ces signalements (art. 6 AP-LPCom).
De plus, les utilisateurs doivent avoir la possibilité de régler tout litige relatif à ces contenus illicites signalés par le biais d’une procédure de réclamation gratuite et interne au service de plateforme de communication (art. 7 AP-LPCom) ou alors en s’adressant à un organe de règlement extrajudiciaire des litiges certifié de leur choix (art. 8 ss AP-LPCom).
Le CF entend également renforcer la transparence de ces services, que ce soit au niveau des conditions générales d’utilisation de ceux-ci (art. 13 AP-LPCom), en matière de publicité (art. 15 ss AP-LPCom), s’agissant de leurs systèmes de recommandation (art. 18 AP-LPCom), ou encore afin de faciliter l’accès aux données pour les organes de recherche et les organisations de la société civile (art. 26 AP-LPCom).
Plus généralement, ces fournisseurs de services auront l’obligation de rendre chaque année à l’OFCOM un rapport de transparence (art. 19 AP-LPCom), un rapport sur l’évaluation des risques (art. 20 AP-LPCom) et un rapport d’audit émanant d’une organisation indépendante (art. 24 ss AP-LPCom).
Les fournisseurs de plateformes de communication ou de moteurs de recherche devront enfin désigner un point de contact par lequel ils peuvent communiquer rapidement et par voie électronique avec l’OFCOM et les utilisateurs (art. 21 ss AP-LPCom) ainsi qu’un représentant légal pour agir en leur nom s’ils n’ont pas d’établissement en Suisse (art. 23 ss AP-LPCom).
De manière générale, l’OFCOM est désigné comme autorité de surveillance pour veiller à la mise en œuvre effective de cette loi (art. 27 ss AP-LPCom). L’OFCOM peut notamment ordonner des mesures administratives (art. 32 AP-LPCom) et prononcer les sanctions administratives qui s’imposent. Ces dernières ne sont d’ailleurs pas à prendre à la légère, puisqu’en cas de violation de l’une des obligations de diligence susmentionnées, ces fournisseurs de services s’exposent à une sanction administrative pouvant aller jusqu’à 6% du chiffre d’affaires mondial moyen réalisé sur les trois derniers exercices (art. 34 AP-LPCom).
C. Constat intermédiaire
Il ressort de ce bref survol que l’AP-LPCom a incontestablement été élaboré en prenant le DSA comme modèle « lorsque cela s’avère nécessaire ». Cette dernière précision est importante, car il ressort du contenu de l’AP-LPCom deux choses : premièrement, l’avant-projet ne se fonde que sur le DSA et non sur d’autres législations de l’Union qui contiennent aussi certaines règles applicables aux intermédiaires en matière de modération de contenus. Secondement, l’AP-LPCom n’innove pas : il se contente pour l’essentiel de reprendre certaines dispositions du DSA, sans véritablement créer de nouvelles obligations.
L’AP-LPCom ne copie toutefois pas exactement le DSA. De manière assez surprenante, le législateur suisse a d’une part choisi de ne pas reprendre un grand nombre de dispositions du DSA dans l’AP-LPCom sans pour autant le justifier. D’autre part, il a également restreint la portée des dispositions qu’il a reprises du DSA, à commencer par le champ d’application même de l’AP-LPCom.
II. Commentaires de l’AP-LPCom
A. Objet et buts poursuivis par la loi
L’objet de la loi ou son but tel qu’énoncé à l’art. 1 AP-LPCom est à notre avis bien trop restrictif. Tacitement, l’AP-LPCom poursuit en effet le même objectif que le DSA, à savoir « garantir un environnement en ligne sûr, fiable et digne de confiance », soit en particulier en endiguant la diffusion publique de contenus illicites. Cela ressort en outre explicitement du rapport à l’appui de l’avant-projet, mais étonnamment pas du projet de loi en lui-même, ce qui est regrettable à bien des égards (OFCOM, Rapport explicatif AP-LPCom, p. 6).
À la place, l’art. 1 AP-LPCom dispose que « la présente loi vise à renforcer les droits des utilisateurs et utilisatrices des plateformes de communication et des moteurs de recherche et à améliorer la transparence en ce qui concerne leur fonctionnement et leurs risques », ce qui est déjà en soi plus retreint comme objectif. De plus, il ressort indirectement du rapport que l’AP-LPCom vise surtout à protéger la liberté d’opinion et d’information des utilisateurs plus que de n’importe quel autre droit fondamental (cf. notamment : OFCOM, Rapport explicatif AP-LPCom, p. 10 ss). C’est d’ailleurs pour cette raison que l’art. 4 AP-LPCom n’entend imposer un mécanisme de notification et d’action que pour les contenus qui entraveraient les débats publics (calomnie, injure ou discrimination) et non pas pour d’autres contenus illicites en ligne (p. ex. terroristes ou pédopornographiques).
Le rapport ne précise cependant pas pourquoi seule la liberté d’opinion et d’information des utilisateurs devrait être davantage protégée, alors que d’autres contenus illicites peuvent s’avérer tout autant, si ce n’est plus, dommageables ou préjudiciables pour les utilisateurs suisses. En outre, les utilisateurs ne sont pas les seuls acteurs et garants du discours public en ligne. Les signaleurs de confiance jouent par exemple un rôle fondamental en matière de modération de contenus. On comprend donc difficilement pourquoi ces acteurs de la société civile, qui ne sont pas nécessairement des utilisateurs, ne pourraient pas voir également leurs droits renforcés par l’AP-LPCom, alors qu’ils sont pris en compte dans le DSA.
Il va enfin de même pour les principaux intéressés de la modération de contenus que sont les intermédiaires de l’information. Eux aussi disposent d’un intérêt à voir leurs droits et leurs obligations clairement déterminés par la loi, alors qu’actuellement leur situation juridique demeure empreinte d’incertitudes en Suisse. Des garanties telles que celles instaurées aux art. 4 à 10 DSA permettraient d’encadrer davantage d’une part les mesures qu’ils peuvent mettre en place pour lutter contre les contenus illicites et préjudiciables sans risquer d’engendrer leur responsabilité, et d’autre part les injonctions que peuvent leur adresser des tribunaux suisses à l’encontre de certains contenus.
Pour toutes ces raisons, l’objectif de l’AP-LPCom mériterait d’être reformulé plus largement afin de « garantir un environnement en ligne sûr, fiable et digne de confiance », permettant de la sorte une meilleure adaptabilité de la loi.
B. Champ d’application
Le champ d’application personnel de l’AP-LPCom est également critiquable. En l’état, l’avant-projet n’entend imposer des obligations qu’aux « fournisseurs de plateformes de communication et de moteurs de recherche » qui sont utilisés par au moins 10 % de la population suisse (art. 2 AP-LPCom). D’après le rapport, cette loi viserait principalement les grands services de réseaux sociaux (p. ex. Facebook), de micro-blogging (p. ex. X) ou de plateformes multimédias (p. ex. YouTube). En revanche, les places de marché en ligne (p. ex. Galaxus, Zalando, Amazon) ou les plateformes de réservation (p. ex. Booking) dont le but principal est la vente de marchandises et de services ne constitueraient pas des plateformes de communication (OFCOM, Rapport explicatif AP-LPCom, p. 14).
Par rapport au DSA et à titre de comparaison, le champ d’application personnel de l’AP-LPCom s’avère en réalité nettement plus restreint, dans la mesure où le DSA contient des règles générales qui s’appliquent à l’ensemble des services numériques, ce qui inclut par exemple aussi les services d’accès à Internet, de mise en cache, d’hébergement technique, de plateformes numériques, et de places de marché en ligne. En plus de ces règles générales, le DSA impose des obligations supplémentaires pour tenir compte du risque et de la taille de certains services. Il en va ainsi des « très grandes plateformes en ligne » (VLOPs) et des « très grands moteurs de recherche » (VLOSEs) qui sont utilisés par 10% de la population européenne et qui sont par conséquent soumis aux règles les plus contraignantes.
À cet égard, la métrique de calcul (10% de la population suisse) choisie pour l’AP-LPCom manque à notre sens de clarté. Du point de vue de la prévisibilité du droit, cette métrique ne permet pas clairement de savoir si seules des plateformes étrangères sont concernées ou aussi certaines plateformes suisses. À notre avis, seules les très grandes plateformes étrangères sont en réalité visées par ce projet de loi considérant les services listés dans le rapport de l’OFCOM à l’appui de cet avant-projet. Paradoxalement, les droits des utilisateurs suisses ne se voient donc renforcés qu’à l’égard de certaines entités étrangères et non pas vis-à-vis aussi de services numériques suisses.
Partant, si contrairement à ce qui est soutenu ici, le CF souhaite uniquement appliquer l’AP-LPCom aux très grandes plateformes étrangères, il s’agirait alors de définir ces « plateformes de communication » comme étant celles qualifiées de VLOPS/VLOSES par la Commission européenne, ou alors de les lister nommément plutôt que d’instaurer une métrique de calcul (10% de la population suisse) susceptible de manquer de clarté en pratique.
La population suisse se retrouve ainsi nettement plus démunie que les citoyens européens qui voient leurs droits renforcés contre tous les services intermédiaires de la société de l’information. C’est pourquoi le projet devrait aussi s’étendre aux autres fournisseurs de services, en particulier d’hébergement technique (p. ex. Infomaniak), qui visent la Suisse ou qui y sont sis.
Pour tenir compte des spécificités et des risques inhérents aux différents types de services numériques, l’AP-LPCom devrait introduire des obligations différenciées et progressives en fonction de leurs capacités financières, à l’instar du DSA. Enfin, il s’agirait également de prendre en considération l’opportunité d’inclure dans l’AP-LPCom les services d’intelligence artificielle, compte tenu du rôle de plus en plus important que ces services jouent actuellement dans les communications en ligne.
C. Obligations de diligence
L’AP-LPCom n’introduit en définitive aucune obligation fondamentalement nouvelle par rapport au DSA, se contentant ponctuellement d’adapter certaines dispositions aux besoins de la Suisse. Pour le reste, le législateur suisse a plutôt volontairement renoncé à bon nombre de dispositions du DSA, sans forcément que l’on sache pourquoi. On peut particulièrement regretter l’absence de règles qui :
- définissent le comportement diligent attendu des fournisseurs de services eu égard des contenus illicites (art. 4 à 7 DSA) ;
- encadrent les injonctions des autorités nationales adressées aux fournisseurs de services pour des contenus illicites (des art. 8 à 10 DSA) ;
- imposent aux fournisseurs d’hébergement de notifier aux autorités pénales certaines infractions graves (art. 18 DSA);
- renforcent le rôle des signaleurs de confiance (art. 22 DSA) ;
- imposent de prendre davantage de mesures pour lutter contre les utilisateurs qui fournissent fréquemment des contenus manifestement illicites (art. 23 DSA) ;
- visent davantage à protéger les mineurs en ligne (art. 28 DSA).
S’agissant des très grandes plateformes, on peut encore ajouter qu’il nous apparaît regrettable que l’art. 20 AP-LPCom impose uniquement d’évaluer les risques, mais pas d’atténuer ces derniers à l’instar de l’art. 35 DSA. Or, toutes les dispositions du DSA que nous venons de mentionner contribuent aussi à renforcer les droits des utilisateurs et à créer un environnement en ligne plus sûr et plus fiable, si bien qu’à défaut d’explications à ce sujet, nous peinons à comprendre pourquoi le législateur suisse a consciemment choisi de ne pas reprendre ces dispositions dans l’AP-LPCom.
De plus, le législateur suisse a parfois repris certaines obligations du DSA, mais en restreignant toutefois drastiquement leur portée. C’est en particulier le cas d’une des obligations les plus importantes de l’AP-LPCom et du DSA : celle d’instaurer un mécanisme de notification et d’action (art. 4 AP-LPCom). Dans l’UE, tous les fournisseurs d’hébergement (hébergeurs d’infrastructure, places de marché en ligne, plateformes en ligne, et les moteurs de recherche), nonobstant leur taille, doivent mettre en place pour leurs utilisateurs de tels mécanismes.
Or en Suisse, il découle du champ d’application personnel restreint de l’art. 2 AP-LPCom que seules les très grandes plateformes de communication et les très grands moteurs de recherche (soit uniquement une sous-catégorie limitée des services d’hébergement) doivent mettre en place ce genre de mécanisme. De plus, selon la réglementation proposée, ces fournisseurs de services ne devraient mettre en place ces mécanismes que pour notifier certains types de contenus illicites listés à l’art. 4 al. 1 AP-LPCom. Si le texte légal laisse à penser qu’il s’agit d’une liste exemplative (« au moins »), le rapport dispose au contraire qu’il s’agit d’une liste complète et exhaustive d’infractions (OFCOM, Rapport explicatif AP-LPCom, p. 15).
Les utilisateurs suisses se voient ainsi à nouveau grandement désavantagés par rapport aux utilisateurs de l’UE qui ont accès à un mécanisme leur permettant de notifier n’importe quel contenu illicite. Pour le législateur suisse, cette restriction (essentiellement à des infractions relatives aux discours de haine) correspond à l’objectif du projet de loi qui vise surtout à renforcer la liberté d’expression des utilisateurs (OFCOM, Rapport explicatif AP-LPCom, p. 15).
Cette explication ne convainc toutefois pas. Tout d’abord, l’art. 1 AP-LPCom dans sa formulation actuelle, ne se limite pas à protéger le droit à la liberté d’expression des utilisateurs, mais tous leurs droits. Pour les raisons déjà développées, l’objet actuel de l’AP-LPCom ne devrait pas se limiter au renforcement des droits des utilisateurs, mais devrait plus largement viser à créer un environnement numérique sûr et fiable.
De plus, la mise en place d’un mécanisme de signalement uniquement pour certains contenus pourrait d’ailleurs s’avérer inutilement plus difficile à mettre en œuvre en pratique qu’un mécanisme permettant plus généralement de notifier tout contenu illicite. Si l’on ajoute à cela que les principaux destinataires de cette loi sont soumis au DSA et doivent déjà mettre en place un mécanisme de notification plus général, il s’agit à notre sens d’une spécificité suisse qui n’a en définitive pas lieu d’être.
D. Mécanismes de surveillance et de mise en œuvre de la loi
Conformément à l’art. 27 AP-LPCom, c’est l’OFCOM qui veille au respect de la présente loi et de ses dispositions d’exécution, et qui rend les décisions nécessaires. Trois points nous apparaissent problématiques et résultent à notre sens d’une mécompréhension du système mis en place dans l’UE pour veiller à la bonne exécution et au respect du DSA qu’il convient brièvement d’exposer.
Conformément à l’art. 49 par. 2 DSA, les États membres désignent une des autorités compétentes comme leur coordinateur pour les services numériques (CSN). Le CSN est responsable de toutes les questions en lien avec la surveillance et l’exécution du DSA. Il peut de son propre chef constater une violation du DSA, mais le DSA prévoit également la possibilité pour tout utilisateur de l’UE de pouvoir introduire une plainte devant son CSN national (art. 53 DSA). La particularité du DSA réside dans le fait qu’en principe, le CSN dans lequel se situe l’établissement principal du fournisseur de services intermédiaires dispose de pouvoirs exclusifs pour surveiller et faire respecter le DSA.
Cela signifie que lorsqu’un CSN est informé qu’un fournisseur de services qui a son établissement principal dans un autre État membre ne respecte pas le DSA, il ne peut pas en principe lui-même directement ordonner une mesure ou prononcer une sanction administrative. Le CSN doit dans ce cas transmettre le dossier au CSN du pays d’établissement du fournisseur de services, car lui seul dispose du pouvoir pour lui infliger des sanctions. Lorsqu’un fournisseur de services ne dispose pas d’un établissement dans l’UE, l’État membre dans lequel son représentant légal réside ou est établi ou la Commission, selon le cas, dispose alors de pouvoirs pour surveiller et faire respecter les obligations pertinentes fixées dans le DSA (art. 56 par. 6 DSA).
En comparaison, premièrement, l’AP-LPCom ne prévoit pour l’heure pas de possibilité pour les citoyens suisses d’introduire une plainte devant l’OFCOM contrairement à ce que permet l’art. 53 DSA. Seule l’OFCOM, en tant qu’autorité de surveillance, est donc en mesure de constater une violation et de prononcer une sanction. Pour une loi qui a pour vocation de renforcer les droits des utilisateurs suisses, il s’agit ici d’un affaiblissement significatif de leurs prérogatives par rapport à l’UE. L’AP-LPCom devrait ainsi à tout le moins prévoir une possibilité pour les utilisateurs suisses d’invoquer une violation du DSA.
Deuxièmement, il ressort des art. 32 ss AP-LPCom que lorsque que l’OFCOM constate une violation de l’AP-LPCom, c’est lui qui est directement en mesure d’ordonner une mesure administrative ou de prononcer une sanction à l’encontre du fournisseur de services, même si ce dernier n’a pas son siège en Suisse, ce qui sera principalement le cas comme nous l’avons vu. Or, ce système peut se heurter à celui mis en place par le DSA où seul le CSN du pays dans lequel le fournisseur de services en question a son établissement principal peut prononcer une sanction ou ordonner une mesure. Il appartiendrait à notre sens au législateur de clarifier cet aspect et d’introduire à tout le moins une disposition en matière d’assistance administrative internationale à l’instar de l’art. 55 LPD.
Troisièmement, il résulte du champ d’application personnel de l’AP-LPCom que la Suisse ne dispose paradoxalement pas de véritable équivalent d’un CSN national. En effet, contrairement à l’AP-LPCom, le DSA s’applique à tous les services numériques qui visent le marché de l’UE, y compris si ces entreprises ont leur siège en Suisse. On peut à notre avis penser à Digitec Galaxus (place de marché en ligne au sens du DSA dans la mesure où l’entreprise propose également ses services en Europe) et Infomaniak (hébergement technique). Si l’un de ces services viole le DSA, le système mis en place dans l’UE voudrait alors que ce soit le CSN du pays d’établissement, en l’occurrence l’OFCOM en Suisse, qui soit compétent à titre exclusif pour prendre les mesures et sanctions qui s’imposent à l’encontre de son fournisseur de services, à condition encore que l’OFCOM soit reconnu en tant que CSN par l’UE.
Ce procédé n’est toutefois pas actuellement envisageable car l’OFCOM n’est compétent que pour surveiller et prononcer des sanctions à l’encontre de très grandes plateformes de communication et aux très grands moteurs de recherche en vertu de l’art. 2 AP-LPCom. Or, comme nous l’avons précisé précédemment, cela vise essentiellement des entreprises de services étrangères et non suisses, ce qui signifie que pour les entreprises suisses susmentionnées (Digitec Galaxus et Infomaniak), il appartiendrait non pas à la Suisse, mais au CSN d’un État membre de prononcer une sanction à leur encontre, ce qui nous semble tant paradoxal que regrettable. Cette lacune contribue à justifier une extension du champ d’application personnel de l’AP-LPCom à d’autres services intermédiaires, en particulier pour encadrer également les entreprises de services suisses qui tomberaient en dehors du champ d’application territorial du DSA (comme Anibis, Ricardo), à défaut de viser spécialement le marché de l’UE.
III. Appréciation générale de l’AP-LPCom
A. Un projet qui n’atteint que partiellement ses objectifs
En tant que première tentative du législateur suisse d’encadrer les communications en ligne en responsabilisant davantage les intermédiaires numériques, nous accueillons favorablement l’adoption d’une législation telle que la LPCom. Néanmoins, l’AP-LPCom s’avère en l’état à la fois insatisfaisant et insuffisant. Ce constat ressort également de la grande majorité des prises de position. La Fondation Guido Fluri a d’ailleurs lancé mardi 3 mars 2026 son « Initiative Internet » pour responsabiliser davantage les plateformes numériques en réaction à l’AP-LPCom jugé « insuffisant » et « en aucun cas » satisfaisant.
Il ressort de nos observations que l’AP-LPCom ne renforce en effet les droits des citoyens suisses que de manière très limitée. Le champ d’application matériel et personnel s’avère en outre particulièrement restreint sans pour autant que l’on comprenne véritablement pourquoi. S’agissant du contenu, le législateur suisse se contente également de reprendre qu’une partie des obligations de diligence du DSA qu’il se limite par ailleurs d’imposer aux très grandes plateformes en ligne alors qu’elles s’appliquent pour l’essentiel à tous les services numériques dans l’UE. Toutes ces différences restreignent à notre avis injustement la portée de l’avant-projet. C’est pourquoi, afin que le projet nous apparaisse suffisant, il s’agirait d’adapter a minima l’AP-LPCom dans le sens des principales recommandations de notre prise de position concernant l’objet de la loi, son champ d’application, les obligations imposées et les rôles appréhendés.
B. Un projet qui manque d’ambition
À notre sens, l’AP-LPCom devrait également faire preuve davantage d’ambition, en sortant notamment du moule du DSA. En effet, la Suisse n’est pas liée par le droit de l’UE et jouit dès lors d’une certaine marge de manœuvre pour légiférer. En l’absence de toute autre législation ou disposition spécifique en matière de modération de contenus, le législateur suisse a en quelque sorte « carte blanche » pour renforcer les droits des utilisateurs suisses, responsabiliser les intermédiaires numériques, endiguer la diffusion publique de contenus illicites et plus généralement contribuer à un environnement numérique sûr. Il n’est, en outre, pas limité au DSA pour élaborer l’avant-projet.
Dans l’UE, toute une série d’actes normatifs orbitent en effet autour du DSA pour améliorer ces objectifs de manière plus sectorielle. Le Règlement (UE) 2024/1689 renforce par exemple les droits des utilisateurs de l’UE vis-à-vis des services d’intelligence artificielle, le Règlement (UE) 2021/784 intensifie spécifiquement la lutte contre la diffusion des contenus à caractère terroriste en ligne, et le Règlement (UE) 2024/900 introduit encore par exemple des règles strictes en matière de publicité à caractère politique en ligne afin d’assurer un débat démocratique ouvert et de préserver l’intégrité des élections.
Ce ne sont que quelques exemples parmi tant d’autres qui complètent le DSA et renforcent conséquemment les droits des utilisateurs au sein de l’UE. Or, ces législations ne trouvent pour l’heure aucun équivalent dans l’ordre juridique suisse. Ainsi, si l’objectif poursuivi par l’AP-LPCom est véritablement de renforcer les droits des utilisateurs suisses et d’améliorer la transparence, le législateur suisse devrait à tout le moins également s’inspirer de ces autres instruments normatifs pour élaborer et compléter l’avant-projet.
À notre avis, l’AP-LPCom devrait servir d’opportunité non seulement pour garantir la liberté d’expression et d’information des citoyens suisses, mais aussi pour protéger davantage la population suisse active en ligne des autres dangers importants du numérique, notamment en matière de terrorisme et de pédopornographie. Dans cette dimension de sécurité, il s’agirait en particulier de prendre davantage de mesures vis-à-vis des personnes mineures suisses qui font partie des populations les plus vulnérables en ligne et qui sont aussi les plus exposées à des contenus préjudiciables.
Pour assurer la liberté d’opinion et d’information des citoyens suisses, il s’agirait enfin de tenir compte des risques liés à la désinformation et à la manipulation de l’opinion publique qui peuvent gravement porter atteinte à une démocratie dans son ensemble, comme le rappellent notamment les élections présidentielles américaines de 2016. Avec l’avènement de l’intelligence artificielle, ces risques sont d’autant plus marqués, raison pour laquelle l’AP-LPCom pourrait également constituer un bon point d’ancrage pour adopter certaines mesures en la matière, par exemple en matière de publicité politique (transparence des financements) et de contenus générés par IA (reconnaissabilité).
Toutes ces problématiques font l’objet de règles spécifiques dans l’UE aux côtés du DSA, mais ne trouvent aucun équivalent en Suisse. Les citoyens suisses sont donc pour l’heure nettement moins bien protégés en ligne que nos confrères et consœurs européens, ce qui apparaît difficilement justifié. C’est pourquoi il est à notre avis impératif que le législateur suisse fasse preuve davantage d’ambition, en ce sens que l’AP-LPCom ne se limite pas uniquement au DSA qui lui a servi de modèle, mais qu’il prenne également en compte ces autres problématiques connexes toutes aussi importantes, réglementées sectoriellement par l’UE. L’AP-LPCom serait ainsi pleinement et véritablement en mesure d’atteindre son objectif qui est de renforcer les droits des utilisateurs suisses, ou plus largement, comme nous le soutenons, de « garantir un environnement en ligne sûr, transparent et fiable ».
IV. Conclusion : « un [tout] petit pas vers la régulation du numérique, mais un premier saut pour la Suisse »
En conclusion, l’AP-LPCom ne constitue pour l’heure en aucun cas l’équivalent d’un « DSA suisse ». Par rapport à son modèle européen, l’AP-LPCom est une législation bien moins ambitieuse, dont le champ d’application est particulièrement restreint et le contenu bien plus léger. L’AP-LPCom se contente en effet du strict minimum, alors que la Suisse aurait en réalité l’opportunité d’adopter une législation plus complète permettant non seulement de garantir la liberté d’opinion et d’information des utilisateurs suisses, mais aussi de garantir plus largement un environnement en ligne sûr, transparent et fiable. Plus qu’une possibilité, il s’agirait même à ce stade d’une nécessité si le CF entend réellement protéger davantage sa population en ligne.
Par rapport au cadre actuellement en vigueur dans l’UE, il est en effet sans équivoque que le peuple suisse est en l’état bien plus démuni, respectivement bien moins protégé que les citoyens européens, ce qui n’est guère soutenable. Les risques liés aux contenus illicites et préjudiciables en ligne ne s’arrêtent pas aux frontières de la Suisse et ne relèvent pas non plus de la fiction. En outre, ces dangers ne sont pas limités aux très grandes plateformes de communication telles que définies par l’AP-LPCom, mais concernent l’ensemble de l’écosystème numérique. Tous ces acteurs (utilisateurs, société civile, intermédiaires) ont un rôle à jouer pour contribuer à un environnement en ligne sûr, même si leurs capacités diffèrent.
La Suisse doit donc se doter d’un cadre légal plus général et adéquat en matière de modération de contenus et clarifier les droits et les obligations incombant à l’ensemble des acteurs en ligne. L’AP-LPCom constitue certes un bon premier pas dans cette direction pour la Suisse, mais un bond de géant s’avèrera encore nécessaire pour parvenir à un cadre légal satisfaisant en la matière !
Proposition de citation : Quentin Jacquemin, Prise de position sur l’avant-projet de Loi fédérale sur les plateformes de communication et les moteurs de recherche, 17 avril 2026 in www.swissprivacy.law/406
Les articles de swissprivacy.law sont publiés sous licence creative commons CC BY 4.0.
