L'Europe cesse d'être naïve dans le domaine du numérique, et nous voyons sous l'impulsion du commissaire européen Thierry Breton arriver un certains nombre de textes légaux qui permettent de réglementer le numérique en Europe pour le bénéfice des citoyens européens. Ici, nous nous intéressons au DSA (Digital Service Act) et essayons de mettre en lumière quels sont les éléments clés de ce texte. Bonne lecture!
#DSA #SouverainetéEuropéen #réglementation
Le DSA est une nouvelle réglementation européenne sur le domaine numérique. Pour le commissaire Thierry Breton qui en est l’un des défenseurs et plus globalement pour et la Commission Européenne, l’objectif louable est de protéger les citoyens européens en encadrant les activités des plateformes numériques en luttant contre la haine, la manipulation, la désinformation et les contrefaçons…
Si les obligations prévues par ce texte doivent entrer en application le 17 février 2024, les très grandes plateformes en lignes et les très grands moteurs de recherche sont concernés dès le 25 août 2023.
Avant de revenir sur le contenu de ce texte, il faut noter qu’il provoque des réactions assez vives, notamment sur les réseaux sociaux où nombres de personnes y voient la mise en place d’un outil de censure et de contrôle de l’information. Et cette inquiétude est légitime. Qui en effet, décide qu’une information est légitime et que l’autre est « complotiste », la gestion de la crise sanitaire nous a montré que l’information officielle n’était pas toujours digne de foi ! Par contre, on ne peut que constater que certains comportements haineux et agressifs comme par exemple le harcèlement posent de vraies questions et que la « modération » par les plateformes seules ne fonctionne pas…
Revenons au DSA, quels sont les principaux points à en retenir ? Ce document riche est bâti en plusieurs sections, qui permettent de couvrir les différents aspects de la question (obligation, contrôle, sanction...) en différenciant aussi les très grands acteurs des autres. Les sections sont les suivantes :
- Dispositions générales
- Obligations de diligence pour une environnement en ligne sûr et transparent
- Dispositions applicables à tous les fournisseurs de services intermédiaires
- Dispositions supplémentaires applicables aux fournisseurs de services d’hébergement, y compris plateformes en ligne
- Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne
- Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne permettant aux consommateurs de conclure des contrats à distance avec des professionnels
- Obligations supplémentaires de gestion des risques systémiques imposées aux fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne.
- Autres dispositions concernant les obligations de diligence
- Mise en œuvre, coopération, sanctions et exécution
- Autorités compétentes et coordinateurs nationaux pour les services numériques
- Compétences, enquête coordonnée et mécanismes de contrôle de cohérence
- Comité Européen des services numériques
- Surveillance, enquêtes, exécution et contrôle concernant les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche
- Dispositions communes relatives à l’exécution
- Actes délégués et actes d’exécution
- Dispositions finales
Tout d’abord le texte cherche à donner un certain nombre de définitions (article 3), regrettons toutefois que celle qui définit le « contenu illicite » manque de précision et reste plutôt vague et attrape tout.
Ensuite sont définies les responsabilités des différents acteurs du numérique avec un ajustement de ces dernières en fonction de leur niveau d’implication. En dehors de l’obligation de rapport de transparence (article 24) les articles de la section 3 (Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne) ne s’appliquent pas aux acteurs du numérique qualifiés de micro-entreprise. Il en est de même pour la section 4 (Dispositions supplémentaires applicables aux fournisseurs de plateformes en lignes permettant aux consommateurs de conclure un contrat à distance avec des professionnels)
Sur les premières sections, de mon point de vue, les obligations ne sont pas exorbitantes en effet il est demandé aux acteurs du numériques:
- Des mesures de transparence sur les contenus et produits
- La possibilité de retirer des contenus illicites sur réquisition des autorités judiciaires ou administratives compétentes dans le cadre du dispositif législatif.
- De définir une source unique de contact avec les autorités
- De définir un point de contact unique pour ses clients / fournisseurs pour des réclamations
- De mettre en place des moyens efficaces pour protéger les mineurs et leurs données privées
Nous avons ensuite une section, la section 5 qui s’adresse spécifiquement aux très grandes plateformes numérique et aux moteurs de recherche et impose des obligations supplémentaires sur la gestion des risques systémiques. De mon point de vue, c’est dans cette section que se posent le plus de questions sur la pertinence des actions demandées et surtout sur la possibilité matérielle de les mettre en œuvre. Le bal s’ouvre avec l’article 34 et la nécessité de la mise en place d’une analyse de tout risque systémique dans l’Union et de manière diligente… Analyse qui devra se renouvelle tous les ans.
On parle ici, par exemple de la diffusion des contenus illicites. Pour une plateforme internationale aux millions d’utilisateurs, agissant sur des territoires aux législations différentes, la tâche risque de s’avérer titanesque. En admettant même qu’elles puissent régionaliser facilement la diffusion des contenus sans altérer l’intérêt que leurs utilisateurs auront à les utiliser, qui empêchera un utilisateur de l’UE avec un VPN (Virtual Private Network) d’accéder à un contenu illicite pour l’UE mais licite sur un autre territoire ?
Il est demandé aussi aux grandes plateformes et aux grands moteurs de recherche d’être en mesure de prendre certaines mesures d’urgence spécifiques en cas de crise majeurs dans l’UE (sanitaire, terrorisme, climatique, catastrophe naturelle, …) sous l’impulsion et les recommandations des autorités compétentes de l’UE comme par exemple l’adaptation du processus de modération, l’adaptation des conditions générales, des systèmes algorithmiques , la promotion d’information fiable...
Ensuite nous avons un article (article 35) sur l’atténuation des risques. Dans les moyens à mettre en œuvre suggérés on a une adaptation de la conception, des conditions d’usage, etc. Bien entendu une modification des algorithmes pourrait être nécessaire. Ce dernier point n’est pas forcément une mauvaise idée, cependant les algorithmes utilisés sont-ils maîtrisés et est-on sûr de leur mode de fonctionnement (sont-ils des boîtes noires ou non) ?
On parle aussi de mesures visant à protéger les enfants, ce qui n’est pas fait la plupart du temps à l’exception de certains acteurs atypiques et éthiques comme la plateforme média réseau social Smartrezo.
Dans les autres mesures prises, citons la mise en place d’un audit indépendant sur ces facteurs de risques et les mesures correctives mises en place. Cette mesure qui est logique en soi, se heurtera au principe de réalité. En effet quels seront ces organismes auditeurs, qui leur donneront leur accréditation, qui financera ces audits ? Est-ce la fin du modèle « gratuit », sauf qu’il ne l’est pas, puisque la plupart du temps ces acteurs utilisent et revendent vos données (avec ou sans votre consentement)...
La commission Européenne, ne perd pas le nord, en effet pour les très grands acteurs et moteurs de recherche, elle en profite pour instaurer une redevance de surveillance (afin que la commission ait les moyens de mettre en musique les actions nécessaires induites par le DSA). Une nouvelle ligne de coût en vue pour les acteurs du numérique...
Le DSA prévoit bien entendu des sanctions de diverses natures en cas de non respects des injonctions, comme une restriction temporaire au service pour les utilisateurs, ou des sanctions financières pouvant aller jusqu’à 6 % du CA mondial de l’acteur (cela commence à piquer…)
Après la lecture de ce texte dense, technique et pas toujours suffisamment précis, quelles sont les premières intentions que j’en tire. J’insiste bien, il s’agit d’une impression personnelle, j’invite tout les lecteurs à se plonger dans le texte pour s’en faire sa propre opinion.
Tout d’abord d’un point de vue global, je pense que c’est un texte qui va dans le bon sens. En effet, tout un chacun a pu vérifier que l’auto-modération par les acteurs du numérique eux même, notamment des géants américains ou chinois, sans qu’il y ait le moindre contrôle montre sa limite. S’assurer de l’âge (et donc de l’identité) des utilisateurs même si ceux-ci utilisent un pseudo, n’est pas selon moi un problème, encore faut-il s’assurer que les mesures de protections des données personnelles des citoyens européens soient à la hauteur et notamment que celles-ci ne soient pas transférées aux US ou ailleurs. Cette mesure permet d’éviter que des mineurs en-dessous de l’âge de 13ans ne puissent s’inscrire. C’est faisable, une plateforme française le fait (Smartrezo) !
Par contre il est vrai qu’il faudra surveiller la manière dont sera appliqué ce texte, en effet le flou artistique sur ce qu’est un « contenu illicite », ou ce que peut-être la promotion « d’information fiable » interroge… Cet aspect est probablement celui qui devra susciter le plus d’attention et être amendé afin de clarifier les choses et de s’assurer qu’il ne s’agit pas de la mise ne place d’une censure technocratique et où une seule vérité « officielle » serait tolérée…Thierry Breton a tenté de déminer le sujet en déclarant « La modération du contenu ne signifie pas la censure. En Europe, il n'y aura pas de ministère de la Vérité » (Le Monde Informatique – 25-08-23) Puisse-t-il dire vrai.
En conclusion, ce texte était nécessaire compte tenu des limitations observées dans le fonctionnement des plateformes actuelles. Cependant il nous faut être vigilant, car le numérique par sa puissance et sa diffusion de masse peut aussi être un moyen de contrôler efficacement lesdites masses et peut-être un outil d’influence étrangère avéré. Regardez la façon dont les algorithmes et la modération diffère entre le TikTok Chinois et celui donné en pâture aux têtes blondes occidentales (les contenus proposés et mis en avant par les algorithmes ne sont pas les mêmes, contenu éducatif et d’éveil à la science, et la bouillie infâme d’ineptie en occident)… Mais les américains n’ont rien à leur envier, ils utilisent leurs géants du numérique pour imposer à la planète entière leur vision du monde A nous de trouver notre voie avec des outils de protection comme le DSA, mais aussi par la création et la promotion de nos propres plateformes qui intégreraient notre vision du monde et un certain nombre d’aspects culturels ! Par exemple une plateforme qui offre du contenu informatif de qualité et qui permet de valoriser le tissu économique et social des différents territoires, tout en proposant aussi des contenus éducatifs notamment sur la compréhension des risques d’internet et comprendre aussi le fonctionnement des médias...
Emmanuel MAWET