Commission d’enquête TikTok : « Il faut traiter les plateformes numériques comme des délégataires de service public » 

A l’approche de la conclusion de la commission d’enquête sur TikTok, les sénateurs auditionnaient Christophe Deloire, secrétaire général de Reporters sans frontières, sur les risques de désinformation liés à TikTok.
Henri Clavier

Temps de lecture :

5 min

Publié le

Mis à jour le

« Est-ce que c’est à la plateforme elle-même d’établir, a priori, qu’elles respectent des principes démocratiquement admis ? », s’interroge Christophe Deloire dans son propos introductif. Sans se concentrer sur le cas particulier de TikTok, le secrétaire général de Reporters sans frontières n’a pas opéré de distinctions précises entre les différentes plateformes numériques (comme Facebook ou Twitter) et leur impact sur la diffusion des informations.

« Le DSA porte sur la modération plutôt que sur les algorithmes, plutôt sur la frontière entre licite et illicite que sur l’organisation du licite »

« Il ne faut pas considérer que le problème des plateformes est uniquement lié à TikTok, ce n’est pas la seule plateforme à poser des difficultés en termes de surveillance », explique directement Christophe Deloire soucieux de souligner la globalité du phénomène. Deux règlements européens, le Digital Market Act (DMA) et le Digital Services Act (DSA), doivent entrer en vigueur prochainement, le DSA pourrait avoir un impact majeur sur les contraintes pesant sur les plateformes numériques. Christophe Deloire reconnaît que « la législation européenne est en mouvement, le DMA et le DSA sont des avancées notables mais souffrent de fragilités. Le DSA porte sur la modération plutôt que sur les algorithmes, plutôt sur la frontière entre licite et illicite que sur l’organisation du licite ». Pour le secrétaire général de RSF, cette approche est un point faible du texte européen. En effet, en se concentrant sur la modération, le DSA ne remet pas en cause la possibilité pour l’algorithme d’une plateforme numérique de « pousser » le contenu fonctionnant le mieux, sans se soucier de la fiabilité de l’information.

 

« La fiabilité de l’information doit être prise en compte dans l’indexation algorithmique »

La difficulté réside donc dans le rôle attribué aux plateformes numériques dans l’organisation de l’information au sein de l’espace public. Christophe Deloire part du postulat que les réseaux sociaux et les plateformes numériques sont devenus les nouveaux « espaces publics ». De ce fait, RSF considère que l’algorithme ne peut pas reposer uniquement sur des considérations marchandes et estime que « la fiabilité de l’information doit être prise en compte dans l’indexation algorithmique elle-même, si on laisse les algorithmes répondre uniquement à des préoccupations marchandes, alors on accepte que notre espace public soit soumis à une logique marchande ». Au regard de la responsabilité qui pèse sur les plateformes numériques, « l’enjeu majeur est de leur imposer d’amplifier la visibilité des médias qui démontrent la fiabilité de leur information », explique Christophe Deloire en reprenant le raisonnement sur « l’organisation du licite ».

« L’éditeur a le droit de choisir l’information, je ne crois pas qu’on ait envie de ça pour les plateformes »

Néanmoins, en faisant des plateformes numériques les éditeurs du contenu proposé sur leur réseau, Christophe Deloire craint une véritable confusion des rôles. « Il faut maintenir la distinction entre les contenus journalistiques et la publicité, nous croyons que les plateformes numériques ne devraient pas être considérées comme un éditeur », détaille Christophe Deloire rappelant que « l’éditeur a le droit de choisir l’information, je ne crois pas qu’on ait envie de ça pour les plateformes. Il y a des choses sur lesquelles on ne veut pas qu’elles aient leur mot à dire. En effet, en l’absence d’un statut véritablement approprié, les plateformes numériques pourraient aisément privilégier du contenu publicitaire plutôt que journalistique puisque « dès lors que l’objet de la société est d’organiser l’information et qu’elle a besoin d’en tirer des revenus, ça soumet le modèle même à une approche marchande ».

« Nous croyons que comme les plateformes sont des bouts d’espace public, il faut leur donner des formes de neutralité »

Rappelant qu’à ce titre TikTok ne représente pas un danger plus important que ses concurrents, RSF plaide pour une approche centrée sur la responsabilité, de fait, des plateformes numériques. « Nous croyons que comme les plateformes sont des bouts d’espace public, il faut leur donner des formes de neutralité sur les questions politiques religieuses etc. TikTok est l’organisateur de son réseau, il est légitime que les institutions démocratiques s’intéressent au flux », développe Christophe Deloire.

L’analyse de RSF s’appuie également sur un constat souvent sous-estimé, les plateformes numériques sont devenues indispensables pour la transmission de l’information dans une société démocratique. Par conséquent, « il faut traiter les plateformes numériques comme des délégataires de service public », appuie Christophe Deloire. Une mise en garde contre toute forme de naïveté également puisque les plateformes numériques sont guidées par des priorités différentes de celles des Etats démocratiques et « dès qu’il s’agit de toucher au cœur du système, les plateformes refusent. Tout est du côté de l’avantage économique dans le choix de ces entreprises ».

 

Dans la même thématique

illustration camera de surveillance
7min

Société

Vidéosurveillance algorithmique : l’expérimentation pendant les JO, une simple étape vers la généralisation ?

L’exécutif a indiqué vouloir généraliser un dispositif controversé de vidéosurveillance algorithmique mis en place lors des Jeux Olympiques et dont l’expérimentation arrive à son terme le 31 mars 2025. Problème, cette annonce a été faite avant la remise du rapport d’un comité d’évaluation, inscrit dans la loi. Matignon a dû rétropédaler et précise qu’il attendra le rapport avant de se prononcer. Au Sénat, personne n’est dupe sur sa généralisation prochaine.

Le

Vidéo (2)
8min

Société

Dérives dans les crèches : au cœur de l’audition de Victor Castanet au Sénat, le rôle des élus locaux

Auditionné ce mercredi par les sénateurs après la publication de son livre sur les risques de maltraitance dans les crèches privées, Victor Castanet s’est longuement attardé sur les effets de bord du mode de financement mis en œuvre depuis une vingtaine d’années. Un système dont certains maires se sont accommodés pour rentrer dans leur budget, a expliqué le journaliste d’investigation. Mais ses propos ont aussi soulevé l’agacement de plusieurs parlementaires.

Le

CRECHE PEOPLE & BABY
3min

Société

Dérives dans les crèches : le Sénat lance une mission d’information flash

La commission des affaires sociales du Sénat va enquêter sur le contrôle des établissements d’accueil des jeunes enfants. Dans son dernier ouvrage, le journaliste d’investigation Victor Castanet fait état d’un système d’optimisation des coûts par certains grands groupes gestionnaires de crèches, pouvant entrainer des situations de maltraitance.

Le

Illustration Police Nationale.
6min

Société

Comparution immédiate, excuse de minorité, courtes peines… sur la « sécurité du quotidien », Michel Barnier reprend la copie des Républicains

Le volet sécurité du discours de politique générale de Michel Barnier s'inspire des dispositions présentées par Les Républicains dans leur « pacte législatif ». Interrogés par Public Sénat, des membres de la majorité sénatoriale de droite et du centre, qui ont défendu certaines de ces mesures, saluent les orientations du Premier ministre.

Le

La sélection de la rédaction

Commission d’enquête TikTok : « Il faut traiter les plateformes numériques comme des délégataires de service public » 
9min

Société

Liens avec la Chine, données personnelles : les dirigeants de TikTok France peinent à convaincre les sénateurs

Pour la première fois depuis son lancement le 8 mars, la commission d’enquête sur le réseau social TikTok a auditionné, successivement, deux dirigeants de TikTok France. Les échanges ont largement tourné autour de la transparence de TikTok, notamment afin d’éclaircir les questions relatives à la gouvernance juridique ou au traitement des données. 

Le

Commission d’enquête TikTok : « Il faut traiter les plateformes numériques comme des délégataires de service public » 
9min

Politique

TikTok : « Il n’y a pas de lien négatif avéré et systématique avec le développement cognitif de l’adolescent », estime un chercheur

Ce lundi, la commission d’enquête sur TikTok a auditionné Grégoire Borst, professeur de psychologie du développement et de neurosciences cognitives de l’éducation à l’Université Paris-Cité. Le chercheur a présenté des données aux sénateurs qui sont venues nuancer leurs craintes sur l’influence des écrans et des réseaux sociaux sur les capacités cognitives des adolescents et leur bien-être.

Le