Critiqué pour sa modération des contenus, TikTok lance un "comité consultatif de sécurité" en Europe
L'application chinoise de création et de partage de vidéo est largement critiquée pour sa gestion des contenus en ligne, en particulier vis-à-vis de la protection des utilisateurs mineurs. En réaction, elle vient d'annoncer le lancement d'un "comité consultatif de sécurité", composé d'experts universitaires et associatifs, pour travailler sur ces questions. Les prérogatives de cette structure demeurent encore assez imprécises.
TikTok, propriété de l'entreprise chinoise ByteDance, vient d'annoncer la constitution et le lancement d'un "comité consultatif européen de sécurité" dont l'objectif est de travailler sur les "politiques et pratiques de modération", détaille Julie de Bailliencourt, directrice de la politique des contenus chez TikTok Europe, dans un billet de blog.
Le milieu universitaire et associatif
Ce comité est actuellement composé de neuf membres, dont la liste est disponible ici, parmi lesquels Alex Holmes, directeur général délégué de l'ONG britannique "The Diana Award" axée autour de la jeunesse, Ethel Quayle, professeure de psychologie clinique criminologique à l’École de santé en sciences sociales de l’Université d’Édimbourg ou encore Satu Sutelainen, directrice exécutive d'une application dédiée à la santé mentale.
Ce premier panel d'experts doit s'agrandir au fur et à mesure. "Nous inviterons de nouveaux membres, de pays et disciplines différents car nous savons que les défis auxquels nous devons faire face sont susceptibles d'évoluer", indique Julie de Bailliencourt. En revanche, les missions exactes de ce comité ne sont pas précisées et son organisation demeure encore très flou.
TikTok critiqué pour sa gestion des contenus
Cette nouvelle structure s'inscrit dans un contexte de critiques très fortes à l'encontre des réseaux sociaux sur leur politique de modération des contenus, jugée insuffisante ou inappropriée. TikTok est notamment mis en cause vis-à-vis de la protection des internautes mineurs qui créent et partagent des vidéos via son application. Raison pour laquelle le comité est principalement constitué de spécialistes de l'enfance.
Face à ces critiques, l'application chinoise a annoncé en janvier dernier une série de mesures afin de renforcer la protection de la vie privée et la sécurité des mineurs. Désormais, tous les comptes des utilisateurs âgés entre 13 et 15 ans passent "en mode privé" par défaut. Ce qui signifie que toutes les vidéos publiées ne peuvent être visualisées que par les abonnés ayant été acceptés par l'utilisateur au préalable.
Un dépôt de plainte devant la Commission européenne
Il y a quelques semaines, l'association de protection des consommateurs UFC-Que-Choisir et ses homologues européens ont déposé une plainte auprès de la Commission européenne. Elle accuse TikTok de ne pas suffisamment protéger les mineurs des "contenus potentiellement dangereux" faisant référence à certaines "vidéos sexuellement explicites proposées aux utilisateurs après quelques minutes de visionnage".
Le comité mis en place par TikTok rappelle l'initiative mise en place par Facebook. Lancé en novembre 2018, le "conseil de surveillance" (oversight board) du réseau social est chargé de trancher les différends liés aux retraits des contenus. Il a rendu ses premières décisions début décembre 2020.
SUR LE MÊME SUJET
Critiqué pour sa modération des contenus, TikTok lance un "comité consultatif de sécurité" en Europe
Tous les champs sont obligatoires
0Commentaire
Réagir