Rechercher

TikTok : Contrôle et limitation de la diffusion du contenu « non vérifié »

TikTok
L'application TikTok contrôle et limite la diffusion des vidéos. GETTY

TikTok a dévoilé mercredi de nouvelles lignes directrices pour lutter contre la désinformation sur sa plateforme, annonçant qu’elle signalerait les vidéos non fondées afin de limiter leur diffusion si ses partenaires chargés de vérifier les faits ne sont pas en mesure de vérifier la véracité du contenu.

Faits clés

  • Dans un article publié mercredi, la plateforme TikTok a déclaré qu’elle ne recommanderait pas les vidéos de l’algorithme « Pour toi » des utilisateurs si les vérifications du contenu ne sont pas concluantes ou si sa véracité ne peut être confirmée, ce qui limiterait leur portée.
  • TikTok reconnaît que la nouvelle règle est susceptible d’avoir un impact sur les vidéos concernant des événements en cours, pour lesquels il peut être difficile de vérifier les faits avec précision.
  • Si un spectateur tombe sur une vidéo signalée, il verra une bannière au-dessus de celle-ci, l’avertissant que le contenu n’est pas vérifié.
  • Le spectateur de la vidéo sera également informé d’une bannière d’avertissement sur sa vidéo et du fait qu’elle ait été signalée comme non vérifiée.
  • Les spectateurs qui tentent de partager la vidéo verront également une fenêtre contextuelle leur rappelant que la vidéo a été signalée comme non vérifiée, et pourront alors choisir d’annuler le partage ou non.
  • La nouvelle directive sera d’abord mise en œuvre aux États-Unis et au Canada à partir de mercredi, puis sera progressivement lancée dans le monde entier dans les « prochaines semaines ».

 

Tangente

TikTok s’appuie sur des partenaires tiers pour la vérification des faits. Aux États-Unis, ces partenaires comprennent PolitiFact, Lead Stories et SciVerify, qui travaillent à l’évaluation des vidéos sur les processus civiques comme les élections, la santé publique, la science et d’autres questions.

Contexte clé

TikTok et d’autres réseaux sociaux ont intensifié leurs efforts de modération depuis le jour des élections. Quelques jours après l’élection, TikTok a décidé de retirer plusieurs vidéos contenant des informations erronées sur la fraude électorale. La plateforme de partage de vidéos a réprimé les vidéos de Donald Trump faisant de fausses déclarations sur les résultats de l’élection après que des partisans violents pro-Trump ont envahi le Capitole pour tenter d’empêcher la certification de la victoire de Joe Biden à l’élection présidentielle. La société a également supprimé plusieurs hashtags, dont #stormthecapitol et #patriotparty, afin de réduire la portée des contenus qui leur sont associés. Toutefois, la dernière initiative de TikTok semble reconnaître les limites de la désinformation pour vérifier les faits, en particulier lors des événements qui se déroulent. Les nouvelles lignes directrices permettraient donc à l’entreprise de limiter la diffusion de vidéos douteuses tout en ne les retirant pas. TikTok a toujours maintenu qu’elle se considérait comme le foyer de contenus amusants et légers, mais au cours des derniers mois, la société a parfois tenté à contrecœur de s’attaquer à la désinformation politique.

Article traduit de Forbes US – Auteur : Siladitya Ray

<<< À lire également : Les 7 stars de TikTok les mieux rémunérées >>>

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC