TikTok nous veut-il du mal ?

TikTok, ses données, son profit, et nous !

La réussite fulgurante de TikTok et son milliard d’utilisateurs pose en creux la question de nos données, de la sécurité mais aussi de la santé mentale. TikTok est-il un grand méchant qui mettrait en danger nos gouvernements et nos cerveaux ? Tentative de réponse ici.

Evidemment, on ne peut que souligner en préambule le risque – bien connu sur les réseaux, de fake news. Que l’on parle de malinformation, désinformation ou mésinformation, TikTok est gangréné par des contenus trompeurs. D’après NewsGuard, 20 % des vidéos circulant via TikTok sur des sujets d’actualité (invasion russe en Ukraine, fusillades dans des écoles aux Etats-Unis, vaccins contre le Covid) étaient fausses ou trompeuses.

Je te tiens, je te retiens

Au cœur de la dynamique d’une partie du numérique : le principe de rétention. Ou comment garder une audience sur sa plateforme et l’empêcher de butiner du contenu ailleurs. Question : comment faire rester les utilisateurs ? Réponse de TikTok : en proposant un contenu ciblé qui va plaire, mais pas uniquement. Le problème, comme dans n’importe quelle addiction, étant que l’on va avoir besoin d’une dose toujours plus forte pour maintenir un niveau de plaisir. TikTok va donc avoir tendance à augmenter la dose : proposer des contenus de plus en plus extrêmes. C’est en tout cas l’une des conclusions d’une enquête du Wall Street Journal.

Un journaliste du WSL explique avoir créé un profil avec une tendance à aimer les contenus tristes. Après 36 minutes de visionnage, le compte n’avait plus que des contenus sur ces thèmes qui étaient proposés. Et des contenus de plus en plus radicaux, extrêmes, plus sensationnalistes. Là, on comprend bien le danger. Remarquez que cette tendance n’est ni nouvelle, ni propre à TikTok. Si les chaînes d’infos ou les émissions de débats à la Tv ou la radio mettent en scène des oppositions avec des postures extrêmes c’est parce que le contenu polarisant attire plus, engage plus et, in fine… fait gagner plus d’argent.

Spy game

Autre danger, très présent dans l’actualité récente : l’espionnage. Récemment, la Commission européenne a interdit à ses employés d’utiliser TikTok sur leurs appareils professionnels. Plus tôt, en décembre, c’était la Chambre des représentants et les administrations américaines qui prenaient cette même mesure.

Depuis 2020, l’application est interdite en Inde, après des affrontements meurtriers à la frontière avec la Chine. New Dehli avait justifié sa décision par la défense de sa souveraineté.

Et c’est aussi en 2020 que des documents internes à TikTok ont fuité et révélé que l’appli censurait certains contenus qui pouvaient nuire au parti communiste chinois… Quelle est l’étendue de cette tendance ? Nul ne le sait. Mais rappelez-vous de la disparition pendant plusieurs mois de Jack Ma, fondateur d’Alibaba. Pour les gouvernements étrangers, c’est la preuve que la Chine tient dans sa main l’écosystème tech de son pays.

En France, le réseau social fait l’objet d’une commission d’enquête au Sénat, qui qualifie TikTok d’« addictif et d’opaque ». Mais difficile de contrôler l’appli. L’Arcom (ex CSA, dit gendarme de l’audiovisuel), devrait avoir un rôle à jouer en s’appuyant sur le cadre légal existant pour que TikTok fournisse ses données. Mais le géant chinois s’en fiche et, quand bien même il accepterait, on pourrait avoir des doutes sur la qualité des données livrées.

Des contenus truqués ?

Risque d’addiction et de manipulation à grande échelle, fausses informations, espionnage. A cette liste on pourrait ajouter la manière dont les contenus sont valorisés et poussés ou non, sur l’application.

On sait que TikTok peut pousser manuellement certaines vidéos. Une fuite de documents internes à TikTok parlait de hiting, donc de contenu artificiellement amplifié. Pour influer sur des tendances. Nous n’avons pas de preuves, en revanche, que cela concerne des contenus politiques. Ce que l’on sait en revanche, c’est que de nombreux employés en interne ont la possibilité d’actionner ce levier. Imaginez un instant que des contenus politiques précis soient ciblés dans des régions politiquement instables. Le danger est bien là. Notez que face à la censure russe, TikTok a décidé que tous les utilisateurs sur le sol russes ne pourraient plus accéder à des vidéos venus d’autres pays. Un choix radical pour garder la main sur un marché immense.

De l’autre côté de cette même pièce : la censure. Censure qui reste difficile à évaluer de l’extérieur. Ce que l’on sait, c’est que les contenus similaires à ceux qui ont été supprimés ou modérés vont servir à entrainer l’algorithme. Il va donc les reconnaître ou croire les reconnaître et les modérer automatiquement. Il y a aussi ce qu’on appelle le shadowbanning. Des contenus pas supprimés véritablement mais qu’on va brider en terme de visibilité. C’est ce que dénonce les communautés LGBT, ou de nombreuses personnes victimes de grossophobie. Mais cela reste difficile à évaluer et à prouver.

Doit-on pour autant arrêter d’utiliser TikTok ? Libre à chacun d’en décider évidemment. L’intérêt économique et communicationnel de l’outil est difficile à contourner. Et la tendance ne semble pas à une baisse du poids de l’application dans le paysage des réseaux sociaux. Mais cela doit nous rappeler ce qui se joue et, surtout, comment fonctionnent ces applications. Avant même de se positionner, demeure l’impérieuse nécessité de se former.

Pour aller plus loin :