« L’algorithme de TikTok, une bombe à retardement pour les adolescents fragiles » titre La Tribune qui revient sur l’histoire du suicide dramatique d’une jeune fille de 15 ans qui laisse derrière elle une famille endeuillée et brisée.
« Deux ans après son suicide, les parents de Marie, 15 ans, attaquent TikTok en justice pour « provocation au suicide », « non-assistance à personne en péril » et « propagande ou publicité des moyens de se donner la mort ». Même s’il reste encore peu connu, l’algorithme de TikTok, encore plus que celui d’Instagram, est de plus en plus dénoncé pour ses effets dévastateurs sur la santé mentale des adolescents.
Un algorithme peut-il tuer ?
Un algorithme peut-il tuer ? C’est la question que posent les parents de Marie, 15 ans, qui s’est suicidée en septembre 2021 à Cassis, à la justice française.
Comme six adolescents sur dix, Marie utilisait régulièrement TikTok. En analysant son téléphone après son décès, ses parents ont découvert que leur fille avait publié une vidéo sur le réseau social, dans laquelle elle évoquait son mal-être, le harcèlement qu’elle subissait à cause de son poids, et son envie de suicide. La publication va automatiquement engendrer, sur son compte, l’arrivée d’autres vidéos sur le même thème.
Le réseau social détenu par l’entreprise chinoise Bytedance s’est taillé un succès fulgurant en à peine cinq ans, avec 1,7 milliard d’utilisateurs actifs par mois, dont 15 millions en France. Parmi eux, 67 % ont moins de 24 ans. Son secret ? Le format des vidéos – moins de 8 secondes en moyenne, parfait pour faire défiler les contenus sur son écran sans se lasser – et un algorithme « chimiquement parfait », d’une précision et d’une puissance inégalée, d’après les mots de la chercheuse et sociologue américaine Julie Albright, de l’Université de Californie du Sud.
Dans son étude, la chercheuse estime que TikTok a trouvé le format parfait, car chaque nouvelle vidéo déclenche une dose de dopamine dans le cerveau, ce qui contribue à créer une addiction au service, qui modifie in fine le temps d’attention des utilisateurs. Effectivement, les deux tiers des adolescents américains passent 80 minutes par jour sur TikTok, soit plus du double que sur n’importe quelle autre application.
TikTok apparaît également comme « plus rapide que n’importe quelle autre plateforme pour détecter les centres d’intérêts des utilisateurs », ajoute Marc Faddoul, le co-directeur de l’ONG Tracking Exposed, qui travaille sur l’algorithme de TikTok. Dans la section « Pour toi », TikTok pousse des vidéos choisies sur-mesure par l’algorithme et publiées par des personnes que l’utilisateur ne suit pas forcément, sur la base de ce qu’il déduit de ses centres d’intérêts.
« TikTok identifie les vulnérabilités et capitalise dessus »
Dans le cas d’une adolescente avec des pensées suicidaires par exemple, il suffit de manifester un intérêt pour le sujet – via une vidéo comme Marie, ou juste des interactions comme un like, un partage, une pause sur une image, un commentaire ou cliquer sur des mots-clés associés -, pour que l’algorithme déduise qu’il s’agit d’un centre d’intérêt et propose davantage de contenus similaires. La précision est telle que l’algorithme déduit parfois des choses dont les utilisateurs n’ont pas encore pleinement conscience, à l’image de cette femme qui a écrit un article intitulé « L’algorithme de TikTok connaît ma sexualité mieux que moi-même ».
Ainsi, d’après une étude publiée fin 2022 par le Centre de lutte contre la haine numérique, une ONG anglo-saxonne, il a fallu 2,6 minutes à TikTok pour recommander du contenu suicidaire à un profil d’adolescent « vulnérable ». Et 8 minutes pour voir apparaître des vidéos sur des troubles alimentaires pour un autre faux profil créé par les chercheurs. Or, « ces comptes se sont seulement brièvement arrêtés sur des vidéos sur l’image corporelle et la santé mentale, et les ont likés », décrivent les chercheurs, qui considèrent le fonctionnement de l’algorithme de TikTok comme « un cauchemar pour tous les parents ». « Les flux des jeunes sont bombardés de contenus qui peuvent avoir un impact cumulatif significatif sur leur compréhension du monde qui les entoure, et sur leur santé physique et mentale », estiment-ils.
Et de conclure :
TikTok identifie la vulnérabilité de l’utilisateur et capitalise dessus. Les comptes vulnérables de notre étude ont reçu 12 fois plus de recommandations de vidéos d’automutilation et de suicide que les comptes standards.
Protégez vos enfants, coupez les écrans !
Vraiment, coupez les écrans.
La dangerosité de ces sites est extrême et les parents d’une autre génération n’ont en aucun cas conscience du fonctionnement des algorithmes et des IA qu’il y a derrière ces applications et qui visent à rendre les enfants dépendants.
Dans le cas de TikTok, cela va encore plus loin.
Ce réseau est une arme de destruction massive utilisée comme telle par les Chinois pour affaiblir l’occident dans une forme de guerre asymétrique. Il n’y a là rien de nouveau. Il y a un siècle, nous faisions la même chose à la Chine avec les guerres de l’Opium et les ravages que cette drogue a pu provoquer dans l’Empire du Milieu. L’humiliation reste encore fort. TikTok est de l’Opium 2.0. Rien de plus plus.
Rien de moins.
Protégez vos enfants. Coupez les écrans.
Source La Tribune.fr ici
Aucun commentaire:
Enregistrer un commentaire
Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.