De nombreux utilisateurs de Facebook vont peut-être, dans les semaines qui viennent, être confrontés à une nouvelle notification. S'ils ont aimé, partagé ou commenté un message sur Facebook lié à la pandémie de Covid-19, et que ce message a été ensuite supprimé par la censure de Facebook en raison de son caractère estimé dangereux, ils vont recevoir dans les deux semaines qui suivent un message les incitant à "mieux s'informer" sur la crise du coronavirus (Nota: pour résumer, nous pensons à votre place !)
Cette notification suivant l'interaction contiendra un lien les redirigeant vers les sites officiels des autorités sanitaires ( comme ceux de l'OMS ou de ministères de la santé ).
Cette évolution de la censure de Facebook face aux contenus traitant du coronavirus, annoncée par communiqué jeudi 16 avril, est aussi évoquée dans un message posté directement par Mark Zuckerberg, le fondateur et dirigeant du réseau social.
Il s'y félicite du succès du portail « Centre d'information sur le coronavirus (Covid-19) » et des messages de prévention et d'information mis en avant par Facebook dans les flux d'actualité de ses utilisateurs. Ce sont en tout plus de 2 milliards de personnes sur Facebook et Instagram qui ont accédé grâce à cela à des informations officielles des autorités sanitaires, selon Facebook.
La direction de Facebook se réjouit également que « des centaines de milliers de contenus estimés mensongers liés au Covid-19 » ont été supprimés du réseau social ces dernières semaines. Depuis janvier, dans le contexte de la pandémie, Facebook semble appliquer avec un zèle particulier sa politique de suppression des messages, photos ou vidéos postés par des utilisateurs ou des pages sous prétexte qu'ils mettraient en danger la santé ou la vie de ses utilisateurs : début mars, Mark Zuckerberg s'exprimait déjà pour indiquer que l'entreprise allait concentrer ses efforts contre « les informations dissidentes et les théories du complot identifiées par les principales organisations sanitaires officielles ».
Parmi les messages supprimés directement par Facebook lorsqu'ils sont détectés : les « fausses affirmations à propos de remèdes ou traitements » contre le coronavirus ou « les affirmations selon lesquelles la distanciation sociale n'aide pas à lutter contre la propagation du coronavirus », comme le précisait un communiqué posté le 26 mars. En France, cela a pu concerner notamment les messages indiquant de manière trompeuse que les traitements à l'hydroxychloroquine sont efficaces contre le coronavirus.
Politique de succession
Cette politique de suppression, appliquée directement par les censeurs de Facebook, se fait en parallèle du circuit mis en place pour lutter contre les fausses informations, développé par l'entreprise avec des partenaires ces dernières années. Le réseau social s'appuie pour cela sur un travail de vérifications mené par près de 60 rédactions et associations dans le monde entier ; en France, Le Monde et sa rubrique de vérification des faits, Les fameux Décodeurs, en font partie.
Lorsque ces partenaires détectent qu'un message sur Facebook est potentiellement trompeur, ils lui apposent un label spécifique, qui a pour conséquence de dégrader la visibilité de ces messages dans l'environnement Facebook, et d'afficher un avertissement aux utilisateurs qui tomberaient tout de même dessus. Jeudi 16 avril, Facebook indique avoir affiché de tels avertissements « sur plus de 40 millions de publications » postées par des utilisateurs du monde entier au cours du mois de mars. Ils ont été générés « sur la base de 4.000 évaluations de partenaires » vérificateurs d'informations. « Lorsque les utilisateurs voient ces étiquettes de mise en garde, dans plus de 95 % des cas, ils ne vont pas plus loin et ne consultent pas le contenu », ajoute le réseau social, pour qui il s'agit d'un signe de l'efficacité.
Une étude dénonce une modération inefficace
Tout ceci reste insuffisant, selon l'ONG Avaaz (Nota : entre 2007 et 2009, Avaaz a été financée en partie par le milliardaire George Soros, via MoveOn par le Soros Open Society Institute), dont un nouveau rapport - également publié jeudi - est en partie à l'origine du nouveau système de notification annoncé par Facebook. Cette étude, réalisée par une organisation spécialiste du militantisme en ligne et ayant déjà étudié la désinformation sur Facebook dans d'autres contextes (par exemple, celui de la mobilisation des « gilets jaunes » en France), démontre que les informations fausses ou trompeuses au sujet de la pandémie restent encore trop vues sur Facebook.
Pour arriver à ce constat, l'ONG a isolé 104 « mésinformations » au sujet du Covid-19, diffusées dans cinq langues (anglais, français, espagnol, italien et arabe). Selon Avaaz, ces publications ont été partagées 1,7 million de fois et ont donné lieu à environ 117 millions de consultations : une estimation que l'ONG estime être conservatrice.
Parmi ces 104 fausses informations figurent par exemple des indications fantaisistes sur les éléments qui protégeraient un individu du coronavirus (le fait d'être noir, utiliser de l'huile d'origan ou les décoctions à l'ail...). Mais, parmi ces messages, plusieurs dizaines ne comportaient aucun avertissement alors même que, parfois, l'information en question avait justement été démentie par au moins un des partenaires de Facebook en matière de « fact-checking ».
Par ailleurs, 25 publications identifiées par Avaaz pouvaient être considérées comme faisant courir un risque direct aux utilisateurs de Facebook. Deux ont été vite retirées. Après avoir été averti par l'ONG, Facebook en a ensuite supprimé dix-sept, et ajouté des indications selon lesquelles l'information était fausse ou trompeuse sur deux autres. Facebook n'a pas touché à quatre de ces publications.
« Pas représentatifs »
Ces constats sont à prendre avec des pincettes tant ils ont été réalisés sur un échantillon infime de messages trompeurs, comparé aux volumes de contenus ayant été supprimés. Facebook, dans une déclaration à la presse transmise jeudi, regrette ainsi que les messages étudiés par Avaaz ne soient « pas représentatifs de ce qu'il se passe sur Facebook » : « Leurs découvertes ne reflètent pas le travail que nous avons réalisé sur le sujet », réagit l'entreprise.
L'ONG, pour qui ces 104 messages étudiés constituent seulement « la partie émergée l'iceberg », considère à l'inverse que si elle avait eu « un mois ou deux de plus pour analyser davantage de contenus », elle aurait « trouvé des résultats très similaires », selon un porte-parole. Avaaz maintient ainsi que ses travaux restent révélateurs de plusieurs phénomènes :
Cette évolution de la censure de Facebook face aux contenus traitant du coronavirus, annoncée par communiqué jeudi 16 avril, est aussi évoquée dans un message posté directement par Mark Zuckerberg, le fondateur et dirigeant du réseau social.
Il s'y félicite du succès du portail « Centre d'information sur le coronavirus (Covid-19) » et des messages de prévention et d'information mis en avant par Facebook dans les flux d'actualité de ses utilisateurs. Ce sont en tout plus de 2 milliards de personnes sur Facebook et Instagram qui ont accédé grâce à cela à des informations officielles des autorités sanitaires, selon Facebook.
La direction de Facebook se réjouit également que « des centaines de milliers de contenus estimés mensongers liés au Covid-19 » ont été supprimés du réseau social ces dernières semaines. Depuis janvier, dans le contexte de la pandémie, Facebook semble appliquer avec un zèle particulier sa politique de suppression des messages, photos ou vidéos postés par des utilisateurs ou des pages sous prétexte qu'ils mettraient en danger la santé ou la vie de ses utilisateurs : début mars, Mark Zuckerberg s'exprimait déjà pour indiquer que l'entreprise allait concentrer ses efforts contre « les informations dissidentes et les théories du complot identifiées par les principales organisations sanitaires officielles ».
Parmi les messages supprimés directement par Facebook lorsqu'ils sont détectés : les « fausses affirmations à propos de remèdes ou traitements » contre le coronavirus ou « les affirmations selon lesquelles la distanciation sociale n'aide pas à lutter contre la propagation du coronavirus », comme le précisait un communiqué posté le 26 mars. En France, cela a pu concerner notamment les messages indiquant de manière trompeuse que les traitements à l'hydroxychloroquine sont efficaces contre le coronavirus.
Politique de succession
Cette politique de suppression, appliquée directement par les censeurs de Facebook, se fait en parallèle du circuit mis en place pour lutter contre les fausses informations, développé par l'entreprise avec des partenaires ces dernières années. Le réseau social s'appuie pour cela sur un travail de vérifications mené par près de 60 rédactions et associations dans le monde entier ; en France, Le Monde et sa rubrique de vérification des faits, Les fameux Décodeurs, en font partie.
Lorsque ces partenaires détectent qu'un message sur Facebook est potentiellement trompeur, ils lui apposent un label spécifique, qui a pour conséquence de dégrader la visibilité de ces messages dans l'environnement Facebook, et d'afficher un avertissement aux utilisateurs qui tomberaient tout de même dessus. Jeudi 16 avril, Facebook indique avoir affiché de tels avertissements « sur plus de 40 millions de publications » postées par des utilisateurs du monde entier au cours du mois de mars. Ils ont été générés « sur la base de 4.000 évaluations de partenaires » vérificateurs d'informations. « Lorsque les utilisateurs voient ces étiquettes de mise en garde, dans plus de 95 % des cas, ils ne vont pas plus loin et ne consultent pas le contenu », ajoute le réseau social, pour qui il s'agit d'un signe de l'efficacité.
Une étude dénonce une modération inefficace
Tout ceci reste insuffisant, selon l'ONG Avaaz (Nota : entre 2007 et 2009, Avaaz a été financée en partie par le milliardaire George Soros, via MoveOn par le Soros Open Society Institute), dont un nouveau rapport - également publié jeudi - est en partie à l'origine du nouveau système de notification annoncé par Facebook. Cette étude, réalisée par une organisation spécialiste du militantisme en ligne et ayant déjà étudié la désinformation sur Facebook dans d'autres contextes (par exemple, celui de la mobilisation des « gilets jaunes » en France), démontre que les informations fausses ou trompeuses au sujet de la pandémie restent encore trop vues sur Facebook.
Pour arriver à ce constat, l'ONG a isolé 104 « mésinformations » au sujet du Covid-19, diffusées dans cinq langues (anglais, français, espagnol, italien et arabe). Selon Avaaz, ces publications ont été partagées 1,7 million de fois et ont donné lieu à environ 117 millions de consultations : une estimation que l'ONG estime être conservatrice.
Parmi ces 104 fausses informations figurent par exemple des indications fantaisistes sur les éléments qui protégeraient un individu du coronavirus (le fait d'être noir, utiliser de l'huile d'origan ou les décoctions à l'ail...). Mais, parmi ces messages, plusieurs dizaines ne comportaient aucun avertissement alors même que, parfois, l'information en question avait justement été démentie par au moins un des partenaires de Facebook en matière de « fact-checking ».
Par ailleurs, 25 publications identifiées par Avaaz pouvaient être considérées comme faisant courir un risque direct aux utilisateurs de Facebook. Deux ont été vite retirées. Après avoir été averti par l'ONG, Facebook en a ensuite supprimé dix-sept, et ajouté des indications selon lesquelles l'information était fausse ou trompeuse sur deux autres. Facebook n'a pas touché à quatre de ces publications.
« Pas représentatifs »
Ces constats sont à prendre avec des pincettes tant ils ont été réalisés sur un échantillon infime de messages trompeurs, comparé aux volumes de contenus ayant été supprimés. Facebook, dans une déclaration à la presse transmise jeudi, regrette ainsi que les messages étudiés par Avaaz ne soient « pas représentatifs de ce qu'il se passe sur Facebook » : « Leurs découvertes ne reflètent pas le travail que nous avons réalisé sur le sujet », réagit l'entreprise.
L'ONG, pour qui ces 104 messages étudiés constituent seulement « la partie émergée l'iceberg », considère à l'inverse que si elle avait eu « un mois ou deux de plus pour analyser davantage de contenus », elle aurait « trouvé des résultats très similaires », selon un porte-parole. Avaaz maintient ainsi que ses travaux restent révélateurs de plusieurs phénomènes :
- Les fausses informations relatives au Covid-19 restent très présentes sur la plate-forme, malgré les efforts et les promesses des dirigeants ;
- Le temps de réaction de Facebook est trop long : selon l'ONG, il s'écoule plusieurs jours entre le moment où une information apparaît, celui où elle est vérifiée et enfin le moment où le réseau social appose l'indication à destination de ses utilisateurs ;
- La mauvaise articulation entre le réseau social et ses partenaires en fact-checking, qui rend possible la présence sur Facebook de contenus pourtant contredits par ses partenaires
Commentaire : Ce que Facebook et ses acolytes veulent dire c'est qu'il est absolument interdit de s'informer, de se responsabiliser, d'être un adulte consciencieux, d'apprendre sur le sujet, de vérifier, de réfléchir, etc
Soyez donc crédules, ignorants, idiots, morons... c'est ce que Facebook nous dit aussi.
Et de dénoncer ceux qui osent penser différemment !
Soyez donc crédules, ignorants, idiots, morons... c'est ce que Facebook nous dit aussi.
Et de dénoncer ceux qui osent penser différemment !
Aucun commentaire:
Enregistrer un commentaire
Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.