Avec le trouble qu’a apporté la pandémie du corona virus dans divers pays, plusieurs entreprises ont connu des chutes inouïes malgré les activités du télétravail. C’est dans ce sens que l’entreprise Facebook déclare que cette crise sanitaire a rendu plus difficile la modération du contenu de ses medias sociaux. En fait, le réseau social comptait moins de personnes pour examiner le contenu sur le suicide, l’automutilation et l’exploitation sexuelle. N’oublions pas que l’une des batailles de ce réseau est de bannir de sa plateforme toutes publications pouvant blesser la sensibilité des utilisateurs, tout message suspect. Alors comment le coronavirus affecte les activités de l’entreprise Facebook ?
Lançons un coup d’œil sur les statistiques des 2 réseaux sociaux :
Facebook a déclaré qu’au deuxième trimestre, il avait pris des mesures contre 22,5 millions de contenus pour violation de ses règles contre les discours de haine, contre 9,6 millions de contenus au premier trimestre. Facebook a attribué le saut à l’utilisation de la technologie automatisée, qui a aidé l’entreprise à détecter de manière proactive les discours de haine. Le taux de détection proactive des discours de haine sur Facebook est passé de 89% à 95% du premier au deuxième trimestre, a indiqué la société.
Le taux de détection proactive des discours de haine sur Instagram est passé de 45% à 84% au cours de la même période, a déclaré Facebook. Instagram avait enregistré au premier trimestre 808900 éléments de contenu pour avoir enfreint ses règles en matière de discours de haine, mais ce nombre est passé à 3,3 millions au deuxième trimestre. Quel chiffre croissant.
Facebook a également agi au deuxième trimestre contre 8,7 millions de contenus pour violation de ses règles contre la promotion du terrorisme, contre 6,3 millions au premier trimestre.
La société a déclaré que des auditeurs indépendants examineraient les mesures utilisées par Facebook pour faire appliquer les normes de la communauté. L’entreprise espère que l’audit sera réalisé en 2021.
Il ressort de ces statistiques que la crise sanitaire affectait le bon nombre du personnel facebook pouvant consulter les publications sur le réseau social pour des violations des règles contre le contenu promouvant le suicide ou l’automutilation. La pandémie COVID-19 a également eu un impact sur le nombre de travailleurs qui pouvaient surveiller Instagram appartenant à Facebook pour la nudité des enfants et l’exploitation sexuelle.
Facebook a déclaré qu’il n’était pas en mesure de déterminer la prévalence du contenu violent et graphique, de la nudité et de l’activité sexuelle des adultes sur leurs plates-formes au deuxième trimestre, en raison de l’impact du coronavirus.
Etant donné, d’avril à juin, Facebook avait déclaré dans un article de blog, qu’il avait pris des mesures sur moins d’éléments de ce type de contenu offensant parce qu’il avait renvoyé ses réviseurs de contenu chez eux. Les utilisateurs ne pouvaient pas non plus toujours faire appel d’une décision de modération de contenu. Parce qu’en réalité, Facebook s’appuie sur un mélange d’examinateurs humains et de technologie pour signaler le contenu offensant. Mais certains contenus sont plus difficiles à modérer, y compris les publications liées au suicide et à l’exploitation sexuelle, de sorte que Facebook s’appuie davantage sur les gens pour ces décisions. Et avec le télétravail la tâche n’était plus efficiente, le personnel pouvait connaitre un certain trouble du à l’environnement familial. Bref, tous ceux qui ont fait le télétravail le savent, les débuts ne sont pas faciles.
A cet effet, la société a fait face à des critiques et à une poursuite de la part de modérateurs de contenu qui prétendaient souffrir de symptômes de trouble de stress post-traumatique après avoir examiné à plusieurs reprises des images violentes.
Guy Rosen, superviseur du travail de Facebook sur la sécurité et l’intégrité, a déclaré lors d’un appel à la presse que le contenu sur le suicide et la nudité infantile ne peut pas être examiné à la maison car il est visuellement graphique. Cela rend la tâche très difficile pour les réviseurs de contenu, car lorsqu’ils travaillent à domicile, les membres de la famille peuvent être autour d’eux. Ainsi elle a déclaré : « Nous voulons nous assurer qu’il est examiné dans un environnement plus contrôlé, et c’est pourquoi nous avons commencé à ramener un petit nombre d’examinateurs là où il est en sécurité au bureau ».
Facebook utilise également l’intelligence artificielle pour classer le contenu potentiellement dangereux et signaler les publications que les gens doivent examiner en premier. La société a donné la priorité à l’examen des vidéos en direct, mais si un utilisateur laissait entendre dans un message régulier qu’il allait se suicider, cela serait également très bien classé, a déclaré Rosen.
Facebook a également été critiqué pour ne pas avoir fait assez pour lutter contre les discours de haine, un problème qui a provoqué un boycott publicitaire en juillet. Lundi, NBC News a rapporté qu’une enquête interne a révélé qu’il y avait des milliers de groupes et de pages sur Facebook qui soutenaient une théorie du complot appelée QAnon, qui allègue qu’il y a un complot «d’État profond» contre le président Donald Trump et ses partisans.
Toutefois, si vous êtes aux prises avec des pensées négatives, des actes d’automutilation ou des sentiments suicidaires, il y’a lignes d’assistance téléphonique en cas de suicide et d’intervention en cas de crise que vous pouvez utiliser pour obtenir de l’aide selon le lieu où vous vous trouvez.
Cependant si vous etes aux États-Unis, vous pouvez appeler le National Suicide Prevention Lifeline au numéro suivant : 1-800-273-8255. Et si vous êtes au Royaume-Uni: les Samaritains sont joignables au 116123. Par exemple.