L’entreprise Facebook se sert des simulations pour lutter contre les individus de mauvaise foi qui ne cessent de nuire aux utilisateurs du réseau social. En effet, plusieurs réseaux sociaux sont en proie des hackers et de façon permanente depuis le confinement. Il est vrai, la piraterie existait bien avant mais avec les activités croissantes en ligne dues au coronavirus, le piratage des comptes sur les réseaux sociaux fait rage. C’est dans le cadre de la lutte contre ce fléau que Facebook a lancé Westworld. Il s’agit du nouveau projet de recherche de l’entreprise qui analyse les contrefaits avec de mauvaises intentions.

En réalité, pour vous, Facebook pourrait etre pour vous un lieu virtuel où vous vous rencontrer avec vos connaissances, votre famille et vos amis pour partager des histoires. Mais le réseau social est aussi un Far West numérique, rempli d’escrocs, des fanatiques,  de réseaux de comptes frauduleux, des criminels et d’intimidateurs.


Alors conscient de ce fait, la société s’est porté garant de traquer toute personne malintentionnée sur le réseau, elle a pour ce faire,  dépensé plus d’une poignée de dollars pour rassembler ces méchants. Cependant, il importe de dire qu’il est difficile de gagner les combats assez rapidement, surtout que les mauvais acteurs peuvent changer de tactique lorsque leurs anciennes astuces ne fonctionnent plus. Maintenant, Facebook se tourne vers une plateforme simulée pour l’apprivoiser.

Le réseau social a présenté jeudi passé un système basé sur l’IA qui simule le comportement des utilisateurs via le système réel de Facebook. L’idée derrière le projet de recherche, appelé Web Enabled Simulation, est d’essayer plusieurs approches possibles pour traiter simultanément les comportements nuisibles. Facebook s’associera à des chercheurs universitaires pour tester le programme et explorer les réponses possibles aux problèmes. Le but est de trouver le choix le plus efficace avec le moins d’inconvénients.

Quel est le principe ?

WW s’appuie sur trois techniques pour simuler le comportement des utilisateurs sur la plateforme. Le plus grossier est appelé un algorithme basé sur des règles, qui définit des situations si-alors pour diriger le comportement du bot. C’est là que les chercheurs travaillent avec ce qu’ils savent déjà sur les comportements nuisibles des utilisateurs.

Des techniques de simulation plus avancées sont un apprentissage automatique supervisé et non supervisé, qui peut également utiliser des informations sur des modèles de comportement établis. Cependant, ils permettent également aux chercheurs d’apprendre à anticiper les nouveaux comportements que les mauvais acteurs pourraient essayer ultérieurement. Par exemple, les chercheurs pourraient donner à un bot un objectif: faire tomber d’autres robots pour une arnaque. Le robot n’a pas à suivre de règles strictes pour atteindre l’objectif, ce qui peut révéler des faiblesses auxquelles les vrais méchants n’ont pas encore pensé.


Comment ça fonctionne ?

Cette technique permet aux chercheurs d’observer une activité Facebook simulée sur un prototype que la société a baptisé WW. Les chercheurs peuvent utiliser diverses techniques, y compris l’apprentissage automatique, pour collecter des données sur WW. Isolés de Facebook que la plupart d’entre nous voyons, les utilisateurs sont représentés par des robots alimentés par des algorithmes d’IA. Certains robots agissent comme des personnes ordinaires, mais d’autres se livrent à toutes sortes d’activités néfastes, comme la recherche d’utilisateurs innocents pour arnaquer. Cela montrera aux chercheurs où se trouvent les vulnérabilités et leur permettra d’introduire de nouvelles restrictions sur le comportement des utilisateurs et de voir comment les mauvais robots réagissent.

« Nous pouvons, par exemple, créer des robots IA réalistes qui cherchent à acheter des articles qui ne sont pas autorisés sur notre plate-forme, comme des armes à feu ou de la drogue », a précisé Mark Harman, chercheur sur Facebook, dans un article de blog portant sur le programme de simulation en ligne. A cet effet, il poursuit : « Parce que le bot agit dans la version de production réelle de Facebook, il peut effectuer des recherches, visiter des pages, envoyer des messages et prendre d’autres mesures tout comme une personne réelle. »


La plate-forme Westworld permet aux chercheurs de sortir du temps, en essayant des approches qui pourraient ne pas fonctionner sans de vrais utilisateurs pour faire face aux conséquences.

Il faut noter que le simulateur WW est polyvalent dans les types de problèmes qu’il peut modéliser. Les fraudeurs, par exemple, ont des modèles de comportement prévisibles par rapport à d’autres activités, telles que de faux comptes qui se font passer pour des personnes aux États-Unis mais sont en fait contrôlés depuis d’autres pays à l’instar du Ghana, du Malawi du Bénin sous la direction d’une agence de renseignement russe.

WW peut également s’attaquer à des situations subjectives, comme le contenu signalé pour abus des politiques communautaires de Facebook, les dealers en ligne etc… Fort est de constater que la WW ne peut pas appliquer les normes subjectives à elle seule. Mais il peut étudier comment les modérateurs ont traité les plaintes dans le passé et apprendre à appliquer les normes à grande échelle.

Le résultat final sera toujours “une approximation”, a déclaré Harman, ce qui signifie que les humains seront nécessaires pour s’assurer que les jugements sont corrects. L’IA seule ne suffit pas.

L’objectif final étant de trouver un mécanisme qui contrariera un utilisateur réel qui a une intention similaire. Facebook pense y parvenir dans un futur proche grâce à toute l’équipe de recherche à l’œuvre.


Si WW fonctionne bien, Facebook sera plus rapide sur le tirage au sort lorsqu’un nouveau méchant arrive sur le réseau et les utilisateurs pourront jouir paisiblement du réseau comme prévu. En général l’entreprise sera épargnée des dépenses en ressources énergétique, financière et humaine.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

1 × trois =