Facebook met en place une plateforme fantôme pour lutter contre les trolls et les arnaques

Facebook met en place une plateforme fantôme pour lutter contre les trolls et les arnaques

Les utilisations frauduleuses de Facebook sont toutes aussi nombreuses que le nombre d'utilisateurs du réseau social. Les critiques n'ont cessé ces dernières années de demander toujours plus au géant américain afin qu'il lutte frontalement contre les trolls, fake news ou autres arnaques en ligne. Désormais Facebook veut passer à la vitesse supérieure en créant une plateforme gérée par des robots. Celle-ci sera destinée à empêcher les gens d'abuser de son système. Le pari technologique est de créer un monde de robots pouvant imiter les comportements frauduleux. 

Dans le contexte actuel, la question des arnaques ou des trolls fait plus que jamais partie de l'actualité tech et au-delà. Fidèle à sa politique anti-censure, l'entreprise californienne a confié à ses chercheurs la mission de tester une plateforme dédiée - en gros un Facebook fantôme où des utilisateurs inexistants peuvent aimer, partager et se faire des amis (ou harceler, abuser et escroquer) à l'abri des regards humains. Ce programme de simulation sur le Web (WES) a permis de tester le système de Facebook au niveau de la fiabilité et intégrité des données partagées ainsi que de la protection de la vie privée.

Les chercheurs ont fait appel à plusieurs domaines d'étude, y compris les logiciels d'apprentissage automatique et les jeux assistés par intelligence artificielle. Ils ont dès lors mis en place un système où par exemple un robot "arnaqueur" peut être formé à interagir avec des robots "cibles" qui présentent des comportements similaires aux victimes réelles d'arnaques sur Facebook. D'autres robots peuvent être formés pour s'introduire dans la vie privée des faux utilisateurs ou rechercher des "mauvais" contenus qui enfreignent les règles de Facebook.

AI robot worship 02
Intelligence artificielle / © Phonlamai Photo/Shutterstock - Montage: AndroidPIT

Autre enseignement de cette étude est que les tests à partir de robots aident à détecter les bugs. Les chercheurs ont pour se faire utilisé la simulation pour créer des utilisateurs dont le seul but était de voler des informations à d'autres robots afin de les partager dans le système. Désormais, le réseau social pourra anticiper des mauvais agissements comme par exemple lorsque des escrocs accèdent aux données d'autres utilisateurs après une mise à jour. 

Dans le test, certains robots pouvaient obtenir un accès au "vrai" Facebook tant qu'ils n'accédaient pas à des données qui violaient les règles de confidentialité. Ils pouvaient alors réagir à ces données. Au sein de ce faux réseau à grande échelle, ils pouvaient également agir et faire des observation arbitraires. Les chercheurs mettent toutefois en garde contre le fait que "les robots doivent être convenablement isolés des utilisateurs réels pour garantir que la simulation, n'entraîne pas d'interactions inattendues entre les robots et les utilisateurs réels". Si les chercheurs limitent vraisemblablement ces interactions dans un faux réseau virtuel, c'est qu'ils veulent prévenir un éventuel impact catastrophique des actions des robots sur le réseau social. On reste donc encore loin d'un débat enflammé entre un homme et une machine voire d'une arnaque à la carte bleue menée par une intelligence artificielle qui aurait mal tourné.

Source : Research.FB

Derniers Articles sur NextPit

Recommandé par NextPit

2 Commentaires

Ecrire un nouveau commentaire :
Tous les changements seront sauvegardés. Aucun brouillon n'est enregistré pendant l'édition
Ecrire un nouveau commentaire :
Tous les changements seront sauvegardés. Aucun brouillon n'est enregistré pendant l'édition

  • Luna depuis 6 mois Lien du commentaire

    Si de vrais utilisateurs pour un comportement inapproprié se retrouve "punis" sur cette plateforme sans avoir été prévenu, c'est qu'il s'agit d'une attaque de Pishing de la part de Facebook, c'est donc un délit, un de plus sur cette plateforme où les comptes fantômes sont déjà plus nombreux que les vivants.


  • Ça expérimente, ça expérimente, jusqu'au moment où ils seront sûrs d'avoir réussi à créer une vraie intelligence artificielle, qu'ils s'empresseront de lâcher dans la nature. Car n'oublions pas que les gens qui dirigent ces entreprises n'ont pas plus de morale ni de scrupules que les politiciens qu'ils "arrosent"... Il n'y a plus qu'à espérer qu'ils sauront en garder le contrôle. Ah si seulement un jour une intelligence artificielle pouvait remplacer nos politiciens, ça nous éviterait sûrement bien des déboires, sanitaires, économiques et écologiques. Car qui pense qu'une intelligence artificielle au point pourrait faire pire que nos politiciens incompétents ? Et puis, finie la corruption. Sauf bien sûr si l'intelligence artificielle a été elle-même corrompue en étant programmée pour nous nuire. Dans ce cas, autant garder nos politiciens, avec eux au moins on a un infime espoir de les voir terminer en disgrâce ou en taule. (on a le droit de rêver 😏)

    Un cocu qui en a marre de l'être

    doumsCompte désactivé