Nous savions déjà que les faux commentaires étaient légion sur de nombreux sites de notation et de commentaires sur les restaurants, diffusés tout d’abord par des agences de communication qui emploient des informaticiens pour diffuser des bons (et faux) commentaires sur les établissements pour qui ils travaillent. De même on sait très bien que de nombreuses personnes laissent des faux commentaires négatifs sur des sites comme TripAdvisor sur des restaurants concurrents ou simplement pour se venger de quelques rancoeurs.
Maintenant dans l’univers du FAKE, attendons nous à voir arriver dans quelques années des faux commentaires créés de toutes pièces par des robots munis d’intelligence artificielle.
« NE PERDEZ PAS VOTRE TEMPS ET VOTRE ARGENT ! C’est le pire service que j’aie jamais vu. Cet endroit est une blague. La serveuse était malpolie et a dit que le responsable allait venir mais ce n’est jamais arrivé. J’aurais aimé pouvoir mettre zéro étoile. » … Ce commentaire, concernant un restaurant américain, n’a pas été écrit par un client mécontent, mais par un programme informatique.
Des chercheurs de l’université de Chicago ont publié en août le résultat de leurs travaux visant à générer automatiquement de faux commentaires, grâce à une technologie d’apprentissage automatique.
Ils ont pour cela « entraîné » leur programme sur une grande base de données de commentaires du site Yelp, contenant 4,1 millions de messages, rédigés par un million de personnes. En analysant ces commentaires, ce programme d’intelligence artificielle a appris à les imiter. Il peut s’adapter en fonction de l’établissement évalué, en ajoutant par exemple des noms de plats italiens pour un restaurant proposant cette cuisine.
Le programme peut aussi être réglé pour générer automatiquement des commentaires allant d’une étoile (mauvais) à cinq (très bon). « La nourriture est incroyable. Les portions sont gigantesques. Le bagel au fromage était cuit à la perfection et bien cuisiné, frais & délicieux ! Le service est rapide. C’est notre endroit préféré ! On y retournera ! », écrit par exemple ce programme avec une note de cinq étoiles.
Les chercheurs se sont concentrés sur les critiques de restaurants et affirment que les personnes à qui ces messages ont été présentés n’ont pas été capables de distinguer les faux commentaires des vrais. « Non seulement ces commentaires échappent à la détection humaine, mais ils obtiennent un bon score “d’utilité” de la part des utilisateurs », écrivent-ils. Le score que leur ont attribué en moyenne les humains est de 3,15 sur 5 ; contre 3,28 pour les commentaires authentiques.
Les faux commentaires ne sont pas un problème nouveau pour les plates-formes comme Yelp, Amazon ou TripAdvisor. Mais ceux-ci sont généralement écrits par des personnes payées pour nuire à une entreprise ou, au contraire, la valoriser.
Les plates-formes se battent avec difficulté contre ce genre de contenus, à l’aide de leurs modérateurs humains, mais aussi de programmes informatiques censés les repérer – notamment en détectant des augmentations étranges du rythme de publications lors du lancement d’une campagne de faux commentaires.
Les programmes d’intelligence artificielle pourraient représenter une aubaine pour les falsificateurs. Ces systèmes « pourraient se montrer bien plus puissants, parce qu’ils peuvent être déployés à grande échelle (pas besoin de payer à la tâche un humain) et être plus difficiles à détecter, puisque les programmes peuvent contrôler le rythme de génération de commentaires », poursuivent les chercheurs dans leur article.
Pour retrouver la suite de l’article cliquez ICI