Définition et application de nos politiques
Nous avons établi des règles strictes avec pour objectif que les avis se fondent sur des expériences bien réelles et d’éviter que des commentaires illicites, non pertinents ou irrespectueux soient publiés sur les fiches d’établissement Google.
Notre monde évolue, il est donc logique que nos politiques et nos protections en fassent autant. Nous veillons donc à mettre en place des moyens dans le but de préserver les lieux et les entreprises des contenus illicites, abusifs ou inappropriés dont ils pourraient être la cible. Par exemple, quand les autorités et les établissements ont demandé une attestation de vaccination contre le COVID-19 pour entrer dans certains lieux, nous avons pris des mesures supplémentaires pour retirer les avis Google critiquant les entreprises sur leur conformité aux mesures en vigueur.
Quand une nouvelle règle est adoptée, elle est transmise à nos opérateurs, mais aussi aux algorithmes d’apprentissage automatique. Nos équipes peuvent alors repérer les contenus interdits et soumis à des restrictions.L’apprentissage automatique dans la modération des avis sur Google Maps
Notre système de modération automatique est le moyen pour nous de veiller à ce que les avis n'enfreignent pas notre règlement. Ce système est, en quelque sorte, notre agent de sécurité, si ce n’est qu’au lieu d’interdire l’accès d’un bâtiment aux personnes non autorisées, notre équipe s’efforce d’empêcher la publication de contenus indésirables sur Google.
Comme nous recevons un grand nombre d’avis, nous nous sommes rendus compte que nous avions besoin à la fois de l’analyse humaine, pour la finesse de son évaluation, mais aussi de l’apprentissage automatique (ou machine learning), pour sa capacité en matière de volume. L’un et l’autre présentent des avantages différents pour la modération de contenu, d’où nos investissements substantiels dans le développement de ces deux solutions.
L’apprentissage automatique (ou le machine learning) constitue notre première ligne de défense parce qu’il identifie efficacement les schémas qui se répètent. Nos systèmes peuvent donc, dans de nombreux cas, déterminer si un contenu est légitime et supprimer la grande majorité des contenus indésirables et frauduleux avant même qu’ils ne soient consultés.
Nos systèmes automatiques évaluent les avis sur Google en examinant plusieurs aspects :
- Le contenu : est-il interdits ou soumis à des restrictions ?
- Le compte : le compte Google de l’utilisateur est-il déjà lié à des activités suspectes ?
- Le lieu lui-même : a-t-il déjà été le théâtre d’activités inhabituelles, telles que la publication d’un grand nombre d’avis en peu de de temps ? A-t-il déjà attiré l’attention de la presse ou des réseaux sociaux d’une manière qui pourrait inciter le public à publier de faux avis ?
Entraîner une machine à discerner les contenus acceptables de ceux qui enfreignent notre règlement est un processus complexe. Par exemple, le mot « gay » peut parfois être utilisé de manière péjorative ou néfarive, ce que nous ne tolérons pas dans les avis Google. Nous enseignons ainsi à nos modèles d’apprentissage automatique comment discerner si ce mot n’est pas utilisé dans un contexte négatif, et éviter par exemple le retrait d’avis faisant la promotion d’un lieu qui s’identifie comme un « safe space » pour la communauté LGBTQ+. Nos modérateurs humains effectuent donc régulièrement des tests qualité et prennent des mesures supplémentaires pour éliminer les biais dans les modèles d’apprentissage automatique. En entraînant nos modèles à repérer les nuances dans l’usage de certains mots ou expressions, nous améliorons notre capacité à identifier les contenus qui enfreignent notre règlement et nous réduisons les risques de supprimer les avis légitimes.
Si nos systèmes ne détectent aucune violation du règlement, les avis peuvent être mis en ligne en quelques secondes. Mais notre travail ne s’arrête pas là. Nos systèmes continuent d’analyser en permanence le contenu des commentaires à la recherche de comportements suspects, comme l’apparition d’avis de plusieurs personnes sur des établissements ayant un profil commun, ou d’un nombre anormalement élevé d’avis très négatifs ou très positifs pour un même lieu, sur une courte période.
Veiller à l’authenticité et à la fiabilité des avis
Comme toute plateforme participative, nous devons rester vigilants afin lutter contre l’apparition de fraudes et de dérives sur Google Maps. Pour cela, il faut notamment permettre aux utilisateurs de signaler facilement les avis qui enfreignent les règles. Si vous pensez avoir vu un avis contraire au règlement sur une plateforme Google, nous vous encourageons à le signaler à notre équipe. Les entreprises peuvent signaler les avis sur leur profil
sur cette page, et les consommateurs peuvent le faire
sur celle-ci.
Chaque jour, notre équipe de modérateurs examine le contenu signalé. Lorsque nous trouvons des avis qui enfreignent nos règles ou les règles de droit local, nous les supprimons de Google. Dans certains cas, nous pouvons être amenés à suspendre le compte d’un utilisateur, voire à engager des poursuites judiciaires.
Outre l’examen des contenus signalés, notre équipe travaille de manière proactive pour tenter d’anticiper d’éventuels actes de malveillance et les déjouer. Par exemple, en amont d’un événement très suivi, comme une élection, nous renforçons la surveillance des avis concernant les lieux associés à l’événement et des entreprises situées à proximité, qui pourraient faire l’objet d’une recherche sur Maps. Nous continuons à surveiller les avis sur ces lieux et ces entreprises jusqu’à ce que le risque de dérives ait disparu, conformément à notre objectif de publier uniquement des avis licites, authentiques et fiables. En investissant dans l’analyse et la compréhension des potentiels détournements du contenu ajouté par les utilisateurs, nous avons pu garder une longueur d’avance sur les acteurs malveillants.
Tous les mois, plus d’un milliard de personnes utilisent Google Maps pour naviguer et explorer. Nous voulons agir pour la fiabilité des informations affichées, notamment des avis. Notre mission n’est jamais terminée : nous améliorons en permanence notre système et nous luttons, à chaque instant, contre les dérives sur Google Maps, en commençant par les faux avis.