Comment Reddit a transformé ses millions d'utilisateurs en une armée de modération de contenu

Comment Reddit a transformé ses millions d'utilisateurs en une armée de modération de contenu L'un des problèmes les plus difficiles pour Reddit, la page d'accueil autoproclamée d'Internet, est de déterminer ce qui devrait et ne devrait pas apparaître dans leurs flux. En ce qui concerne la modération de contenu, qui est devenue un sujet de plus en plus médiatisé ces dernières années, Reddit adopte une approche différente par rapport aux autres grandes plateformes sociales. Contrairement à Facebook, par exemple, qui sous-traite une grande partie du travail à des fermes de modération, Reddit s'appuie fortement sur ses communautés (ou sous-reddits) pour se contrôler. Les efforts des modérateurs bénévoles sont guidés par les règles établies par chaque subreddit, mais aussi par un ensemble de valeurs créées et appliquées par Reddit. L'entreprise a cependant été critiquée pour ce modèle, que certains ont interprété comme du laisser-faire et un manque de responsabilité. Mais Chris Slowe, CTO de Reddit, dit qu'il s'agit d'une fausse déclaration complète. "Cela peut sembler fou de dire sur Internet aujourd'hui, mais les humains moyens sont plutôt bons. Si vous regardez Reddit à grande échelle, les gens sont créatifs, amusants, collaboratifs et amusants, tout ce qui fait fonctionner la civilisation », a-t-il déclaré à TechRadar Pro.« Notre approche sous-jacente est que nous voulons que les communautés établissent leurs propres cultures, politiques et les systèmes philosophiques. Pour que ce modèle fonctionne, nous devons fournir des outils et des capacités pour répondre aux minorités."

Une bête différente

Slowe a été le premier employé de Reddit, embauché en 2005 en tant qu'ingénieur après avoir loué deux chambres d'amis aux cofondateurs Steve Huffman et Alexis Ohanian. Les trois s'étaient rencontrés lors de la première exécution du désormais tristement célèbre programme d'accélérateur Y Combinator, qui a laissé à Slowe de bons souvenirs, mais aussi un démarrage bâclé et du temps à remplir. Bien qu'il ait pris une pause de Reddit entre 2010 et 2015, l'expérience de Slowe lui donne une perspective unique sur la façon dont l'entreprise s'est développée et sur la façon dont les défis auxquels il est confronté ont changé au fil du temps. Dans les premières années, dit-il, il s'agissait de développer l'infrastructure pour faire face à la croissance du trafic. Mais dans son deuxième mandat, de 2016 à aujourd'hui, l'accent s'est déplacé sur la confiance, la sécurité et la protection des utilisateurs. "Nous fournissons des outils permettant aux utilisateurs de signaler le contenu qui enfreint les politiques du site ou les règles définies par les modérateurs, mais tout n'est pas signalé. Et dans certains cas, le rapport dit qu'il est trop tard », a-t-il expliqué. "Quand je suis revenu en 2016, l'une de mes tâches principales consistait à déterminer exactement comment les communautés Reddit fonctionnent et ce qui rend un site sain. Une fois que nous avons identifié les symptômes malsains, nous travaillons à partir de là.

Reddit

(Crédit d'image: Reddit)

Contrôle automatique

Contrairement à d'autres plateformes sociales, Reddit a une approche en couches de la modération de contenu, conçue pour adhérer le plus possible à l'esprit « communauté d'abord » de l'entreprise. La forme la plus primitive de vérification du contenu est effectuée par les utilisateurs eux-mêmes, qui ont le pouvoir de voter pour les choses qu'ils aiment et n'aiment pas. Cependant, bien que ce processus stimule les publications populaires et écrase les publications impopulaires, la popularité n'est pas toujours un signe d'appropriation. Les mods communautaires agissent comme la deuxième ligne de défense et sont armés du pouvoir de supprimer les publications et d'interdire les utilisateurs qui enfreignent les directives ou la politique de contenu. La règle de subreddit la plus courante, selon Slowe, est essentiellement "ne soyez pas idiot". Le rapport de transparence annuel de la société, qui détaille tous les contenus supprimés de Reddit chaque année, suggère que les mods sont responsables d'environ les deux tiers de toutes les suppressions de messages. Pour détecter tout contenu nuisible manqué par les mods, il existe des administrateurs Reddit, qui sont directement employés par l'entreprise. Ces membres du personnel effectuent des vérifications ponctuelles manuelles, mais sont également armés d'outils technologiques pour aider à identifier les utilisateurs problématiques et à surveiller les interactions individuelles qui ont lieu en privé. "Nous utilisons un certain nombre de signaux pour faire ressortir les problèmes et déterminer si les utilisateurs individuels sont dignes de confiance et ont agi de bonne foi", a déclaré Slowe. « Le plus délicat, c'est que vous ne comprendrez jamais tout. Et c'est en partie parce que ça va toujours être un peu gris et ça va dépendre du contexte. "Lorsqu'on lui a demandé comment cette situation pourrait être améliorée, Slowe a expliqué qu'il était coincé dans une position difficile ; déchiré entre le désir d'appliquer une politique d'entreprise axée sur la communauté et la connaissance qu'il existe de futures technologies sur le marché qui pourraient aider à détecter un pourcentage plus élevé d'abus. Par exemple, Reddit commence déjà à utiliser des techniques avancées de traitement du langage naturel (NLP) pour mesurer plus précisément le sentiment des interactions des utilisateurs. Slowe a également noté la possibilité d'utiliser l'IA pour analyser les images publiées sur la plate-forme et a admis que davantage d'actions de modération se produiraient sans intervention humaine au fil du temps. Cependant, il a également mis en garde contre la faillibilité de ces nouveaux systèmes, qui sont sujets aux biais et certainement sujets aux erreurs, et aux défis qu'ils pourraient poser au modèle Reddit. « C'est un peu effrayant, en fait. Si nous parlons de cela comme d'un modèle d'application de la loi, c'est la même chose que de mettre des caméras littéralement partout et de compter sur des machines intelligentes pour nous faire savoir quand il y a un crime », a-t-il déclaré.

Reddit

(Crédit d'image: Reddit)

Quand les choses se corsent

La modération des contenus est un problème qu'aucun des géants des médias sociaux ne peut prétendre avoir résolu, comme en témoignent le débat sur les comptes de Donald Trump et l'interdiction de l'app store Talk. Reddit a également participé à ces conversations, prenant finalement la décision d'interdire le subreddit r/DonaldTrump. Aussi puissant que soit le modèle communautaire, il existe un conflit important au cœur de l'approche de Reddit. L'entreprise aspire à donner à ses communautés une autonomie quasi totale, mais est finalement obligée de prendre des décisions éditoriales sur l'endroit où tracer la ligne. "Je ne veux pas être l'arbitre méticuleux et arbitraire de ce qui est bien et de ce qui est mal", nous a dit Slowe. « Mais en même temps, nous devons pouvoir appliquer un ensemble de . C'est une ligne fine à marcher. Reddit essaie de garder sa politique de contenu aussi concise que possible pour éliminer les failles et faciliter l'application, mais les révisions sont courantes. Par exemple, le revenge porn a été banni de la plateforme en 2015 sous l'ancienne PDG Ellen Pao. L'année dernière, l'entreprise a ajouté une clause interdisant la glorification de la violence. "Rester fidèle à nos valeurs signifie également réitérer nos valeurs, les réévaluer à mesure que nous découvrons de nouvelles façons de déjouer le système et de repousser les limites", a expliqué Slowe. "Lorsque nous apportons un changement qui implique de déplacer les communautés sur toute la ligne, c'est la fin d'un long processus de recherche de failles dans notre politique de contenu et de retour à partir de là." Cependant, alors que la plupart conviendront que l'absence de revenge porn est un positif absolu et que l'incitation à la violence a eu lieu sur r/The_Donald, les deux exemples démontrent que Reddit devrait faire preuve de retenue dans la même veine que Facebook, Twitter ou tout autre. une autre plate-forme. Lorsque des questions difficiles doivent être posées, en d'autres termes, Reddit ne fait plus confiance à ses communautés pour répondre avec une réponse favorable.