Les joueurs toxiques qui aiment harceler les autres par le biais de communications dans le jeu vont connaître un réveil tout aussi désagréable.

En tant que créateurs et éditeurs de certains des meilleurs jeux coopératifs, Ubisoft et Riot Games ne sont pas étrangers à devoir faire face à des joueurs toxiques. Heureusement, les deux sociétés ont uni leurs forces pour Zero Harm In Comms (ouvre dans un nouvel onglet), un partenariat de recherche visant à lutter contre les mauvais comportements en ligne. Le projet utilisera la technologie de l'intelligence artificielle pour suivre, traiter et enseigner aux robots comment identifier les cas d'intimidation en ligne afin de "promouvoir des expériences sociales plus enrichissantes et de prévenir les interactions nuisibles".

Les gamers mal élevés ne pourront plus se cacher derrière l'anonymat de leurs claviers. L'association de recherche vise à créer un système où les informations sur les joueurs fautifs seront stockées puis partagées à travers l'industrie dans une base de données.

Tres personajes del Proyecto Q se pelean en un parque

(Crédit d'image: Ubisoft)

Ça y est

Vous avez probablement entendu le terme « toxique » utilisé pour décrire certains types de joueurs en ligne. Qu'il s'agisse de techniques de jeu spécifiques qui sont désapprouvées par la foule générale des joueurs ou d'un cas de véritable abus ou d'intimidation, il est difficile de mettre un visage sur un nom d'écran à l'ère de l'anonymat en ligne.

Bien que des logiciels anti-triche aient été introduits dans de nombreux grands jeux PvP en ligne, ils n'ont pas tendance à remarquer quand les joueurs nuisent activement aux autres joueurs avec leurs paroles. L'espace étroit entre les jurons et l'intimidation est souvent rempli par le genre de trolls que vous vous attendez à trouver uniquement dans les contes de fées.

Reyna y Jett de Valorant

(Crédit image : Riot Games)

je chatbot

Dans l'annonce d'Ubisoft Le Forge, le PDG Yves Jacquier exprime son empathie (ouvre dans un nouvel onglet) pour les joueurs qui se retrouvent dans ces situations désastreuses. "Le comportement perturbateur des joueurs est un problème que nous prenons très au sérieux, mais qui est également très difficile à résoudre", dit-il, faisant référence à la façon dont les systèmes en place échouent continuellement à identifier et à punir les utilisateurs pour leur mauvaise conduite. "Nous pensons qu'en nous unissant en tant qu'industrie, nous serons en mesure de résoudre ce problème plus efficacement."

Et ils se réuniront, comme le dit le PDG de Riot Games, Wesley Kerr. "Nous nous engageons à travailler avec des partenaires de l'industrie comme Ubisoft qui croient en la création de communautés sûres", a-t-il déclaré. Ce partenariat avec Ubisoft n'est qu'un exemple de "l'engagement et du travail plus larges [de Riot Games] pour développer des systèmes qui créent des interactions saines, sûres et inclusives".

Le logiciel d'intelligence artificielle fonctionnera en prenant les journaux de discussion sur toute la gamme de jeux Ubisoft et Riot et en supprimant toutes les instances d'informations sensibles avant d'être étiquetées en fonction du comportement affiché. Toutes ces données seront collectées pour mieux préparer les robots IA à détecter les joueurs qui enfreignent les directives de la communauté.

Bien sûr, certains jeux ont fait des progrès dans la lutte contre les mauvaises manières dans leurs jeux individuels, mais se faire enlever votre équipement au milieu de Call of Duty : Modern Warfare 2 ne semble pas assez menaçant, le fait que des centaines de personnes lisent mal vos commentaires , j'espère que cela incitera les joueurs peu recommandables à réfléchir à deux fois avant de s'exprimer dans les discussions d'après-match.

Share