By Philidia on mardi 24 octobre 2017
Category: News

L'IA des sanctions de Riot trompée par une "prise d'otages"

 
Après le départ de Lyte, pour ceux qui s'en souviennent, il y a eu une période de vide pendant laquelle on ne savait plus grand chose des systèmes liés au comportement des joueurs. Puis, est arrivé Tantram, un Rioter qui a repris sur les forums le rôle de Lyte. Informations se sont alors mises à circuler de nouveau, mais Tantram est aussi beaucoup concentré sur le "smiting", un nom donné à la pratique consistant à dévoiler plus de détails sur des sanctions et sur les historiques de joueurs, montrant parfois les mensonges de certains, ou une mauvaise foi considérable.
 
Inutile de dire que les joueurs se plaignant de leur sanction, l'ont souvent bien mérité, et que même les cas controversés trouvent une réponse lorsque Tantram passe. Et elle n'est que rarement en faveur du condamné. Pourtant, c'est bien d'une erreur en faveur du condamné dont nous allons parler cette fois...
 
La "prise d'otage"
 
Dans la sélection des champions, un joueur a signalé ceci : "Mon nom est neck yourself. Si vous le dites 4 fois pendant la partie alors je vous promet de quitter votre lane et de ne pas feed". Une demande inhabituelle, mais le condamné a malgré tout choisi de ne pas quitter la sélection, puisqu'il s'agissait d'une promotion, signifiant qu'il aurait automatiquement une défaite en le faisant. Neck yourself est un équivalent de "Kys" (Kill yourself), qui signifie lui-même "Suicide-toi". Une chose pas franchement positive, et qui, des antécédent vu sur le forum, vaut la plupart du temps un ban de 15j, même si vous n'avez pas reçu de condamnation par le passé. Le condamné a d'ailleurs reçu un ban de 15j, ici, sans en avoir eu par le passé.
 
Pousser les joueurs à dire des choses sanctionnables
 
Le piège, évidemment, se trouve dans la phrase à répéter. Après avoir forcé ses victimes à dire ça, celui qui les a forcé à le faire les signale à la fin de la partie. Le problème, c'est que ce genre de phrase fait partie des "0 tolérance" de Riot, d'où le ban de 15j direct. Et ce joueur est tombé en plein dedans, en répétant une phrase qui lui vaudra la sanction. Contacté par nos soins, Riot nous a indiqués que les joueurs usant de cette pratique s'exposent à un ban définitif sans préavis. Par ailleurs, ceux ayant été victime de cette pratique peuvent contacter le support, qui devrait avoir connaissance du problème, et annuler une sanction liée à ça, ce qui vous permettra de récupérer votre compte, et votre niveau d'honneur, ce dernier tombant à 0 avec la sanction. Tantram de son côté, a signalé travailler sur une solution à cette pratique nuisible, indiquant qu'il est également facile de repérer les joueurs l'utilisant pour les sanctionner.
 
L'avis de Philidia :
 
Après que l'IA ait pu être trompée par un joueur s'insultant lui-même (Et le cas était sujet à débat, car il s'agissait néanmoins d'insultes qui avaient gêné les autres joueurs de l'équipe), voilà une pratique très nuisible capable de manipuler des personnes pour les amener à se faire sanctionner. Là encore, ce n'est pas quelque chose de trop impressionnant, dans la mesure où il s'agit d'un contexte particulier, issus d'un comportement sanctionnable à la base. Mais il est toujours intéressant de voir qu'on peut tromper une IA de manière contextuelle. L'intérêt reste ici limité. L'auteur de la pratique n'en tire aucun avantage, et y perdra même son compte. Qui plus est, Tantram peut faire en sorte que l'IA comprenne ce qu'il se passe à l'avenir. Tant mieux pour cette fois, mais on peut voir une chose récurrente. Une IA peut apprendre en étant bien configurée, et celle de Riot est capable de comprendre le sens de certains termes, de savoir si quelqu'un a été toxique dans une partie, et de déterminer si l'ambiance de la partie était bonne ou mauvaise. Mais le facteur humain peut apporter des contextes que l'IA ne connaît pas, et qu'elle ne saura pas gérer correctement. C'est le cas ici. Configurée comme elle l'était, l'IA a sanctionné un joueur qui demandait à une autre de se suicider. Un fonctionnement normal, puisqu'elle a été conçue pour détecter et sanctionner ces comportements, mais injuste pour le contexte dans lequel les phrases ont été prononcées. Un signe de plus que le chemin vers des IA autonomes et justes dans tous les contextes sera encore long.
 
Leave Comments