Xbox présente son troisième rapport de transparence avec pour objectif de créer une expérience de jeu plus sûre
Xbox vient de publier son troisième rapport de transparence. Ce rapport partage des données et des informations qui détaillent les efforts entrepris par Xbox pour créer des expériences de jeu plus sûres. Il souligne notamment l’importance d’une surveillance humaine, combinée aux capacités évolutives de l’intelligence artificielle, pour assurer la sécurité des joueuses et des joueurs.
Xbox met tout en œuvre pour prévenir la toxicité avant qu’elle n’atteigne les joueurs et pour fournir une plateforme sûre et inclusive pour toutes et tous. Comme l’indique le rapport, 87 % (17 millions) du nombre total d’infractions détéctées au cours de la période analysée l’ont été grâce aux efforts de modération proactifs de Xbox.
Voici quelques-unes des principales conclusions du rapport, couvrant la période de janvier à juin 2023 :
Mettre en lumière l’utilisation responsable de l’IA pour prévenir la toxicité. Il s’agit notamment de Community Sift, notre plateforme de modération de contenu assistée par l’IA et guidée par les connaissances humaines, qui classe et filtre des milliards d’interactions humaines par an, ainsi que de Turing Bletchley v3, le modèle multilingue qui analyse les images générées par les utilisatrices et utilisateurs pour s’assurer que seul le contenu approprié est affiché.
De nouvelles perspectives sur les volumes de contenus bloqués. Pour mieux mesurer son succès, Xbox inclut un ensemble de données appelé “Toxicity Prevented” (Toxicité évitée). Au cours de la dernière période, plus de 4,7 millions de contenus ont été bloqués avant d’atteindre les joueuses et les joueurs, dont une augmentation de 135 000 (+39 % par rapport à la dernière période) dans le domaine de l’imagerie grâce à des investissements dans l’utilisation de Turing Bletchley v3.
Accent mis sur la lutte contre le harcèlement. Xbox s’efforce activement d’identifier et de traiter tout comportement abusif, y compris les discours haineux, l’intimidation et le harcèlement. Dans cette optique, Xbox a amélioré ses processus internes afin d’accroître ses efforts de contrôles proactifs en effectuant 84 000 contrôles en matière de harcèlement et d’intimidation (+95 % par rapport à la période précédente).
Comprendre le comportement des joueuses et des joueurs après l’application d’une sanction. Xbox saisit toujours l’opportunité d’en apprendre davantage sur la manière de favoriser une meilleure compréhension des normes de la communauté par les joueuses et les joueurs. Dans ce but, l’équipe a analysé le comportement des joueuses et des joueurs après avoir reçu une sanction. Les premiers résultats indiquent que la majorité des joueuses et des joueurs n’enfreignent pas les normes de la communauté après avoir reçu une sanction et s’engagent de manière positive avec la communauté.
Toutes les infos sur https://news.xbox.com/fr-fr/2023/11/07/le-troisieme-rapport-de-transparence-xbox-presente-levolution-de-notre-approche-en-matiere-de-creation-dexperiences-de-jeu-plus-sures/