Diferentes estudios mostraron que la toxicidad y el nivel de brutalidad de los videojuegos online aumentaron en los últimos años, especialmente con ataques dirigidos a mujeres, miembros de la comunidad LGBITQ+ y personas de color.
Desde hace mucho tiempo la publicidad fomentaba acciones como hacer llorar al rival e incluso otras situaciones peores, no obstante ayudaron a fomentar una idea negativa de ver la competencia y el juego online, que además es contagiosa debido al anonimato porque depende de tantos factores como personas que juegan.
Esta semana, dos videojuegos diferentes de Riot Games volvieron a poner el tema en debate con características que buscan darles más comodidades a los usuarios, para que intentar jugar una partida no se convierta en una experiencia dañina.
“Aunque el chat general puede ser la fuente de una divertida interacción social entre equipos, así como de bromas bien intencionadas, ahora mismo las interacciones negativas superan a las positivas”, explicaron desde el estudio para deshabilitar el chat general en las partidas emparejadas de League of Legends.
La productora de VALORANT, Sara Dadafshar, también mencionó esta semana que están evaluando incorporar una Lista de Bloqueos al shooter para que los jugadores y jugadoras tengan la posibilidad de marcar a aquellos players que hicieron comentarios dañinos o tuvieron conductas tóxicas en las partidas, se lee en el artículo titulado: Toxicidad en los videojuegos: ¿qué hacen los estudios para combatir su avance?, publicado el 17 de octubre en Infobae.
Se agrega que Dadafshar también remarcó por qué es difícil implementar herramientas para combatir la toxicidad: así como un jugador con buenas intenciones puede denunciar a otro, los players tóxicos pueden llegar a usar este nuevo apartado para denunciar a quien quieran. En otras palabras, podría rápidamente convertirse en otra herramienta que fomente la toxicidad.
Por otro lado Valve, la empresa detrás de CS:GO, mostró en diciembre de 2020 los resultados de su inteligencia artificial Minerva, la cual fue diseñada para analizar todas y cada una de las denuncias hechas por jugadores, revisó más de mil 400 millones de chats in-game, baneó a más de 100 mil jugadores y asegura haber reducido la cantidad de mensajes tóxicos en un 62%, detalla el artículo.
En diciembre de 2020 también se anunció una actualización de Minerva para que también pueda analizar los chats de voz, pero solo revisa las partidas y a los jugadores denunciados por otros.
Crear una herramienta así es un proceso mucho más complejo que se tiene que dar en estudios ya sobrecargados de trabajo. No siempre tienen como prioridad estos temas, a pesar de que la toxicidad es una de las principales razones que argumentan los jugadores que abandonan títulos como League of Legends, Overwatch y más.
Varios estudios de videojuegos o empresas como Xbox suelen fomentar ambientes inclusivos y diversos que debaten estos temas y los tratan con respeto en los eventos que hacen para millones de personas, no obstante algunos de esos estudios también fueron denunciados por prácticas laborales tóxicas y ambientes de trabajo dañinos.