Con una comunidad en crecimiento de más de 3 mil millones de jugadores en todo el mundo, continuar invirtiendo en confianza y seguridad es fundamental para fomentar un entorno en línea seguro e inclusivo. Proteger a los jugadores de daños es una función integral del equipo de Seguridad de Xbox y del trabajo que hacemos. Los jugadores no suelen ver ni conocer todas las medidas de moderación de contenido que funcionan en segundo plano y que ayudan a que su experiencia sea más segura y acogedora. Hoy, publicamos nuestro segundo Informe sobre transparencia de Xbox, que detalla los esfuerzos continuos para proteger mejor a nuestros jugadores e ilustra nuestras medidas de seguridad en acción.

Nuestro paquete de seguridad multifacético incluye nuestros esfuerzos de moderación proactivos y reactivos, Estándares de la comunidad, controles familiares y de crianza, como la aplicación de Configuración familiar de Xbox, y nuestro trabajo continuo con socios de la industria y reguladores. Nuestras inversiones críticas en moderación de contenido combinan IA y tecnologías impulsadas por humanos para capturar y filtrar contenido antes de que llegue e impacte a los jugadores. Usamos una variedad de medidas que nos brindan la escala, la velocidad y la amplitud para mantenernos al día con las crecientes interacciones y actividades de nuestros jugadores. Como se señaló en el Informe sobre la Transparencia, 80 % (8.08 millones) del total de las ejecuciones durante este periodo se debió a nuestros esfuerzos de moderación proactiva. Los datos articulan el impacto de este enfoque.

A medida que las necesidades de los jugadores continúan evolucionando, también lo hacen nuestras herramientas. La seguridad de nuestros jugadores es una prioridad principal, y para promover experiencias en línea seguras, continuaremos invirtiendo en innovación, trabajando en estrecha colaboración con socios de la industria y reguladores, y recopilando comentarios de la comunidad. Esperamos compartir más.

Entre los puntos clave del informe se encuentran:

  • Las medidas proactivas son un factor clave para que las experiencias de los jugadores sean más seguras. En este periodo, el 80% del total de nuestras ejecuciones emitidas fue el resultado de nuestros esfuerzos de moderación proactiva. Nuestro enfoque de moderación proactiva incluye medidas tanto automatizadas como humanas que filtran el contenido antes de que llegue a los jugadores. Las herramientas automatizadas, como Community Sift, funcionan en texto, video e imágenes y detectan contenido ofensivo en milisegundos. Tan solo en el último año, Community Sift evaluó 20 mil millones de interacciones humanas en Xbox. También detectó y aplicó medidas proactivas contra el 100 % de la manipulación de cuentas, piratería, phishing y cuentas fraudulentas o no auténticas.
  • Mayor atención al contenido inapropiado. Sabemos que las necesidades de nuestros jugadores evolucionan constantemente y seguimos escuchando los comentarios de los jugadores sobre lo que es aceptable o no en la plataforma, de acuerdo con nuestros Estándares de la comunidad. Durante este último periodo, aumentamos nuestra definición de contenido vulgar para incluir gestos ofensivos, contenido sexualizado y humor crudo. Este tipo de contenido generalmente se considera de mal gusto e inapropiado, lo que resta valor a la experiencia de juego principal de muchos de nuestros jugadores. Este cambio de política, junto con las mejoras en nuestros clasificadores de imágenes, ha resultado en un aumento de 450 % en la aplicación de contenido vulgar, con un 90.2 % moderado de forma proactiva. Estas medidas a menudo dan como resultado la eliminación del contenido inapropiado, lo que se refleja en el aumento del 390 % en las medidas “solo de contenido” en este periodo de tiempo.
  • Énfasis continuo en las cuentas no auténticas. Nuestra moderación proactiva, 16.5 veces superior a la del mismo periodo del año pasado, nos permite detectar contenido y conductas negativas antes de que lleguen a los jugadores. El equipo de seguridad de Xbox emitió más de 7.51 millones de ejecuciones proactivas contra cuentas no auténticas, lo que representa 74 % de las ejecuciones totales en el periodo del informe (frente a 57 % del último perido del informe). Las cuentas no auténticas suelen ser cuentas automatizadas o creadas por bots que crean un campo de juego desigual y pueden restar valor a las experiencias positivas de los jugadores. Seguimos invirtiendo y mejorando nuestra tecnología para que los jugadores puedan tener experiencias seguras, positivas y atractivas.

En todo el mundo, nuestro equipo continúa trabajando en estrecha colaboración con socios clave de la industria para colaborar en nuestro enfoque de seguridad, incluida una mayor educación y mejora de nuestras medidas de seguridad para superar los estándares:

Juntos, estamos creando una comunidad donde todas las personas pueden divertirse. Cada persona, ya sea que juegue por primera vez o sea un profesional experimentado, desempeña un papel en la construcción de una comunidad más positiva y acogedora para todos. Los comentarios e informes de los jugadores nos ayudan a mejorar nuestras funciones de seguridad. Si notas algo inapropiado, repórtalo. ¡Te necesitamos para lograrlo!

Shares: