Redacción.- Un reciente informe ha revelado preocupantes prácticas dentro de la popular plataforma de juegos Roblox, incluyendo la aparición de contenido inapropiado accesible para niños y la utilización de la plataforma para fines ilícitos.
Se identificaron 900 variaciones del nombre Jeffrey Epstein y 600 resultados al buscar juegos relacionados con «Diddy», títulos que incluían nombres como Diddy Party, Run from Diddy Simulator y Escape to Epstein Island. A pesar de los controles de seguridad, los usuarios con cuentas infantiles (menores de 13 años) pudieron acceder a contenido para adultos, lo que evidencia una falla en los filtros de la plataforma.
Según las cifras de Roblox, 21% de los usuarios tienen menos de nueve años, lo que subraya la gravedad del acceso a este tipo de contenido inapropiado por menores.
El informe destaca que Roblox reportó más de 13,000 incidentes de explotación infantil al Centro Nacional para Niños Desaparecidos y Explotados en 2023. Investigadores también identificaron redes que usaban la plataforma para intercambiar pornografía infantil y solicitar favores sexuales.
El reporte hace referencia a incidentes perturbadores de grooming (manipulación de menores). En 2018, un hombre de 29 años en Gales fue arrestado por manipular a 150 niños a través del juego. En Nueva Jersey, otro hombre fue condenado por secuestrar a una niña de 11 años que conoció en la plataforma.
Respuesta de Roblox
Roblox ha rechazado las acusaciones del informe. En una declaración, la empresa enfatizó que la seguridad es una prioridad desde sus inicios. «Invertimos fuertemente en nuestros esfuerzos de confianza y seguridad,» aseguró un portavoz de la compañía.
Matt Kaufman, jefe de seguridad de Roblox, reafirmó: «Trabajamos incansablemente para mantener a nuestros usuarios seguros y estar vigilantes ante actores malintencionados.» La plataforma asegura que solo 0.0063% del contenido fue marcado por violar sus políticas sobre bullying, discurso de odio o extremismo violento.
Roblox ha implementado un conjunto de medidas proactivas para detectar y prevenir actividades dañinas dentro de la plataforma. Sin embargo, los incidentes documentados y el acceso a contenido inapropiado reflejan desafíos significativos en la moderación del contenido, especialmente considerando la gran base de usuarios jóvenes.