16 de septiembre de 2025 – DALE COUNTY, Alabama – Agencias.
Dos niñas del condado de Dale, Alabama, y sus familias están demandando a la compañía de juegos en línea Roblox y a la plataforma de mensajería Discord. Alegan que las niñas fueron contactadas y manipuladas por depredadores sexuales a través de estas plataformas. La demanda argumenta que los protocolos de seguridad de Roblox no fueron suficientes para protegerlas.
El caso de una de las niñas, que ahora tiene 14 años, comenzó cuando ella tenía 11. Conoció a un usuario en Roblox que decía tener 15 años, pero que en realidad era un hombre. La demanda señala que este individuo la manipuló para que le enviara imágenes de carácter sexual a través de Discord, e incluso intentó reunirse con ella después de ser arrestado y advertido de no tener contacto con ella.
El abogado de las familias, Matthew Dolman, critica la falta de supervisión. Explica que los padres creen que una plataforma que se anuncia como segura para niños a partir de 6 años realmente lo es. Sin embargo, en la práctica, los adultos pueden hablar con los menores sin que haya una moderación efectiva o una segregación adecuada entre ambos grupos de usuarios.
Una segunda demanda, presentada el mismo día, involucra a otra niña de 12 años, también de Dale County. En su caso, conoció a varios depredadores sexuales en Roblox que la convencieron de enviarles imágenes explícitas de sí misma a través de Discord a cambio de “Robux”, la moneda virtual del juego. Ambas demandas buscan compensación monetaria y cambios sistémicos en la industria.
Dolman afirma que buscan forzar un cambio en toda la industria de los videojuegos en línea, ya que considera que hay muy poca supervisión y que Roblox no ha sido responsabilizado. La compañía, por su parte, ha anunciado actualizaciones en sus políticas de seguridad, incluyendo un plan para expandir la estimación de edad a todos los usuarios que usen las funciones de comunicación.
En respuesta a las demandas, un portavoz de Roblox declaró que la seguridad es su máxima prioridad y que tienen procesos para detectar comportamientos problemáticos, incluyendo tecnología avanzada y moderación 24/7. Reconocen que es un problema en toda la industria y están dedicando recursos para desarrollar estándares y soluciones que mantengan a los niños seguros en línea.