La entrevista que el CEO de Roblox, Dave Bazzucchi, concedió al podcast Hard Fork de The New York Times, comienza en tono casual. Pero la transición hacia los temas centrales —seguridad infantil, grooming, fallas en la moderación y responsabilidad corporativa— marca un cambio brusco. Y es precisamente en ese punto donde aparece una de las declaraciones más comentadas de todo el diálogo.
En medio de las preguntas sobre la nueva política de verificación por edad mediante escaneo facial, los periodistas Kevin Roose y Casey Newton plantean la cuestión más sensible para la plataforma:
“¿Qué los ha llevado a implementar esta nueva política de restricción por edad? ¿Y cómo ves el problema de los depredadores en Roblox?”
La respuesta del CEO sorprendió por su enfoque:
“No lo vemos necesariamente solo como un problema, sino también como una oportunidad.”
David Baszucki
Esa frase no solo evitó responder directamente sobre la presencia de depredadores sexuales en la plataforma; también desplazó el eje hacia un discurso de innovación, historia corporativa y crecimiento.
Bazzucchi no habló del riesgo, ni del impacto en menores, ni de las investigaciones y demandas que enfrenta Roblox. En su lugar, recordó los inicios de la empresa —cuando eran cuatro personas que moderaban manualmente el sitio— y destacó cifras de uso que describió como “mind-boggling”: 150 millones de usuarios activos diarios y 11 mil millones de horas de uso al mes.
El CEO insistió en que la empresa está aprovechando “oportunidades” para diseñar el “futuro de la comunicación juvenil”, y se centró en explicar por qué el escaneo facial con IA será un nuevo componente dentro de un ecosistema de señales que incluyen comportamiento, documentos y filtros internos.
Sin embargo, dentro de esa respuesta más amplia, no hubo reconocimiento explícito del problema de depredadores, ni evaluación de su alcance, ni detalle sobre fallas previas, ni referencia a los 20+ litigios federales por explotación sexual infantil que la compañía enfrenta en Estados Unidos.
Este momento marca el tono de toda la entrevista: preguntas directas sobre seguridad y daño infantil, seguidas de respuestas centradas en innovación tecnológica, escala, historia de la empresa y oportunidades futuras.
Demandas, investigaciones y por qué Roblox está en el centro del debate global de seguridad infantil
La entrevista no ocurre en un vacío. Roblox llega a esta conversación bajo una presión sin precedentes. Durante el último año, la plataforma ha enfrentado:
Lawsuits federales por explotación sexual infantil,
Demandas estatales en Louisiana, Kentucky y Texas,
Una investigación de la fiscalía de Florida,
Y una serie de reportajes que describen cómo adultos han contactado menores dentro de Roblox, ofreciéndoles Robux a cambio de contenido sexual o persuadiéndolos para migrar a plataformas externas como Discord, donde no existe ningún control interno.
Los periodistas Kevin Roose y Casey Newton mencionan explícitamente este contexto antes de comenzar con las preguntas duras. Hablan del “aumento de historias perturbadoras” y de cómo Roblox, a diferencia de otras redes sociales, permite el acceso desde cualquier edad sin un límite mínimo para crear una cuenta.
Esto importa porque, según cifras citadas en la misma entrevista:
Cerca del 40% de los usuarios de Roblox son menores de 13 años,
Y la plataforma alcanzó picos de 25 millones de jugadores simultáneos en juegos virales recientes.
Ante este escenario, la presión regulatoria no es casualidad. Estados y agencias buscan entender cómo es posible que, en una plataforma tan masiva y usada por niños, durante años adultos desconocidos pudieran enviar mensajes directos a menores sin ninguna verificación previa.
Moderación imposible: la escala como argumento central
Tras la polémica frase inicial, los entrevistadores intentan profundizar. Plantean una duda que aparece repetidamente en la entrevista:
¿Es técnicamente posible moderar una plataforma con este nivel de actividad?
Roblox, según Bazzucchi, maneja cifras que ningún otro juego o red social infantil ha gestionado jamás:
150 millones de usuarios activos diarios,
11 mil millones de horas de uso al mes,
Juegos dentro del catálogo con 25 millones de jugadores simultáneos,
Y un ecosistema global que supera la escala de cualquier título tradicional.
El CEO caracteriza esta escala como “mind-boggling”, es decir, de una magnitud que desborda la comprensión convencional.
Sin embargo, cuando los periodistas señalan que la escala no puede ser una excusa cuando hay niños vulnerables, Bazzucchi evita admitir fallas. En cambio, presenta la magnitud de Roblox como una oportunidad para “innovar más rápido” y evolucionar nuevas tecnologías de moderación basadas en IA.
La migración hacia otras plataformas: cuando el peligro empieza fuera de Roblox
Uno de los puntos que Hard Fork subraya es este:
Muchos casos de grooming comienzan en Roblox, pero los adultos luego persuaden a niños a moverse hacia:
Discord,
Snapchat,
O cualquier plataforma donde puedan enviar imágenes sin filtros.
Cuando los periodistas sugieren que Roblox debería detectar y bloquear intentos de compartir handles externos, Bazzucchi responde que ese es “un indicador básico” y que sus filtros ya lo manejan. Pero también admite que los depredadores han empezado a usar tácticas más complejas, como mensajes codificados o métodos criptográficos improvisados dentro del texto para compartir información sin ser detectados.
Aun así, el CEO insiste en que la plataforma está “constantemente mejorando” y que su objetivo es mantener la conversación dentro de Roblox para poder limitar lo que se comparte.
Verificación facial con IA: la nueva apuesta de Roblox
Una de las grandes novedades de la entrevista es la explicación del CEO sobre el nuevo sistema de age-gating. Ahora, para chatear dentro de Roblox, los usuarios deberán escanear su rostro.
Bazzucchi insiste en que la imagen no se almacena y que el escaneo es solo una señal más dentro de un sistema que también usa:
comportamiento en la plataforma,
documentos cargados por usuarios,
y edad declarada.
Dice que la IA “ha alcanzado el nivel” para ser confiable, y que verificaciones adicionales podrán hacerse de forma continua cuando detecten “señales raras”.
El choque por los recortes en Trust & Safety
Los periodistas también le preguntan sobre un reporte de Hindenburg Research, que acusó a Roblox de “sacrificar seguridad infantil para reportar crecimiento”, señalando una caída en el gasto en moderación.
Bazzucchi lo niega rotundamente y responde con dos ideas clave:
Hindenburg “ya ni existe”.
La reducción no es recorte, sino automatización: la empresa pasó de trabajo manual a sistemas de IA que —según él— revisan más contenido y con mayor calidad.
Los entrevistadores comparan esto con promesas fallidas de Facebook en 2016. Bazzucchi evita la comparación y vuelve al argumento de innovación.
Prediction markets: el desvío inesperado
En medio de un debate tenso sobre seguridad infantil, el CEO cambia completamente de tema: menciona que es fan de Polymarket, una plataforma de apuestas sobre eventos reales.
Incluso propone que sería interesante crear mercados de predicción dentro de Roblox, aunque admite que leyes de apuestas para menores lo vuelven complejo.
Los periodistas le responden, casi en broma, que sería “una idea horrible”. El CEO insiste en que podría ser “educativo”.
Pantallas, niños y la pregunta final: ¿será seguro Roblox?
Al final, la conversación regresa a la infancia y al bienestar digital. El CEO dice apoyar límites de pantalla “dependiendo de la hora y el tipo de actividad”, diferenciando entre: consumo a las 2 a.m. en solitario vs. juego social con amigos al mediodía.
La entrevista termina con la pregunta más directa de todas:
“Cuando mi hijo me pida jugar Roblox… ¿ya habrán resuelto los problemas de seguridad?”
El CEO no responde sí o no.
Ofrece acceso a métricas internas bajo un NDA y asegura que Roblox “ya es una plataforma increíble para tu hijo”.
Fuente:







