Qué ha aprobado exactamente el Parlamento Europeo
El 26 de noviembre de 2025, el Parlamento Europeo aprobó una resolución sobre la protección de menores en línea. Es un texto político, no una ley, pero marca la posición oficial de la Eurocámara y presiona a la Comisión Europea para que legisle en esa dirección.
La resolución plantea tres niveles de acceso a redes sociales, plataformas de vídeo y ciertos servicios de inteligencia artificial dirigidos al público general:
Menores de 13 años: veto total. No deberían tener cuentas en redes sociales ni acceso a “compañeros de IA” de uso general.
De 13 a 16 años: acceso únicamente con consentimiento explícito de madres, padres o tutores.
A partir de los 16 años: acceso “pleno”, siempre dentro de los marcos de la normativa europea (como el Reglamento General de Protección de Datos o la Ley de Servicios Digitales).
El texto fue aprobado por una amplia mayoría (483 votos a favor, 92 en contra y 86 abstenciones), lo que indica un consenso político creciente en torno a que la autorregulación de las plataformas no es suficiente.
No es ley… todavía
Es importante subrayarlo:
La resolución no cambia directamente las reglas de uso de redes sociales en los países de la UE.
Para que haya cambios reales, la Comisión Europea tendría que presentar una propuesta legislativa, que luego se negocia con el propio Parlamento y con los Estados miembros.
Aun así, estas resoluciones suelen funcionar como “hojas de ruta”: marcan el tono político y anticipan hacia dónde puede ir la regulación en los próximos años.
Por qué ahora: la preocupación por la salud mental adolescente
La resolución llega en un contexto de alarma social por el impacto de las plataformas digitales en la salud mental y el bienestar de niñas, niños y adolescentes.
En el debate previo se citaron datos que apuntan a:
Un aumento de la ansiedad, la depresión y los problemas de sueño en menores, asociado al uso intensivo de pantallas y redes sociales.
Patrones de uso del smartphone que se parecen cada vez más a conductas adictivas. Un borrador previo del informe mencionaba que uno de cada cuatro menores presenta un uso “problemático” o “disfuncional” del smartphone.
Los eurodiputados no se limitan a decir que las redes “no son buenas” para los adolescentes. Lo que señalan es que los riesgos se multiplican cuando el modelo de negocio de estas plataformas está construido sobre:
Retener la atención el mayor tiempo posible.
Recolectar datos de comportamiento para alimentar sistemas de recomendación y publicidad personalizada.
Maximizar la interacción, aunque eso suponga exponer a los menores a contenido extremo, polarizante o directamente dañino.
No es solo cuestión de edad: el diseño adictivo en el punto de mira
Un punto clave de la resolución es que no se queda en “subamos la edad y listo”. También pide actuar sobre las características de diseño más adictivas de estas plataformas cuando se trata de menores.
Entre las prácticas que los eurodiputados quieren limitar o prohibir para usuarios menores de edad están:
El scroll infinito y el autoplay de vídeos, que eliminan cualquier pausa natural y fomentan sesiones muy largas.
Los sistemas de recomendación basados únicamente en el engagement (lo que más engancha), que pueden empujar a menores hacia contenido cada vez más extremo.
Las mecánicas tipo casino en videojuegos y plataformas de juego: loot boxes, recompensas aleatorias, rachas y otros mecanismos que se parecen a las apuestas.
La publicidad personalizada y las técnicas de microsegmentación dirigidas específicamente a menores.
El Parlamento subraya que estas características no son neutrales: forman parte del modelo de negocio de muchas plataformas y aprovechan deliberadamente la vulnerabilidad y la impulsividad de la infancia y la adolescencia.
IA, deepfakes y “compañeros virtuales”
Otro elemento novedoso de la resolución es que mira más allá de las redes sociales tradicionales y entra de lleno en el terreno de la inteligencia artificial generativa.
El texto menciona, entre otros:
Los llamados “compañeros de IA”: chats conversacionales o aplicaciones que simulan relaciones de amistad, pareja o apoyo emocional con menores.
Herramientas que permiten generar deepfakes, desnudos falsos o contenido sexualizado de personas reales, incluidos menores.
Aplicaciones capaces de imitar voces, rostros o identidades, con el riesgo de fraude, suplantación o acoso.
La preocupación central es que estos sistemas pueden convertirse en:
Vías adicionales para el grooming, el acoso o la explotación sexual.
Fuentes de presión emocional y dependencia, especialmente en adolescentes que buscan validación o compañía.
Por eso, el Parlamento pide reforzar la supervisión de estas aplicaciones, exigir mayores garantías de verificación de edad y asegurar que las herramientas de IA respetan la normativa europea ya vigente (como la Ley de IA y el Reglamento de Servicios Digitales).
Qué están haciendo otros países: el caso de Australia
La resolución europea no aparece en el vacío. Forma parte de una tendencia global hacia restricciones más severas del acceso de menores a redes sociales y plataformas digitales.
Uno de los ejemplos más citados es Australia:
En 2024 el Parlamento australiano aprobó la Online Safety Amendment (Social Media Minimum Age) Bill 2024, que fija una edad mínima de 16 años para tener cuentas en determinadas redes sociales.
La ley entra en vigor en diciembre de 2025 y obliga a plataformas como YouTube, Instagram, TikTok, Snapchat, X, Facebook, Threads o Reddit a eliminar las cuentas de menores de 16 y evitar que creen nuevas.
No se sanciona a niñas, niños ni familias: los responsables son las empresas tecnológicas, que pueden enfrentarse a multas de hasta 50 millones de dólares australianos si no toman “medidas razonables” para impedir que menores de 16 usen sus servicios.
Al mismo tiempo, organizaciones de derechos humanos, académicos y grupos de jóvenes han advertido de posibles efectos secundarios:
Desplazamiento hacia plataformas menos visibles o menos seguras, fuera del radar de las autoridades.
Riesgo de aislar a adolescentes vulnerables, para quienes las comunidades online pueden ser una fuente clave de apoyo.
Para Europa, estos debates son una especie de laboratorio: permiten observar qué funciona, qué no y qué matices son necesarios antes de aprobar leyes similares a escala de la UE.
Qué significa todo esto para madres y padres en América Latina
Si vives en América Latina, es probable que te preguntes:
“¿Y esto qué tiene que ver conmigo si ni siquiera vivo en Europa?”
La respuesta corta es que la Unión Europea lleva años funcionando como una especie de “potencia regulatoria” en temas digitales. Muchas grandes plataformas ajustan sus servicios a los estándares europeos y luego exportan esos cambios al resto del mundo.
En la práctica, esto puede implicar que:
Veamos más sistemas de verificación de edad, sobre todo en productos globales.
Se generalicen configuraciones por defecto más restrictivas para cuentas de menores.
Se abra el debate en nuestros países sobre subir la edad mínima y limitar ciertas funcionalidades adictivas.
Pero hay otro plano más importante desde la crianza digital:
Incluso aunque no cambie una sola ley en tu país, estas discusiones visibilizan que el problema no es solo “tiempo de pantalla”, sino el diseño de las plataformas y el desequilibrio de poder entre empresas y familias.
Refuerzan la idea de que no basta con decir “desinstala la app”, sobre todo en la adolescencia: hace falta acompañar, dialogar y comprender el contexto social donde tus hijos se mueven.
Siete ideas prácticas para acompañar hoy (aunque las leyes tarden)
Más allá de lo que apruebe Bruselas, hay decisiones que sí dependen de ti. Algunas líneas de acción posibles:
Definir tu propia “edad mínima familiar”
Las leyes marcan mínimos o máximos, pero cada familia puede decidir su propia política interna.
Puedes tomar la referencia de los 16 años como horizonte para redes generalistas, aunque vivas en un país sin esa regulación.
Si decides permitir acceso antes, documenta por qué, a qué plataformas y con qué condiciones.
Distinguir tipos de plataformas
No es lo mismo:
Una red social abierta, con algoritmo de recomendación fuerte y mensajería privada.
Una plataforma educativa o de contenido infantil moderado.
Clasificar servicios según su nivel de riesgo ayuda a priorizar qué restringir más y qué se puede negociar con mayor flexibilidad.
Poner el foco en el diseño, no solo en la fuerza de voluntad
En lugar de exigir que un adolescente “sea responsable y se desconecte a tiempo”, reconoce que está jugando en un sistema diseñado para que no lo haga.
Habla explícitamente de scroll infinito, autoplay, notificaciones y recompensas.
Explícale que no es un “fallo de carácter” engancharse; es un entorno pensado para capturar su atención.
Acompañar las primeras cuentas, no solo vigilarlas
Si decides permitir una primera red social:
Crea reglas claras sobre privacidad, seguidores y publicaciones.
Acompaña en los primeros meses: revisen juntos el feed, hablen de qué ve, qué le incomoda, qué le gusta.
Prioriza la confianza y el diálogo sobre el control encubierto.
Establecer zonas y horarios libres de pantallas
La resolución europea se centra en normas de acceso, pero en casa también importa:
Respetar horarios de sueño (sin dispositivos en el dormitorio por la noche).
Crear espacios físicos sin pantallas (mesa, coche, reuniones familiares).
Cuidar que haya tiempo real para el juego libre, el aburrimiento y la socialización cara a cara.
Hablar de IA, deepfakes y engaño digital
No basta con decir “no aceptes solicitudes de extraños”. Ahora también hay que explicar:
Qué es un deepfake y por qué no siempre podemos confiar en lo que vemos y escuchamos.
Que nadie, ni persona ni “bot amigo”, tiene derecho a pedir fotos íntimas o información privada.
Que pueden pedir ayuda si han hecho o enviado algo de lo que se arrepienten, sin miedo a que eso suponga solo castigo.
Participar del debate público
Como madres, padres y cuidadores también somos parte de la conversación social:
Podemos apoyar regulaciones más estrictas, pero también pedir que incluyan voz de adolescentes y de expertos en salud mental.
Podemos cuestionar medidas que prometen seguridad, pero generan efectos colaterales, como empujar a jóvenes hacia plataformas no reguladas.
En otras palabras: no se trata de elegir entre “libertad total” o “prohibición absoluta”, sino de construir reglas más equilibradas que protejan sin invisibilizar las necesidades reales de la adolescencia.
El dato
La resolución del Parlamento Europeo no crea todavía una ley, pero sí dibuja el que puede ser el nuevo estándar global: una edad mínima de 16 años para redes sociales y servicios de IA de uso general, con acceso restringido y supervisado entre los 13 y los 16, y con un foco explícito en desmantelar las prácticas de diseño más adictivas dirigidas a menores.
Para las familias, la señal es clara: el problema ya no se entiende solo como “tiempo de pantalla”, sino como un entorno digital que necesita límites estructurales. Y la crianza digital, lejos de reducirse a instalar controles parentales, se convierte en un trabajo conjunto entre reguladores, plataformas, escuelas y hogares.






