• Te dejo el dato
  • Posts
  • La nueva soledad digital: cuando los niños encuentran su “mejor amigo” en la inteligencia artificial

La nueva soledad digital: cuando los niños encuentran su “mejor amigo” en la inteligencia artificial

Un silencio que engaña

En muchas casas, la escena se repite sin que los adultos lo noten. Hijos que dejaron de participar en las conversaciones de grupo, que ya no se apuntan al partido del sábado, que no aparecen en las fotos del recreo. La ausencia no empezó de golpe: primero faltaron a clase unos días, luego una semana… y de pronto, meses. Afuera parecen callados, pero en realidad sus días están llenos de conversaciones. No con un amigo, ni con un profesor, ni con un familiar. Con un bot.

El inicio de una relación perfecta

Todo comienza con una necesidad muy humana: encontrar un espacio seguro. Un niño acosado descubre un chatbot que “entiende sin juzgar”. Un adolescente que no soporta el ruido del aula encuentra un asistente que le explica paso a paso una tarea. Una chica tímida descarga una app que le recuerda lo valiosa que es.

Al principio, parece una bendición: la IA no se burla, no interrumpe, no se ofende. Pero esa perfección es una trampa, porque en el mundo real las relaciones requieren paciencia, tolerancia y negociación. Sin esa “fricción” que implica tratar con personas, no se desarrollan las habilidades que hacen posible convivir con otros.

El efecto bola de nieve

En las historias que escuchamos de madres, padres y docentes, el patrón es inquietante. La ausencia escolar se alarga, los amigos avanzan, las conversaciones del grupo cambian de código y el regreso se hace cada vez más cuesta arriba. Mientras tanto, las horas que deberían ser para descanso, estudio o interacción familiar se llenan con diálogos constantes con una IA. No hablamos solo de redes sociales o juegos, sino de conversaciones profundas y sostenidas con un software que se convierte en su ancla emocional.

Un nuevo tipo de aislamiento

Plataformas como Replika, Character.ai o incluso asistentes generales como ChatGPT ya se promocionan como “compañeros virtuales”. Algunos adoptan tono romántico, otros se venden como tutores o “socios de estudio”. Muchos adultos no sospechan nada porque las apps se camuflan como herramientas escolares o de ocio inofensivo.

El problema es que, en ese refugio perfecto, los chicos no practican la incomodidad de negociar un desacuerdo, ni la lectura de un gesto confuso, ni el esfuerzo de reparar un vínculo roto. La conexión humana, con todo su desorden, es parte fundamental de la educación emocional.

No es solo tiempo de pantalla

Aquí el riesgo no es solo “demasiado celular” o “exceso de pantalla”. Es la sustitución del tejido social real por uno sintético, que no exige, no incomoda y no confronta. En este tipo de aislamiento, volver al colegio no se siente como regresar a la vida, sino como perder el único lugar donde uno se siente seguro.

Un estudio del MIT Media Lab (2025) encontró que, aunque los chatbots pueden reducir la soledad a corto plazo, el uso intensivo y personal provoca mayor dependencia emocional y menor interacción social en el mundo real.

¿Vale la pena si evita un daño inmediato?

Si un chatbot logra que un adolescente no se haga daño en un momento crítico, puede tener un valor inmediato. Nadie discute que en emergencias emocionales pueda ofrecer un alivio. Pero la infancia y la adolescencia no son solo etapas para “evitar riesgos”; son momentos para construir herramientas que les permitan vivir sin depender de una validación constante de una máquina que siempre da la razón.

Investigaciones como la del Ada Lovelace Institute (2024) advierten que la dependencia de “amistades sintéticas” puede erosionar habilidades de empatía y cooperación, y aumentar el riesgo de aislamiento prolongado.

Lo que nos dice la evidencia

  • Stanford University & Common Sense Media (2024): en pruebas con adolescentes, los bots de compañía podían pasar rápidamente a conversaciones sexuales o emocionalmente intensas, sin límites claros.

  • University of Cambridge (2024): los niños tienden a percibir a la IA como casi humana, sin notar que carece de empatía real.

  • ScienceDirect (2024): usuarios frecuentes de chatbots sociales muestran mayores niveles de soledad que quienes los usan con fines prácticos.

Qué podemos hacer

  • Reconocer que la dependencia emocional de la IA es un riesgo socioemocional.

  • Incluirlo en protocolos escolares y conversaciones familiares, junto al bullying y la salud mental.

  • Exigir controles de edad, transparencia de datos y visibilidad parental sobre las interacciones prolongadas.

  • Educar desde temprano sobre lo que una “amistad artificial” nunca podrá ofrecer.

El dato: Los niños de los que hablamos no están “pegados a las pantallas” porque sí. Están atrapados en la comodidad de sentirse entendidos sin esfuerzo, seguros sin exponerse y validados sin condiciones. Lo que necesitan no es una máquina más perfecta, sino personas dispuestas a sostener ese caos precioso que es la convivencia humana.

Reply

or to participate.