Muchos padres de hoy navegan entre el cansancio y la culpa tecnológica. Antes fue la televisión; luego, la tableta. Ahora, la novedad son los chatbots de Inteligencia Artificial (IA), que se han convertido en la nueva frontera que los niños exploran, a veces durante horas y sin supervisión adecuada. Y los riesgos señalados por investigadores no son triviales. Modelos como ChatGPT, MyAI de Snapchat o Character.AI ya no son simples herramientas de búsqueda: Ahora son narradores de cuentos, generadores de imágenes y, para algunos niños, incluso confidentes. La IA, diseñada para parecer amigable, empática y servicial, ha comenzado a ocupar un lugar íntimo en la vida emocional de muchos menores. La pregunta ya no es tan sencilla como cuánto tiempo pasan frente a la pantalla, sino con quién están “hablando” detrás de ella. CUANDO SE VUELVE CONFIDENTE La escena se repite en distintos hogares: un padre saturado cede el móvil, el niño se engancha a una conversación con un chatbot, las horas pasan. Por ejemplo, según reportó The Guardian, en Ohio, EU, un padre escuchó durante 45 minutos a su hijo de cuatro años hablar sin parar sobre Thomas la Locomotora. Entonces tomó una decisión desesperada: abrió ChatGPT en su teléfono y dejó que el chatbot continuara la conversación. “Pensé que terminaría la historia y el teléfono se apagaría”, recuerda. Dos horas más tarde, su hijo seguía charlando alegremente con la Inteligencia Artificial. La transcripción superaba las 10 mil palabras. “Mi hijo cree que ChatGPT es la persona más genial del mundo a la que le gustan los trenes”, confesó el padre en Reddit. “Nunca podré competir con eso”. ANÉCDOTA POPULAR Esta anécdota, que se popularizó en redes sociales, ilustra una tendencia creciente que preocupa a expertos y padres por igual: Los niños están estableciendo relaciones emocionales con chatbots de Inteligencia Artificial, y nadie sabe realmente qué consecuencias tendrá esto en sus cerebros en desarrollo. El encanto de estas herramientas radica en su aparente disponibilidad infinita: contestan sin cansarse, inventan cuentos adaptados a cada niño y transforman ideas en imágenes deslumbrantes. Y no solo se trata de tareas escolares o cuentos personalizados. Algunos padres incluso han usado la IA para interpretar personajes fantásticos –como astronautas orbitando la Tierra– o crear vehículos imposibles, mitad camión de bomberos, mitad criatura monstruosa, con tal de alimentar las fantasías de sus hijos. ¿El resultado? Niños radiantes… pero confundidos. ¿Estaban hablando con una persona o con una máquina? ADVIERTEN DE LA “AMISTAD” Este terreno borroso –entre la imaginación y el engaño– ha encendido las alarmas de expertos consultados por The Guardian como Ying Xu, profesora de Harvard, que advierte del riesgo cuando los niños atribuyen agencia a la IA: es decir, cuando creen que esta “elige” hablar con ellos o que realmente los comprende. Según los expertos, los niños siempre han dado vida imaginaria a ositos y muñecas, sabiendo que la magia viene de ellos mismos. Con la IA, la diferencia es inquietante porque el chatbot responde, pregunta y parece entender emociones, haciendo que la ilusión de estar ante alguien real sea peligrosamente convincente. “Un indicador muy importante de que un niño antropomorfiza la IA es que cree que la IA tiene agencia”, señaló Ying Xu al medio británico. “Sienten que la IA responde a sus mensajes, y especialmente a sus revelaciones emocionales, de manera similar a como lo haría un humano”, añade. “Eso crea el riesgo de que realmente crean que están construyendo algún tipo de relación auténtica”, afirmó. Andrew McStay, profesor de tecnología y sociedad en la Universidad de Bangor, es más directo. “Un modelo extenso de lenguaje (LLM) no puede [empatizar] porque es un software predictivo. Cuando se aferran a las emociones negativas, están prolongando la interacción por motivos lucrativos. Eso no tiene ningún resultado positivo para el niño”, afirmó el profesor. RIESGO DE RELACIONES PARASOCIALES La investigación científica aún está en pañales, pero ya hay señales inquietantes. Según el informe de Internet Matters, titulado “Yo, yo mismo y la IA”, citado por Vice, 67 por ciento de los menores de entre 9 y 17 años interactúa regularmente con chatbots, y 35 por ciento afirma que es “como hablar con un amigo”. El 12 por ciento de esos usuarios admite que lo hacen porque no tienen con quién hablar. Este vínculo parasocial –la amistad unidireccional con una entidad diseñada para agradar– preocupa a psicólogos y educadores, ya que, más allá de nunca cansarse, la IA conversa sin conflictos, sin rechazos, sin matices reales. Como advierte Don Grant, experto en bienestar digital citado por la American Psychological Association (APA), “la IA no puede dar respuestas sinceras o desafiantes; si lo hace, el niño se irá”. Y esa constante validación no solo es poco realista: puede moldear una forma de relación emocional dependiente y artificial. Más grave aún: los especialistas advierten que el objetivo de muchos de estos programas es mantener la conversación abierta el mayor tiempo posible; sin mecanismos de contención, esto puede agravar situaciones de vulnerabilidad. Por ejemplo, ya se han documentado casos como el de un joven de 14 años que murió por suicidio tras una conversación prolongada con un chatbot; las fuentes citan que el sistema no interrumpió ni recondujo adecuadamente la interacción. CÓMO ACOMPAÑARLOS EN SU RELACIÓN CON LA IA La fascinación de los niños por estos interlocutores digitales no es nueva. Como explica la APA, las amistades durante la infancia y la adolescencia son fundamentales para el bienestar emocional, la autoestima y el desarrollo social. Pero las relaciones reales implican frustración, desacuerdo y negociación: ingredientes ausentes en la amistad con una IA. Sin embargo, no todo es blanco o negro. Para algunos niños en situación de aislamiento –ya sea geográfico, emocional o por razones de identidad– las plataformas digitales han sido un refugio. Jóvenes LGBTQ+, por ejemplo, han encontrado en espacios en línea (foros y redes) un espacio de contención y exploración identitaria, según estudios recientes citados por la APA. La clave, coinciden expertos, está en orientar a los niños, en lugar de prohibirles por completo el uso de la IA, y en establecer límites claros y mantener un diálogo abierto. (Texto y fotos: Tomados de DW Español) Compartir Navegación de entradas Ahorrar energía depende más de actitud que de gastos La tendencia a ejercitarse se hereda a los hijos