La verdadera batalla de la IA: infancia en riesgo de brecha con Aldeas Infantiles

La verdadera batalla de la IA: infancia en riesgo de brecha con Aldeas Infantiles

Aldeas Infantiles  y tecnólogos advierten de que la inteligencia artificial puede agrandar la desigualdad infantil si no se gobierna con ética, datos y foco en los más vulnerables

La revolución de la inteligencia artificial ya ha llegado a la infancia. No lo hace solo en forma de juguetes conectados o apps educativas, sino como nuevo filtro de acceso a oportunidades, servicios sociales y educación. En un contexto en el que uno de cada tres menores vive en riesgo de pobreza o exclusión, la brecha digital amenaza con convertirse en una segunda frontera invisible.
El último encuentro de “TED Talks by Skiller Academy”, dedicado a la “Infancia en la era de la IA: cómo evitar que nadie quede atrás”, ha puesto sobre la mesa un mensaje inequívoco: si la IA no se diseña pensando en los niños más vulnerables, los dejará aún más atrás.
Representantes de Aldeas Infantiles explicaron cómo están experimentando con IA, blockchain y automatización sin renunciar a lo esencial: el vínculo humano. Y lanzaron una advertencia clara a empresas, tecnólogos y administraciones: no todo lo que puede automatizarse debe automatizarse cuando hay menores de por medio.
La pregunta ya no es si la IA debe entrar en la vida de los niños, sino quién decide cómo lo hace, con qué límites y con qué propósito.

Una brecha digital que se hace más profunda

La tecnología en la infancia es un doble filo. Mientras una parte de los menores crece rodeada de pantallas, conectividad y asistentes virtuales, otra sigue sin acceso regular a un ordenador, a una conexión estable o a un espacio tranquilo para estudiar. Los ponentes recordaron que, en los hogares más vulnerables, hasta un 40% de los adolescentes comparte un único dispositivo para estudiar y ocio, lo que convierte la promesa de la IA educativa en un privilegio para pocos.

La brecha digital no es solo cuestión de hardware. Incluye competencias, acompañamiento y contexto familiar. Un menor puede tener un móvil en la mano, pero carecer de adultos que le enseñen a distinguir información fiable, proteger su identidad o aprovechar recursos formativos. Cuando los algoritmos empiezan a mediar el acceso a becas, refuerzos educativos o incluso a prestaciones sociales, esa diferencia se traduce en una brecha de oportunidades real.

Los expertos subrayaron un riesgo adicional: que la IA se utilice para segmentar y perfilar a menores en función de sus datos, reforzando prejuicios existentes. Sin una gobernanza clara, los mismos sistemas que prometen “personalizar” la educación podrían consolidar expectativas bajas sobre determinados perfiles socioeconómicos, cerrando puertas antes incluso de que se abran.

Aldeas Infantiles y Skiller Academy: la tecnología como palanca social

En este contexto, el caso de Skiller Academy y de Aldeas se presentó como ejemplo de uso deliberado de la tecnología con propósito social. Lejos de limitarse a incorporar “gadgets” de moda, la organización está probando chatbots internos, automatización de procesos, uso de NFTs y blockchain para trazabilidad de donaciones, siempre con una idea central: liberar recursos para la atención directa a la infancia.

Luis Alberto Ramasco Puente explicó cómo la IA ya se integra en campañas de captación, segmentación de públicos y análisis de reputación. La clave, apuntó, es no sacrificar ni un milímetro de confianza: se puede optimizar un mensaje o un canal, pero no manipular emociones ni sobreexponer la imagen de los niños para maximizar clics.

Por su parte, Guillermo López Rodríguez detalló qué significa “transformación digital” cuando los recursos son limitados: priorizar procesos clave, elegir herramientas robustas y asumir que la gestión del cambio —hábitos, roles, resistencias— cuesta más que la propia tecnología. En su caso, la decisión con más impacto no fue un gran proyecto de IA, sino implantar un CRM que conectara datos dispersos y evitara duplicidades en la atención a familias y jóvenes.

IA, automatización y el riesgo de deshumanizar el cuidado

Uno de los debates más sensibles giró en torno a la automatización. Aldeas Infantiles ha digitalizado buena parte de su backoffice: más del 60% de las tareas administrativas repetitivas se canaliza ya a través de sistemas, lo que ha permitido recuperar horas de trabajo de educadores y equipos psicosociales. La lógica es simple: si la tecnología se encarga de la burocracia, las personas pueden centrarse en el vínculo.

Pero el riesgo es evidente. Si se cruza la línea y la IA empieza a decidir qué niño recibe qué recurso, con qué prioridad o qué intervención, sin supervisión humana estrecha, el sistema puede volverse opaco e injusto. Los participantes insistieron en que las decisiones sensibles —medidas de protección, cambios de acogida, apoyos en salud mental— deben seguir en manos de profesionales, aunque se apoyen en datos para ganar contexto.

La organización ha optado por un enfoque gradual: primero automatizar todo lo que no toca directamente al menor (facturación, informes internos, gestión documental); después, utilizar IA como herramienta de apoyo —no de sustitución— en análisis de casos. El objetivo es claro: más tiempo de calidad con los niños, no menos, y evitar que la pantalla se interponga entre el profesional y la infancia a la que acompaña.

Ciberseguridad infantil: de la contraseña al criterio

En materia de ciberseguridad, el diagnóstico fue contundente: los menores son un objetivo fácil en un ecosistema digital diseñado para captar datos, atención y consumo. Para una ONG que gestiona expedientes de protección, historiales familiares y datos de salud, los riesgos se multiplican: una brecha puede afectar a identificación, reputación y seguridad física.

Guillermo López habló de tres activos críticos: los datos de los niños y sus familias, la continuidad de los servicios y la reputación de la organización. Los ataques más probables no son escenarios de película, sino phishing, ransomware y accesos indebidos a cuentas mal protegidas. Por eso, más allá de firewalls y sistemas, el foco está en formar al equipo: que nadie comparta contraseñas, que se desconfíe de enlaces sospechosos y que se entienda por qué un correo aparentemente inocuo puede poner en riesgo un hogar de acogida.

La educación en ciberseguridad se extiende también a los propios menores: talleres sobre identidad digital, privacidad, huella en redes y gestión de contenidos se integran en los programas educativos. La idea es simple pero ambiciosa: que un adolescente tutelado salga del sistema entendiendo que proteger sus datos es protegerse a sí mismo, y que la seguridad no es un software, sino una cultura compartida.

IA con límites: por qué el control humano es irrenunciable

Otro eje central fue el marco ético. La irrupción de IA en procesos de educación y protección infantil obliga a fijar límites claros y supervisión constante. Aldeas Infantiles ha definido una regla de oro: ninguna decisión que afecte a derechos fundamentales de un niño puede automatizarse por completo.

Los ponentes señalaron riesgos concretos: sistemas que perfilan a menores en función de su historial, algoritmos opacos que priorizan unos casos sobre otros o herramientas que sugieren intervenciones sin explicar su lógica. El peligro es que, en nombre de la eficiencia, se consoliden sesgos contra los mismos colectivos que la organización intenta proteger.

Para contrarrestarlo, se apuesta por comités internos que revisen proyectos de IA, participación de los equipos de terreno en el diseño y auditorías periódicas de resultados. El objetivo no es frenar la innovación, sino asegurar que la tecnología se somete a principios básicos: interés superior del menor, transparencia, proporcionalidad y derecho a revisión humana. En palabras de los participantes, “no todo lo que brilla en IA encaja en la vida de un niño”.

Datos, CRM y coordinación: cuando el impacto depende de la arquitectura digital

Uno de los mensajes más técnicos, pero también más claros, fue que sin buenos datos, el impacto se diluye. En una organización que trabaja con miles de niños, jóvenes y familias, no disponer de un CRM integrado significa duplicar esfuerzos, perder información valiosa y correr el riesgo de dejar a alguien fuera.

Guillermo López explicó que, antes de la transformación digital, los equipos dedicaban hasta un 30% de su tiempo a tareas de registro y consolidación manual de información. Con un CRM bien diseñado y procesos de interoperabilidad, esa carga se ha reducido de forma significativa, permitiendo seguir mejor la trayectoria de cada menor: desde su entrada en el sistema de protección hasta su salida a la vida adulta.

Además, la coordinación con educación, servicios sociales y empleo depende de que los sistemas “se hablen” entre sí. Si cada administración mantiene su propia isla digital, los jóvenes más vulnerables quedan atrapados en un laberinto burocrático. La IA, en este punto, solo puede ser útil si se asienta sobre arquitecturas de datos limpias, seguras y compartidas con criterios claros, no sobre hojas de cálculo dispersas.

TechTalk

Políticas públicas y jóvenes que salen del sistema

Cuando la conversación giró hacia las políticas públicas, el diagnóstico fue crítico. La retórica sobre “igualdad de oportunidades” convive con una realidad en la que miles de jóvenes salen cada año del sistema de protección sin un plan claro de formación, empleo y apoyo digital. Muchos lo hacen sin competencias básicas para moverse en un mercado laboral donde el 80% de las ofertas exige habilidades tecnológicas mínimas.

Desde Aldeas se apuntaron tres prioridades: garantizar acceso a dispositivos y conectividad estable para cualquier menor en protección; incluir formación digital intensiva en los itinerarios de autonomía y reforzar la interoperabilidad entre servicios para que nadie caiga en vacío administrativo al cumplir la mayoría de edad.

La IA puede ayudar a identificar riesgos tempranos —abandono escolar, aislamiento, dificultades de acceso a empleo—, pero solo si las políticas se orientan a actuar sobre ellos. Sin ese giro, la tecnología corre el riesgo de convertirse en un espejo que solo devuelve, con más nitidez, las desigualdades existentes.