El uso creciente de inteligencia artificial en entornos digitales ha generado un alarmante aumento del abuso infantil, lo que ha llevado a un llamado urgente de las Naciones Unidas para implementar medidas que protejan a los menores de la explotación y el trauma mental.
Recientes estimaciones indican que en Estados Unidos, los casos de abuso infantil relacionados con la tecnología se dispararon de 4,700 en 2023 a más de 67,000 en 2024. Este incremento refleja una amplia gama de riesgos que enfrentan los niños en línea, que incluyen acoso sexual, ciberacoso, deepfakes y exposición a contenido inapropiado. Durante la pandemia de COVID-19, muchos menores, especialmente niñas y mujeres jóvenes, fueron víctimas de abusos en línea, lo que en muchos casos resultó en daños físicos.
Organizaciones defensoras de los derechos de la infancia han advertido que los depredadores están utilizando herramientas de inteligencia artificial para analizar el comportamiento en línea de los niños, así como su estado emocional e intereses, con el fin de adaptar sus estrategias de acoso. Además, la IA ha facilitado la creación de imágenes falsas explícitas de niños reales, lo que ha dado lugar a nuevas formas de extorsión sexual.
Un informe del Instituto Global de Seguridad Infantil Childlight, previsto para 2025, confirma el crecimiento exponencial de estos delitos y ha intensificado la preocupación entre los Estados miembros de la ONU, que han comenzado a implementar medidas más estrictas. En este contexto, Australia se convirtió a finales de 2025 en el primer país en prohibir el uso de redes sociales a menores de 16 años, tras descubrir que casi dos tercios de los niños entre 10 y 15 años habían estado expuestos a contenido violento o perturbador, y que más de la mitad había sufrido ciberacoso. Otros países como Malasia, Reino Unido, Francia y Canadá están considerando adoptar regulaciones similares.
A principios de 2026, varios organismos de la ONU firmaron una Declaración Conjunta sobre Inteligencia Artificial y los Derechos del Niño, publicada el 19 de enero. Este documento destaca la grave falta de alfabetización en IA entre niños, padres, educadores y cuidadores, así como la necesidad de formación técnica en gobiernos y responsables políticos sobre marcos de IA y protección de datos.
La declaración también enfatiza la responsabilidad de las empresas tecnológicas, señalando que muchas herramientas de IA no están diseñadas con el bienestar infantil en mente. Aunque existe preocupación en el sector privado por el impacto en la innovación, se sostiene que es posible equilibrar el desarrollo responsable de la IA con la rentabilidad empresarial. Los organismos de la ONU subrayan que el sector privado es un socio clave, pero que es fundamental alertar sobre el uso de tecnologías que puedan tener consecuencias perjudiciales.
Desde la perspectiva de los derechos de la infancia, se recordó que en 2021 se incluyó un lenguaje específico sobre riesgos digitales en la Convención sobre los Derechos del Niño, pero se requiere una mayor orientación y regulación efectiva. En este sentido, se han elaborado recomendaciones dirigidas a Estados, organismos internacionales, empresas, educadores y familias.
Entre las medidas propuestas se encuentran el fortalecimiento de los marcos de gobernanza de la IA para proteger los derechos de los niños, el diseño de sistemas transparentes y responsables, la prevención de la violencia y explotación infantil amplificadas por la IA, y la priorización del interés superior del niño en decisiones automatizadas. También se sugiere el desarrollo de una IA inclusiva y libre de sesgos, la incorporación de las opiniones de niños y adolescentes en las políticas públicas, y la promoción de un desarrollo tecnológico sostenible que minimice el daño ambiental para las generaciones futuras.

