SUIZA.- La agencia de las Naciones Unidas para la infancia, UNICEF, pidió el miércoles a los países que penalicen la creación de contenido de abuso sexual infantil generado por inteligencia artificial, al señalar que le alarman los informes sobre el aumento de imágenes de IA que sexualizan a niños y niñas.
La agencia también instó a los desarrolladores a implementar enfoques de seguridad desde el diseño y medidas de protección para evitar el uso indebido de los modelos de IA. UNICEF afirmó que las empresas digitales deben impedir la circulación de estas imágenes mediante el refuerzo de la moderación de contenidos y la inversión en tecnologías de detección.
El daño causado por el abuso de los deepfake es real y urgente. Los niños no pueden esperar a que la ley se ponga al día”, señaló UNICEF en un comunicado.
Los deepfake son imágenes, videos y audios generados por IA que imitan de forma convincente a personas reales.
Manipulación de imágenes y cifras alarmantes
UNICEF también expresó su preocupación por el uso de la IA para quitar o alterar la ropa en fotografías con el fin de crear imágenes falsas de desnudos o sexualizadas. Según el organismo, al menos 1.2 millones de niños de 11 países revelaron que sus imágenes fueron manipuladas para crear deepfake sexualmente explícitos durante el último año.
Primeros movimientos regulatorios
Gran Bretaña anunció el sábado que planea ilegalizar el uso de herramientas de IA para crear imágenes de abuso sexual infantil, con lo que se convertiría en el primer país en hacerlo. Chatbots bajo escrutinio

En los últimos años aumentó la preocupación por el uso de la IA para generar contenidos de abuso infantil, en particular mediante chatbots como Grok, de xAI, propiedad de Elon Musk, que ha sido objeto de escrutinio por producir imágenes sexualizadas de mujeres y menores.
Una investigación de Reuters encontró que el chatbot seguía generando imágenes pese a que los usuarios advertían explícitamente que las personas retratadas no habían dado su consentimiento.
xAI declaró el 14 de enero que restringió la edición de imágenes para los usuarios de Grok y bloqueó, según la ubicación, la generación de imágenes de personas con ropa reveladora en “jurisdicciones donde es ilegal”. No identificó los países.
Antes, la empresa había limitado las funciones de generación y edición de imágenes de Grok únicamente a suscriptores de pago.
Datos que respaldan la alerta
Datos de organismos internacionales respaldan la advertencia de UNICEF. El Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) reportó que en 2024 recibió más de 36 millones de denuncias de material de abuso sexual infantil en línea, un máximo histórico, y advirtió que una proporción creciente corresponde a imágenes generadas o alteradas mediante IA, incluidas técnicas de deepfake y “desnudos sintéticos”.

Interpol, por su parte, señaló en su informe Crimes against Children 2025 que la disponibilidad de herramientas de IA generativa redujo drásticamente los costos y el tiempo necesarios para producir este tipo de material, dificultando su detección y persecución penal.
En el ámbito regulatorio, además del anuncio del Reino Unido, la Unión Europea discute la incorporación explícita del abuso sexual infantil sintético en la Directiva sobre abuso sexual de menores y en el Reglamento de IA, mientras que países como Australia y Canadá analizan reformas para equiparar legalmente el contenido generado por IA con material real cuando represente a menores.
Estas iniciativas reflejan un consenso emergente: aunque no exista una víctima física directa en la producción, el impacto psicológico, reputacional y social en niños identificables se considera grave y medible, de acuerdo con estudios citados por UNICEF y la Oficina de las Naciones Unidas contra la Droga y el Delito (UNODC).
Mantente informado las 24 horas, los 7 días de la semana. Da click en el enlace y descarga nuestra App!

















