La inteligencia artificial ayuda a producir material de abuso sexual infantil


Los depredadores utilizan software de IA para generar CSAM o 'pornografía infantil' de niños ficticios o superponer imágenes de niños reales en material sexualmente explícito ya existente.

Desde la conveniencia de los conversores de voz a texto y asistentes digitales como Siri hasta el inquietante ámbito de la tecnología de 'deepfake' y la generación de imágenes, la inteligencia artificial se ha integrado sin problemas en nuestras vidas diarias, moldeando nuestra eficiencia mientras avanza en formas de explotación sexual infantil.

Antes de la accesibilidad generalizada de la inteligencia artificial (IA), una forma de producir material de abuso sexual infantil (CSAM, el término más adecuado para 'pornografía infantil') consistía en recortar imágenes de niños y pegarlas en imágenes pornográficas, creando collages de CSAM. Hoy en día, los depredadores pueden descargar software de IA de texto a imagen fácilmente disponible para generar CSAM de niños ficticios; así como CSAM manipulado por IA, donde imágenes reales de cualquier niño se superponen digitalmente en CSAM existente u otro material sexualmente explícito.

Con la tecnología emergente y las herramientas interminables para mejorar o editar, las imágenes generadas por IA han alcanzado un nivel de sofisticación que es prácticamente indistinguible de las fotografías genuinas. Dada la naturaleza realista del CSAM impulsado por IA, los esfuerzos para identificar y defender a las verdaderas víctimas de abuso sexual infantil se ven interrumpidos por la dificultad de las fuerzas del orden para distinguir el material explotador como real o generado por IA.

Según lo informado por la Internet Watch Foundation (IWF), el CSAM generado por IA ahora es lo suficientemente realista como para ser tratado como CSAM real, lo que denota la tecnología de IA como una nueva vía para que actores maliciosos comercialicen y exploten sexualmente a los niños. Por ejemplo, el informe de la IWF encontró que el CSAM generado por IA vuelve a victimizar a las verdaderas víctimas de CSAM; proporcionando que los depredadores habitualmente 'recogen' material de sus víctimas preferidas de CSAM, con la tecnología de 'deepfake', pueden entrenar modelos de IA e introducir imágenes de la víctima elegida para reproducir contenido explícito en cualquier representación que deseen. Lo mismo se aplica a niños y jóvenes famosos conocidos por el depredador: si hay una fotografía de ellos disponible, cualquier niño es susceptible a la victimización a través del CSAM generado por IA.

Está sucediendo ahora mismo

El año pasado, la línea de ciberalertas del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), un sistema para informar sobre la explotación sexual infantil en línea, recibió 4,700 informes de CSAM generado por IA, subrayando las amenazas inmediatas y prevalentes a la seguridad infantil que plantea la IA generativa. Está sucediendo ahora mismo.

En Florida, un profesor de ciencias enfrentó cargos de 'pornografía infantil', admitiendo haber utilizado fotos de anuario de estudiantes de su escuela para producir CSAM. Unos días después, otro hombre de Florida fue arrestado por 'pornografía infantil', después de fotografiar a una niña menor de edad en su vecindario para crear sintéticamente CSAM; un detective comentó: “Lo que hace es tomar la cara de un niño y luego la sexualiza, le quita la ropa y posa al niño y lo involucra en cierta actividad sexual. Y esas son las imágenes que está creando con esta IA.” Lo mismo ocurre en Corea, donde un hombre de 40 años fue condenado a más de dos años por producir 360 imágenes sexualmente explotativas con un programa de IA de texto a imagen, utilizando comandos como “10 años”, “desnudo” y “niño” para generar cientos de CSAM.

Estas aplicaciones de IA han dado lugar a la generación y difusión de material sexualmente explícito sintético (SSEM), incluidos casos en los que los estudiantes generan contenido explícito que involucra a sus compañeros menores de edad. En Illinois, la foto de una adolescente de 15 años con sus amigas antes de un baile escolar fue manipulada digitalmente en imágenes sexualmente explícitas y compartida entre sus compañeros. En otro caso, estudiantes masculinos de una escuela secundaria en Nueva Jersey compilaron imágenes de cuentas de redes sociales de compañeros para producir y difundir sin consentimiento fotos explícitas de más de 30 de sus compañeras menores de edad. En Egipto, una niña de 17 años se suicidó cuando un chico amenazó con distribuir y eventualmente compartió imágenes digitalmente alteradas de ella, causando un grave sufrimiento emocional tras su difusión, soportando los viles comentarios de la gente y preocupándose de que su familia creyera que las imágenes eran auténticas.

Estos niños, víctimas de la tecnología 'deepfake' sin ley, detallan haber experimentado violaciones extremas, ansiedad y depresión, donde su sentido de seguridad, autonomía y autoestima se ve profundamente socavado. ¿Por qué se permite a las corporaciones seguir comercializando y beneficiándose de su explotación?

A pesar de su naturaleza explotadora, la pornografía deepfake ha ganado una inmensa popularidad. El Informe sobre el Estado de los Deepfakes 2023 reveló 95,820 videos deepfake en línea, donde el 98% de todos los videos deepfake en línea eran pornográficos. Por ejemplo, DeepNude, una de las muchas aplicaciones explotadoras alojadas en GitHub de Microsoft que alude a “Ver a cualquiera desnudo”, recibió 545,162 visitas y casi 100,000 usuarios activos antes de venderse por $30,000.

Como una de las corporaciones nombradas en la lista Dirty Dozen 2024 del Centro Nacional sobre la Explotación Sexual, GitHub de Microsoft es un perpetrador líder en la comercialización y exacerbación de material sexualmente explícito sintético, albergando la tecnología de desnudez que permite a los perpetradores generar CSAM sintético realista.

La tecnología de inteligencia artificial se entrena con CSAM preexistente

Contrario al CSAM manipulado por IA, el CSAM generado por IA presenta niños ficticios, supuestamente evitando la explotación de niños reales en la producción de material sexualmente explotador; sin embargo, revelaciones recientes encontraron que LAISON-5B, un popular conjunto de datos a gran escala de pares de imagen-texto utilizado para entrenar Stable Diffusion, incluye inadvertidamente CSAM. En particular, el Repositorio Digital de Stanford investigó el grado de CSAM dentro del conjunto de datos y encontró 3,226 entradas de CSAM sospechoso. En términos simples, las miles de instancias de material ilegal y abusivo en el conjunto de datos de código abierto sugieren que Stable Diffusion fue entrenado alguna vez con CSAM.

Otros problemas incluyen la falta de eficiencia en las salvaguardias dentro de varios modelos generativos de texto a imagen, donde las medidas de seguridad de los desarrolladores, destinadas a prevenir la generación de contenido dañino, pueden ser fácilmente eludidas con el ajuste fino de los usuarios.

Las vulnerabilidades en la IA generativa y la falta de gobernanza de datos en LAISON-5B requieren una supervisión exhaustiva de los desarrolladores en los desarrollos de inteligencia artificial, además de la tan necesaria legislación federal para proteger a las víctimas de la pornografía deepfake no consensuada.


Fuente: Fight The New Drug

Artículo Anterior Artículo Siguiente