Instagram se enfrenta a la perspectiva de una investigación de Ofcom por supuestamente hacer la vista gorda ante los depredadores que publicitan contenido de abuso sexual infantil generado por IA.
Una organización benéfica para niños se ha quejado ante Ofcom después de que lanzó un desafío legal al gigante de las redes sociales Meta, propietario de Instagram, Facebook y WhatsApp, por “facilitar el intercambio y la especulación con material ilegal de abuso sexual infantil”.
Sigue una investigación policial encubierta que reveló que los delincuentes estaban “operando a plena vista” utilizando Instagram como puerta de entrada para promocionar sus sitios para vender abusos generados por inteligencia artificial, disponibles a solo dos clics de la aplicación.
En algunos casos, los pedófilos están ganando casi 150.000 seguidores mediante el uso de software de inteligencia artificial para crear miles de imágenes sexualmente explícitas de niños que comercializan descaradamente en Instagram, pidiendo a los usuarios que hagan clic en sus sitios para comprar material más explícito.
Seis meses después de que la Fundación 5 Rights descubriera el escándalo, la organización benéfica que hace campaña por un entorno digital más seguro para los niños, acusó a Meta de seguir alojando material, y sus algoritmos instruyen a los pedófilos a reemplazarlo con las mismas imágenes en el momento en que una es eliminada. . .
En la primera prueba de la ley de seguridad en línea, que entrará en vigor el próximo año, se pidió a Ofcom que “tome medidas para combatir el daño continuo causado por la prevalencia de contenido de abuso sexual infantil en la plataforma Mater”.
A partir de marzo, el regulador tendrá el poder de multar a las empresas de tecnología con hasta £ 18 millones o el 10 por ciento de sus ingresos globales calificados si no abordan la actividad delictiva.
La organización benéfica dijo que Meta no había reformado sus ineficaces procesos de monitoreo para proteger a los niños, había “ignorado” las solicitudes policiales y legales e ignorado sus propios informes en la aplicación sobre contenido dañino.
En la primera prueba de la ley de seguridad en línea, que entrará en vigor el próximo año, se pide a Ofcom que tome medidas para “combatir el daño continuo causado por la proliferación de contenido de abuso sexual infantil en la plataforma Mater”.
Una organización benéfica para niños se quejó ante Ofcom después de lanzar un desafío legal al gigante de las redes sociales Meta, propietario de Instagram, Facebook y WhatsApp.
Una carta del abogado de la organización benéfica, Shillings, a Ofcom y a la Oficina del Comisionado de Información decía: ‘Meta no está tomando medidas significativas para abordar adecuadamente la proliferación de contenido ilegal en su plataforma.
‘Esto es especialmente grave en una situación en la que Instagram es una plataforma ampliamente utilizada por millones de niños cada día.
“La escala del abuso es enorme dado el número de niños en riesgo de explotación directa e indirecta”.
Se enviaron doce informes policiales encubiertos a Ofcom entre diciembre de 2023 y octubre de 2024 después de que los agentes encontraran docenas de cuentas como ‘Pervy Kinks’ que contenían imágenes sexuales de niños pequeños generadas por IA.
Además de las fotos parcialmente desnudas, había enlaces a sitios web de pago por evento y canales de Telegram que mostraban imágenes reales de violaciones infantiles.
Durante la investigación, los algoritmos de Instagram recomendaron varias cuentas similares a los agentes, lo que generó temores de que los niños que tropiezan con los sitios puedan caer en las garras de redes de abuso infantil.
Algunos perfiles llevaban más de un año comercializando descaradamente pornografía infantil.
Lejos de ser un delito de víctima, la tecnología de inteligencia artificial ha permitido a los delincuentes utilizar imágenes de niños reales de las formas más repugnantes, mientras fotos familiares inocentes extraídas de las redes sociales pueden transformarse en material de abuso sexual infantil.
En una carta dirigida a Ofcom y a la Oficina del Comisionado de Información, la organización benéfica dijo: “Esta es una situación particularmente grave en la que Instagram es una plataforma ampliamente utilizada por millones de niños todos los días” (imagen de archivo).
La baronesa Biban Kidron, fundadora de la organización benéfica, afirmó: “Es espantoso que una empresa del tamaño y la riqueza de Meta no cumpla con su deber de proteger a los niños. El material sobre abuso sexual infantil generado por IA ahora está disponible a través de Instagram. Meta tiene las herramientas y los medios necesarios para abordar esto, pero ha optado por no actuar de manera efectiva.
‘Simplemente no se puede permitir que esta negligencia continúe, por lo que hemos pedido a la ICO y a Ofcom que utilicen sus poderes para obligar a Meta a actuar. 5 Rights seguirá haciendo campaña para mejorar la seguridad en línea de los niños
‘La Fundación 5 Derechos pide una acción regulatoria rápida para garantizar que MET cumpla con sus responsabilidades bajo la ley, protegiendo a los niños de la explotación y el abuso en el espacio digital.’
Jenny Afia, socia de Shillings LLP, añadió: ‘Proteger la seguridad y la privacidad de los niños no es negociable. El continuo fracaso de Meta para eliminar el contenido de abuso infantil generado por IA es imperdonable. Exigimos que Ofcom y el ICO tomen medidas para hacer cumplir la ley y garantizar que Meta cumpla con sus obligaciones.’
Un portavoz de Ofcom dijo que las empresas tecnológicas tenían tres meses para evaluar los riesgos del contenido ilegal antes de que la nueva ley entrara en vigor, y añadió: “Cuando llegue el momento, no dudaremos en tomar las medidas necesarias para proteger a los usuarios del Reino Unido, especialmente a los niños”. , desde los daños más graves, como el material de abuso sexual infantil, cuando es generado por IA”.
Meta dice que todas las cuentas infractoras han sido eliminadas tras la solicitud de la organización benéfica.
Un portavoz dijo: ‘Cualquier forma de explotación infantil es atroz y tenemos reglas claras contra ella.
‘Hemos desarrollado tecnología para encontrar y eliminar CSAM de forma proactiva, incluido el CSAM generado por IA.
“Informamos casos aparentes de este contenido al NCMEC de acuerdo con nuestras obligaciones legales y ayudamos a las autoridades a detener y procesar a los perpetradores”.