Un reciente incidente en Guatemala, donde un grupo de estudiantes de un colegio difundió imágenes pornográficas de compañeras creadas mediante inteligencia artificial (IA), ha reavivado el debate sobre los riesgos asociados al uso de esta tecnología.
Este caso pone de relieve la creciente preocupación por el acceso sin restricciones a plataformas de IA diseñadas para generar imágenes de desnudos, una problemática que ya ha suscitado controversias en otros países.
En abril de 2024, el sitio web aitoolmall.com identificó al menos 15 plataformas en línea capaces de crear imágenes de desnudos mediante IA.
A pesar de las advertencias sobre los significativos riesgos legales y éticos, así como las violaciones a la privacidad, el acceso a estas herramientas es sencillo y “económico”. La mayoría de los sitios mencionados ofrecen suscripciones por menos de diez dólares y hasta pruebas gratuitas con solo proporcionar un correo electrónico.
Estas plataformas, accesibles a través de motores de búsqueda convencionales como Google Chrome, apenas consultan al usuario si es mayor de 18 años, y algunas advierten sobre el uso de fotografías de menores.
Casos similares en otros países
Guatemala no es el único país que enfrenta este tipo de casos. En España y Argentina, se han registrado casos que muestran un patrón similar.
El 5 de agosto, la Guardia Civil española anunció que estaba investigando a cinco jóvenes por crear y difundir imágenes de 20 menores desnudas mediante IA en Sevilla. Estos jóvenes podrían enfrentarse a cargos por pornografía infantil y revelación de secretos. Las imágenes alteradas se compartieron a través de aplicaciones de mensajería instantánea, según reportó el sitio web ww.kchcomunicacion.com.
En otra parte de España, 15 menores en Almendralejo fueron condenados a un año de libertad vigilada por casos similares, mientras que, en Pamplona, un joven de 18 años se enfrenta a un año de prisión y una multa de 1.500 euros, según el sitio web COPE. Estos casos se consideran los primeros en España en recibir condenas por el uso de IA para “desnudar” a alguien sin su consentimiento.
Lea: Estafas electrónicas: Compleja modalidad criminal con más de 5 mil denuncias
El caso en Guatemala
El 12 de agosto, el caso del Colegio Continental Americano en Ciudad de Guatemala se volvió viral. Un grupo de estudiantes fue señalado de utilizar IA para crear y vender fotografías pornográficas de compañeras, que luego se difundieron por aplicaciones de mensajería.
Este incidente generó críticas hacia las autoridades del colegio por su manejo de la situación, así como la intervención de la Procuraduría General de la Nación y un pronunciamiento de la vicepresidenta, Karin Herrera.