Alertan que IA podría usarse en pornografía
En caso de que no se regule o se realicen acciones para controlar sus herramientas
La ya alarmante proliferación de imágenes de abuso sexual infantil en internet podría empeorar si no se hace algo para controlar las herramientas de inteligencia artificial capaces de crear imágenes manipuladas, advirtió el martes un grupo experto en el tema.
Internet Watch Foundation, una agrupación basada en Reino Unido, exhortó a gobiernos y empresas tecnológicas a actuar rápidamente antes de que las imágenes de abuso sexual infantil sobrepasen las capacidades de las agencias policiales al ensanchar significativamente la cantidad de víctimas potenciales.
“No estamos hablando del daño que esto podría causar”, declaró Dan Sexton, director de tecnología de la agrupación. “Esto es algo que está ocurriendo ahora mismo y debe encararse ahora mismo”.
En Corea del Sur en septiembre, en un caso sin precedente, un hombre fue sentenciado a dos años y medio de cárcel por usar la inteligencia artificial para crear 360 imágenes de abuso sexual infantil, según el Tribunal del Distrito Busan, en el sudeste del país.
Violencia infantil
Hay casos incluso en que niños están usando esa tecnología en contra de otros niños.
En una escuela en el sudoeste de España, la policía ha estado investigando un caso en que al parecer unos adolescentes usaron un aplicación de teléfono celular para crear imágenes en que sus compañeros vestidos aparecen desnudos.
El reporte expone un lado oscuro de la inteligencia artificial, una tecnología que permite al usuario describir en palabras lo que quiere producir sea un correo electrónico, una novela, una obra de arte o un video para que el sistema lo elabore.