Página 4 |
|
|
INFORME |
||
|
La filtración de una base de datos de un generador de imágenes con IA revela su verdadero (y tenebroso) uso
|
|
||||
|
"Imágenes sin
censura"
Henry Ajder, experto en deepfakes y fundador de la consultora
Latent Space Advisory, señala que, aunque la creación de contenidos dañinos e
ilegales no estuviera permitida por la empresa, la marca del sitio web (que hace
referencia a la creación de imágenes "sin restricciones" y a una sección "NSFW"-
indica que puede haber una "clara asociación con contenidos íntimos sin medidas
de seguridad".
|
|||||
Decenas de miles de
imágenes explícitas generadas por IA, incluido material de abuso sexual infantil
generado por IA, se dejaron abiertas y accesibles a cualquiera en internet,
según una nueva investigación revisada por medios especializados en desarrollo
tecnológico. Una base de datos abierta perteneciente a una empresa de generación
de imágenes mediante inteligencia artificial contenía más de 95,000 registros,
incluidos algunos datos puntuales e imágenes de celebridades como Ariana Grande,
las Kardashian y Beyoncé desajustadas para que parecieran niñas.
Los datos expuestos permiten vislumbrar cómo las herramientas de
generación de imágenes de IA pueden convertirse en armas para crear contenido
sexual profundamente dañino y probablemente no consentido de adultos y material
de abuso sexual infantil (CSAM, por sus siglas en inglés). En los últimos años,
decenas de sitios web, bots y aplicaciones de deepfake y desnudos han
proliferado y han provocado que miles de mujeres y niñas hayan sido objeto de
imágenes y videos perjudiciales. Esto ha venido acompañado de un aumento en el
CSAM generado por IA.
Fowler descubrió la caché abierta de archivos (la base de datos
no estaba protegida por contraseña ni encriptada) a principios de marzo e
informó rápidamente a GenNomis y AI-Nomis, señalando que contenía AI CSAM.
GenNomis cerró rápidamente la base de datos, afirma Fowler, pero no respondió ni
se puso en contacto con él acerca de los hallazgos. Ni GenNomis ni AI-Nomis respondieron a las múltiples peticiones de comentarios de medios especializados en desarrollo tecnológico. Sin embargo, horas después de que estos se pusieran en contacto con las
|
organizaciones, los
sitios web de ambas empresas aparecieron cerrados, y el sitio web de GenNomis
devuelve ahora una página de error 404.
"Lo más perturbador, obviamente, eran las imágenes explícitas de niños y ver algunas que eran claramente celebridades reimaginadas como niños", explica Fowler. El investigador explica que también había imágenes generadas por IA de chicas jóvenes completamente vestidas. Dice que en esos casos no está claro si las caras utilizadas son completamente generadas por la IA o se basan en imágenes reales.
Según Fowler, además de CSAM, en la base de datos había imágenes pornográficas de adultos generadas por IA, así como posibles imágenes de "intercambio de caras". Entre los archivos, observó lo que parecían ser fotografías de personas reales, que probablemente se utilizaron para crear "imágenes explícitas de desnudos o sexuales generadas por IA", afirma. "Así que estaban tomando fotos reales de personas e intercambiando sus caras ahí", expresa sobre algunas imágenes generadas.
|
|||||
![]()
|
Página 4 |
© 2020-2025 - Noticias5 - La idea y concepto de este periódico fue hecho en Online Periodical Format© (OPF) es un Copyright de ZahurK. Queda prohibido el uso de este formato (OPF) sin previa autorización escrita de ZahurK LEA GRATIS NOTICIAS5 LIBRE DE PUBLICIDAD
|