Un estudio reciente reveló que las tiendas de aplicaciones de Apple y Google albergan decenas de apps capaces de “desnudar” digitalmente a mujeres mediante inteligencia artificial, a pesar de que ambas compañías prohíben explícitamente este tipo de contenido en sus políticas.
La investigación fue realizada por el Tech Transparency Project (TTP) y documenta cómo estas herramientas permiten crear imágenes y videos sexualizados sin consentimiento, a partir de fotografías comunes.
El análisis identificó 55 aplicaciones en Google Play Store y 47 en la App Store de Apple que permiten quitar la ropa a mujeres de manera digital o colocarlas en poses sexualizadas. En total, 38 de estas apps estaban disponibles en ambas tiendas.
Todas las aplicaciones seguían activas al 21 de enero, fecha en la que TTP cerró su revisión.
Millones de descargas y ganancias millonarias
De acuerdo con datos de la firma AppMagic, estas aplicaciones han sido descargadas más de 705 millones de veces en todo el mundo y han generado 117 millones de dólares en ingresos a lo largo de su vida útil.
Tanto Apple como Google obtienen beneficios directos de esta actividad, ya que cobran comisiones de hasta 30% por compras dentro de las aplicaciones, como suscripciones o créditos.
¿Por qué estas apps violan las reglas de Apple y Google?
Google prohíbe aplicaciones que muestren desnudez sexual, poses sugerentes o que degraden u objetivicen a las personas, incluso si se presentan como bromas o entretenimiento. Apple, por su parte, señala que no se permite contenido “ofensivo, perturbador o abiertamente sexual”.
A pesar de eso, TTP concluyó que estas aplicaciones superaron los procesos de revisión de ambas plataformas y permanecieron disponibles para el público, incluidas personas menores de edad.
Apps que pueden desnudar con solo una foto
El informe detalla pruebas realizadas con imágenes creadas por IA para evitar el uso de personas reales. En todos los casos, las aplicaciones lograron generar desnudos parciales o totales sin bloqueos efectivos.
Entre los ejemplos documentados están:
- DreamFace, capaz de convertir una foto de una mujer vestida en un video donde aparece bailando en topless.
- Collart, que genera videos donde la persona se quita la ropa tras una simple instrucción de texto.
- WonderSnap, que ofrece plantillas como “rasgar la ropa” o “baile sensual”.
- Bodiva, que permite eliminar la ropa con un solo botón y convertir imágenes en videos pornográficos.
Varias de estas apps están clasificadas como aptas para niñas, niños y adolescentes.
Intercambio de rostros: otra vía para crear desnudos
Además de generadores de imágenes y videos, TTP analizó aplicaciones de intercambio de caras, que superponen el rostro de una persona sobre el cuerpo desnudo de otra.
Aplicaciones como RemakeFace y AI Dress Up permitieron crear imágenes de desnudos sin advertencias claras o con bloqueos fácilmente evitables, incluso cuando sus políticas dicen prohibir este uso.
El estudio también advierte sobre aplicaciones desarrolladas fuera de Estados Unidos, algunas con políticas de privacidad que indican que los datos se almacenan en otros países. En estos casos, las imágenes generadas —altamente sensibles— podrían quedar expuestas a usos no autorizados.
¿Qué respondieron Apple y Google?
Tras recibir la lista de aplicaciones identificadas por TTP Apple informó que eliminó 28 aplicaciones y advirtió a otros desarrolladores, mientras que Google señaló que suspendió varias apps durante una revisión y posteriormente eliminó 31 aplicaciones. Ambas compañías se negaron a hacer comentarios adicionales.
Esta investigación fue publicada después de la polémica por el uso del chatbot Grok para desnudar imágenes de mujeres y menores en la red social X. Sin embargo, TTP concluye que este caso es solo una muestra de un problema más amplio.
Según el informe, las tiendas de aplicaciones no están aplicando de forma efectiva sus propias políticas frente a la proliferación de herramientas de IA capaces de generar imágenes sexualizadas no consensuadas, que pueden usarse para acoso, intimidación o difusión en redes sociales.
LEE TAMBIÉN: ¿Qué pasó con los boletos de BTS en México y por qué el tema llegó hasta la diplomacia?




