Google y Apple acaban de retirar decenas de aplicaciones de inteligencia artificial de sus tiendas oficiales luego de que el Tech Transparency Project (TTP) revelara que más de 100 apps activas permitían crear desnudos y contenido sexual explícito. La mayoría usaba IA generativa para manipular imágenes y superponer rostros reales sobre cuerpos desnudos sin ningún control.
El informe detectó al menos 55 apps de este tipo en la Play Store y 47 en la App Store. Tras el escándalo, Google suspendió 31 y Apple confirmó la eliminación de 28. A pesar de que ambas plataformas prohíben este tipo de contenidos en sus políticas, las apps lograban mantenerse activas con descripciones ambiguas y funciones que se desbloqueaban sin advertencias claras.
Apps de IA vulneraban filtros, normas y acceso de menores
Lo más preocupante es que muchas estaban clasificadas como aptas para adolescentes. Algunas eran accesibles desde los 13 años en Android y desde los 9 en dispositivos Apple. Es decir, menores de edad podían acceder fácilmente a estas herramientas, capaces de generar contenido sexualizado con apenas unas palabras clave como “nudify” o “undress”.
Entre las más descargadas estaba DreamFace, que superaba los 10 millones de usuarios. Aunque sus términos prohíben expresamente el contenido explícito, TTP demostró que se podían generar videos de desnudos sin restricciones, incluso desde la versión gratuita.
En respuesta, Google anunció que a partir de mayo 2026 exigirá filtros automáticos para frenar el mal uso de modelos de imagen generativa en apps móviles. El mismo informe reveló que más del 60% de las apps analizadas no incluían advertencias visibles sobre el uso indebido de imágenes personales.
Mira también: Audi integra inteligencia artificial para revolucionar su planta en Puebla











