La inteligencia artificial (IA) ha transformado múltiples sectores, desde la medicina hasta el entretenimiento, pero su uso indebido plantea riesgos significativos. Aplicaciones como ClothOff, que operan a través de plataformas accesibles como Telegram, han generado alarma por su capacidad de producir contenido explícito sin consentimiento.
La problemática tecnológica: un debate ético y legal en auge
El uso de la IA para crear contenido falso no es nuevo, pero su accesibilidad y realismo han alcanzado niveles preocupantes. En 2023, México ya advertía sobre los riesgos de estas tecnologías a través de una iniciativa legislativa que buscaba sancionar la generación de imágenes sexuales de menores. Aunque la propuesta no prosperó, destacó la facilidad con la que se pueden fabricar imágenes convincentes, capaces de alimentar difamaciones, extorsiones y desinformación. La proliferación de estas plataformas subraya la urgencia de regular el uso de la IA para prevenir abusos.
¿Qué es ClothOff y cómo opera?
ClothOff es una plataforma de inteligencia artificial que permite a los usuarios transformar fotos comunes en imágenes o videos de contenido sexual explícito, según su sitio web, clothoff.net. Operando principalmente en Telegram, esta herramienta asegura tener más de 600 mil usuarios y ofrece funciones como “desnudar” fotos, personalizar cuerpos y generar animaciones con poses sexuales. Basta con subir una imagen bien iluminada para que el bot procese el contenido en segundos, produciendo resultados hiperrealistas. La plataforma promete no almacenar fotos ni historiales, pero su modelo de negocio, que incluye planes de pago, ha sido cuestionado por facilitar la creación de contenido ilegal.
Riesgos advertidos y desatendidos
En México, la senadora Gloria Elizabeth Núñez propuso en 2023 reformas al Código Penal Federal para castigar hasta con 12 años de prisión a quienes usen IA para generar imágenes sexuales de menores. La iniciativa alertaba sobre el potencial de estas tecnologías para desencadenar difamación, extorsión y desinformación a gran escala. Aunque la propuesta fue desechada por falta de antecedentes penales, evidenció la necesidad de legislar ante el avance de herramientas como ClothOff. La facilidad para crear contenido falso plantea desafíos éticos y legales que aún no han sido plenamente abordados.
Una demanda que marca un precedente
El caso de Jane Doe, una adolescente de 17 años en Estados Unidos, ha llevado el debate al ámbito judicial. Sus compañeros usaron ClothOff para crear imágenes falsas de ella desnuda, causándole un profundo daño emocional. La demanda contra AI/Robotics Venture Strategy 3, empresa detrás de ClothOff, acusa a la plataforma de promover la creación de contenido ilegal, incluyendo pornografía infantil. Con un promedio de 200 mil imágenes generadas diariamente y 27 millones de visitas, según la demanda, ClothOff representa un riesgo constante para las víctimas, quienes temen que sus imágenes sigan circulando. Este caso pone en evidencia la necesidad de regulaciones más estrictas para proteger a los menores y frenar el abuso de estas tecnologías.