miércoles, 21 de octubre de 2020

Infame algoritmo, desnuda a cualquier mujer en fotografía

 

Infame algoritmo, desnuda a cualquier mujer en fotografía

por Adán Salgado Andrade

 

La inteligencia artificial, IA, fue concebida como una herramienta tecnológica para ayudar a mejorar las actividades que realiza la sociedad.

Sin embargo, muchas aplicaciones de la IA, son para perjudicar. Se está aplicando, por ejemplo, en el desarrollo de mortíferas armas, con tal de que sean más destructivas, lo que podría llevarnos, alguna vez, al escenario Terminator, en donde robots-armas, equipados con IA, pudieran decidir por sí mismos y hasta convertirse en nuestros enemigos y aniquilarnos (ver: http://adansalgadoandrade.blogspot.com/2015/08/inteligencia-artificial-otra.html).

Y, al parecer, son más las aplicaciones negativas, que las positivas, como expone el artículo de la revista tecnológica Wired “Un algoritmo falsificador, se está usando para abusar a miles de mujeres”, firmado por Matt Burguess, quien escribe como subtítulo “Una herramienta de la IA, que ‘remueve’ la ropa de fotos, se ha aplicado a más de 100,000 mujeres, algunas de las cuales, parecen ser menores de 18 años” (ver: https://www.wired.co.uk/article/telegram-deepfakes-deepnude-ai).

Comienza señalando Burguess, que falsificaciones pornográficas crecen alarmantemente y se han usado como ataques contra, al menos, 104,000 mujeres. Eso se hace, empleando una aplicación de mensajería llamada Telegram, que es usada por miles de personas, hombres, sobre todo, que la emplean para crear desnudos de amigas y familiares. Algunas de esas mujeres atacadas, sin que lo sepan, son menores de 18 años, dedujo un estudio de la compañía de detección de falsificaciones muy convincentes, Sensity. Giorgio Patrini, CEO y principal científico de la empresa, dice que muchas imágenes se ven burdas, pero, otras, podrían pasar como genuinas. “Quizá, sea la primera vez que estamos viendo esta situación, en una masiva escala”, señala Patrini.

Telegram, que cuenta casi con 25,000 suscriptores, produce esas imágenes, mediante un robot de IA, el cual, se ofrece, a cambio de una cuota, para que sus 50,000 usuarios, “desnuden” a las mujeres por las que están obsesionados de ver sin ropa.

Y las mujeres que ese robot ha desnudado, quizá superen las 104,000, pues Sensity sólo pudo contar las fotos compartidas públicamente, pero el algoritmo desnudador, permite también generar fotos para uso privado.

El sitio, al parecer, está establecido en Rusia, pero ofrece inglés, para usuarios de otros países.

Y es un sistema muy sencillo de usar, a diferencia de los que se emplean para hacer videos pornográficos falsos, más complejos. Pero, ¡claro!, sólo funciona con fotografías de mujeres. Como siempre, sale el espíritu machista, pues, ¿por qué, no, se hace con hombres también?

Sólo hay que descargar una foto a Telegram, sea de un celular o una computadora y ¡listo!, la mujer aparecerá desnuda.

Ni pensar en eso, pues puede empeorar lo que se conoce como revenge porn, que es la vil forma en que vengativos machos, exhiben fotos íntimas de ex parejas, en sitios públicos, con tal de “humillarlas y castigarlas”.

Con la aplicación que desnuda a cualquiera, aunque no se tengan fotos íntimas, será posible causar un gran daño a cualquier mujer.

El algoritmo, cobra $8 dólares por procesar 112 imágenes, así que es una “ganga”.

La profesora Mary Anne Franks, de la Universidad de Miami, dice que es algo terrible, pues “ya no importa si posaste desnuda para una foto o nunca compartiste ningún material íntimo con nadie, todo lo que ellos necesitan, es una foto de tu cara”.

Como señalé antes, la “venganza” de exponer fotos íntimas, se facilita. Y las afectadas, nada podrán hacer, pues, incluso, ni enteradas estarán, hasta que alguien les comente que las vio desnudas en algún sitio pornográfico.

Se cree que ese algoritmo, se derivó de otro llamado DeepNude, surgido en junio del 2019. Su creador lo “mató”, citando temores de cómo podría usarse. Sin embargo, podría objetarse que, entonces, para que ideó y subió a la red un algoritmo capaz de realizar semejante infamia.

Pero muy tarde se arrepintió, pues ya se había descargado 95,000 veces en unos cuantos días. Al igual que el algoritmo de Telegram, DeepNude puede buscar mujeres desnudas y vestidas y “sintetizar” imágenes del cuerpo desnudo.

Telegram funciona con servidores externos, así que es muy fácil entrar. “De algún modo, es un servicio de falsificación a la orden”, dice Patrini.

Como siempre sucede, Telegram se deslinda y señala que su política “no es la de subir a su plataforma contenido pornográfico ilegal”. Pero, ¿qué es lo ilegal para Telegram?

Mientras sus felices usuarios usen el algoritmo para pagar y desnudar mujeres a placer, ese inmoral, dañino sitio, seguirá dando el servicio.

 Burguess dice que antes de que se publicara su artículo, Telegram se tomó la tarea de borrar los mensajes que acompañaban a las imágenes de mujeres desnudas, pero no quedó claro quién lo hizo. Quizá haya tenido algo de “pudor”, quiero pensar, dado que su fama como “desnudador” está creciendo.

Sólo piensen las bajezas que hacen empresas como Telegram, a las que no les interesa que sus acciones provoquen, incluso, muertes. La serie televisiva chilena “La Jauría”, producida por Amazon, muestra todo el daño que puede hacerse, cuando una imagen íntima de una mujer, se vuelve viral, que, incluso, puede llevar al suicidio a la chica, así, agredida (ver: https://es.m.wikipedia.org/wiki/La_jaur%C3%ADa_(serie_de_televisi%C3%B3n)).  

La cinta mexicana “Después de Lucía” (2012), dirigida por Michel Franco, también muestra los alcances que puede tener que se publiquen fotos íntimas de una adolescente, que, igualmente, le ocasionan un brutal trauma psicológico, ante el bulling que sufre Alejandra, la protagonista.

Ahora, imaginen que a una chica que, sin deberla, ni temerla, la publiquen desnuda en algunos de tales infames sitios. Le destrozarán la existencia.

En una encuesta hecha en el 2019, a 3500 personas que usan el algoritmo desnudador, sobre sus motivaciones para emplearlo, se les preguntó “A quien le interesa desnudar, en primer lugar”. La mayoría de respuestas, 63%, seleccionaron la opción “Chicas que conozco en la vida real”. En cambio, celebridades y “estrellas”, quedaron en segundo sitio, 16%. La tercera opción, fue de “modelos y bellezas de Instagram”.

Así que, ni confiar en un “buen amigo”, podría decirse a las chicas, sobre todo, tratándose de un sociópata o psicópata, como, por desgracia, abundan.

Los expertos temen, como señalé, que esas imágenes se usen para humillar y chantajear a mujeres. Pero no es sólo eso, pues si de verdad se quisiera hacer algo, ya se habrían limitado o prohibido esas dañinas tecnologías. “Se teme por el impacto político que tendrán, pero no en las falsificaciones de desnudos femeninos”, señala Burguess.

Y el problema es que también las tecnologías para hacer videos falsos pornográficos, se han ido abaratando. Por ello, esos libelos, han subido de 14,678 que eran en julio del 2019, a 49,801, para junio del 2020, ¡334% de incremento! Y mostrarán a inocentes víctimas, realizar grotescos actos pornográficos, de los que ni han de estar todavía enteradas.

“Un video porno falso, de 30 segundos, muestra a la actriz Ema Watson. Y se exhiben en los sitios XVideos y XNxx, que pertenecen a una misma compañía, y han sido vistos más de 30 millones de veces. La empresa, no respondió a las peticiones de Wired para comentar al respecto, pero xHamster, otra empresa pornográfica, quitó decenas de videos pornos falsos, luego de que Wired la expuso”.

Por desgracia, cada vez más sitios ofrecen ese servicio, para falsear fotos desnudas y hacer falsos videos pornos.

Sensity, dice que el creador de Telegram, es alguien que vive en Rusia y que cuando lo cuestionó sobre su miserable algoritmo, dijo que “todo es gratuito, y si tú decides usar esa aplicación de entretenimiento, para mezquinos propósitos, entonces, tú eres el responsable por eso, tú debes de ser responsable de tus acciones”. Ésa, fue la respuesta del anónimo creador. Claro, sabe la mezquindad que está haciendo, por eso se mantiene en el anonimato.

Y agregó que las imágenes, al no ser reales, no provocan consecuencia alguna, “sólo son para diversión”.

¿¡Diversión, que desnuden a una mujer, sin su consentimiento y, peor, que la exhiban sin que lo sepa tampoco!? Vaya enfermo ese tipo.

Pero hasta compañías “respetables” ofrecen el código de DeepNude, como en la plataforma colectiva para crear software, GitHub, propiedad, nada menos, que de Microsoft y acaba de ser “puesto al día, indicando en documentos cómo usarlo”.

Le preguntó Burguess a un vocero de Microsoft, la razón por la cual seguía ese malicioso programa allí y sólo acertó a decir que “la empresa no permite ese tipo de programas, van en contra de  nuestra política de uso de GitHub”.

O sea, se lavó las manos.

Puntualiza nuevamente la profesora Franks todo el daño que ese algoritmo de la IA ocasionará a las mujeres pues “definitivamente, inhibirá lo que vas a decir, lo que quieres hacer, los riesgos que tomarás, la clase de empleos que solicitarás. Todos éstos, son caminos con los cuales, estamos imponiendo un efecto silenciador en mujeres y chicas”.

Sí, porque una chica que salga desnuda en una foto falsa o “actuando”, en un falso video porno, será afectada de por vida.

Como dije al principio, son las cosas malas que la “Inteligencia Artificial” está provocando. Y que, al final, serán aprovechadas por unos cuantos, con tal de hacerse ricos, no importa cómo, pues es el dictado del capitalismo salvaje.

Mejor, quedémonos con la ignorancia natural.

 

Contacto: studillac@hotmail.com