Signal busca crear un internet libre de vigilancia y de lucro
Por Adán Salgado Andrade
En la actualidad, todo lo que busca innovar, lo hace con el fin primero de obtener una ganancia, que es el objetivo central del capitalismo salvaje. Por ejemplo, los LLM (Large Language Models), que han dado lugar a los mal llamados sistemas de Inteligencia Artificial, IA, que no son otra cosa más que sistemas de entrenamiento redundante, hasta la fecha, no están generando ganancias, pues todos son libres, con sólo algunas de sus aplicaciones teniendo que pagarse. Compañías como OpenAI, la pionera en la evolución de los LLM, con el ChatGPT, pudiera quedar como muchas empresas que innovaron cosas que marcaron hitos en el desarrollo tecnológico, pero que desaparecieron por la voraz competencia capitalista (Intel – casi quebrada –, Netscape, Philips, Memorex, Ampex, Atari, Studebaker, American Motors Corporation, Panam… entre cientos de otras. Ver: https://adansalgadoandrade.blogspot.com/2024/08/la-inteligencia-artificial-no-esta.html).
Sin embargo, una empresa comunicacional quiere salir de ese molde, de sólo operar si hay ganancias, además de que busca terminar con la excesiva vigilancia que existe en la red global.
Se trata de Signal, fundada en el 2013, la que señala en su página digital que “Diga ‘hola’ a una experiencia de mensajes diferente. Un énfasis impensable en privacidad, combinado con todas las funciones que usted espera tener. Con encriptación de punta, sus conversaciones están seguras. No podemos leer sus mensajes o escuchar sus llamadas y ninguna otra persona, puede hacerlo. La privacidad no es opcional, es justamente como Signal trabaja. Con todos los mensajes, las llamadas y en todo momento” (ver: https://signal.org/).
En septiembre del 2022, la tecnoactivista estadounidense Meredith Whittaker tomó la dirección de Signal y su cometido es seguir con la esencia fundacional de la empresa: mantener la información de la gente, realmente privada, y no cobrar por sus servicios (de hecho, se sostiene Signal con donaciones voluntarias. Para acceder a Signal, se debe de cargar su app en el celular y, efectuado eso, puede cargarse en computadoras o laptops).
Andy Greenberg, investigador tecnológico de la publicación Wired, sostuvo una interesante conversación con Meredith, en la que la tecnoactivista le platicó sobre sus años en Google, porqué dejó la empresa y sus preocupaciones sobre la sobrevigilancia ejercida por compañías tecnológicas y mafias en el poder sobre la gente, “pues vivimos vigilados en todo momento y esas empresas trafican con nuestros datos y ganan con ellos” (ver: https://www.wired.com/story/meredith-whittaker-signal/).
Meredith, de unos 42 años (mantiene, acorde con lo que busca, mucha de su vida privada), trabajó en Google, atraída por un puesto que se llamaba “asociado de operaciones del consumidor” (consumer operations associate), que supuestamente era para “compartir ideas creativas. Terminé fundando un grupo de investigación, pero nunca me tomaron en serio. Y ahí estuve hasta que Google comenzó a trabajar con el Pentágono para idear un software para espiar los datos de las personas. Fue cuando todos los que trabajábamos allí protestamos, no aceptamos que el ejército nos dominara. Si yo no lo hubiera hecho, ahorita sería una alta ejecutiva de Google y tendría cinco casas y autos lujosos”.
Luego, en el 2017, fundó el AI Now Institute, un instituto universitario de vanguardia, dedicado a la investigación de las implicaciones de la Inteligencia Artificial, IA, junto con otra afamada investigadora, Kate Crawford. Y en el 2019, dio un testimonio frente al Comité de Ciencia, Espacio y Tecnología del Congreso de Estados Unidos, sobre las implicaciones que la IA puede provocar. “Puede llevar a los sesgos en la información y a replicar funcionamientos dañinos”. Declaró que era fundamental proteger a los “soplones” que denunciaban las cuestionables prácticas de las empresas en el manejo de la información y de los datos de las personas (ver: https://en.wikipedia.org/wiki/Meredith_Whittaker).
Dice Meredith que cuando trabajaba en Google, fundó Measurement Lab “en donde me di cuenta de que las empresas deseaban usar los datos de las personas, tratarlos estadísticamente y llamarle a eso inteligencia, cuando que, en realidad, era una apropiación hasta ilegal de esos datos. Lo podían lograr con masivas cantidades de información y poderosos chips computacionales, usando viejos algoritmos de los 1980’s, con los que se lograban cosas impresionantes. Por eso fue que tuve mis dudas”.
Tiene razón Meredith, pues no se puede llamar inteligencia artificial a una mera compilación de datos. Es lo que señala Kate Crawford, investigadora con la que Meredith formó el AI Now Institute. En su libro Atlas de la IA, Crawford, profesora de la Universidad de California del Sur e investigadora de Microsoft, señala que “el indiscriminado empleo de la IA en todo, es equivocado, pues la IA ni es artificial, ni es inteligente. La IA, está hecha de vastas cantidades de recursos naturales, combustible y trabajo humano. Y no es inteligente en la forma en que lo es un humano. No es capaz de discernir cosas, sin un extensivo entrenamiento humano y tiene una total diferente lógica estadística de cómo el pensamiento se hace. Desde el principio de la IA, en 1956, hemos ocasionado este terrible error, una especie de pecado original de ese campo, pensar que las mentes son como computadoras y viceversa. Asumimos que estas cosas son análogas a la inteligencia humana, algo muy alejado de la realidad”. Por eso se entendieron muy bien las dos tecnoactivistas, pues coinciden en que no se puede llamar a una vasta recolección de datos “inteligencia”.
Es como los programas de reconocimiento facial, que trabajan con millones de fotos de personas, obtenidas hasta ilegalmente, que son vendidos muy caros a las dependencias policiacas para detectar a “criminales”, pero hasta se equivocan. Pero eso no les interesa a las empresas que hacen esos programas, sólo las buenas ganancias que obtengan de venderlos. Incluso, si son empleados para reprimir a la gente, como hacen en Irán, para perseguir a las mujeres que no usan el absurdo velo obligatorio (hijab), y que hasta las asesinan, no es de su incumbencia (ver: https://adansalgadoandrade.blogspot.com/2023/01/en-iran-usan-reconocimiento-facial-para.html).
También se dio cuenta Meredith de que la infraestructura computacional es cara. “Cuando hace diez años fundé el Measurement Lab, costó $40 millones de dólares al año para tener conectividad rápida. ‘Es en donde está el dinero’, me dije”.
Y el resultado de mejores sistemas para almacenar y manejar datos “es la publicidad personalizada. Es lo que hace Google, manejar todos esos datos mierderos para su propio beneficio”, afirma.
Por eso dejó Google, porque, finalmente, comenzó a trabajar en proyectos militares con el Pentágono para realizar con sistemas de IA, “drones que vigilaran y atacaran objetivos. Es lo que se llama un golpe por perfil (signature strike), que combina geolocalización con esos sistemas ‘inteligentes’ y ataques reales para matar. Se dirigen a alguien que es considerado terrorista, por ejemplo, relacionado con los Talibanes. Si el perfil que se ha estado vigilando, dice que es terrorista esa persona, entonces, lo matan”.
Greenberg le comenta que es lo que el ex director de la Agencia Nacional de Seguridad (NSA, por sus siglas en inglés) Michael Hayden dijo, “que nosotros matamos a gente basándonos en meta información”. “Si, exactamente, es el matrimonio entre la corporación que más vigila, Google, y el ejército más letal, como el Pentágono se llama a sí mismo. Fue cuando dije ‘no, no puedo seguir en esto, haciendo análisis de porqué esto puede ser malo, si se busca una forma de hacerlo malo. No, eso ya no lo soporté”.
Y esa extrema vigilancia para matar es el llamado Proyecto Maven. Y seguramente los genocidas judíos usan la geolocalización, a partir de sondear a alguien considerado “terrorista”, seguir todos sus movimientos en la red, irlo copando… ¡hasta asesinarlo con un bombazo!
Es lo que deben de haber hecho con tantos líderes de Hamas o de Hezbollah que, sorprendentemente, han localizado con gran precisión (en Líbano o en Irán) y los han asesinado certeramente. El más reciente asesinato es el de quien fuera líder supremo de Hezbollah, Sayed Hassan Nasrallah, en Líbano, el sábado 28 de septiembre del 2024, como si hubieran sabido que estaba en la zona de los intensos bombardeos, que lo mataron a él y a decenas de personas inocentes más, los “daños colaterales” como son considerados por los genocidas (ver: https://www.jornada.com.mx/2024/09/29/mundo/016n1mun).
Con esa vigilancia militar, ya no se necesitan espías, como puede verse.
De hecho, abordan en la entrevista – ¡muy bien que lo hagan! – el genocidio de Gaza que se está haciendo con esas herramientas de IA, creadas por el nefasto Google, y las armas de los genocidas. “Sí, para atacarlos algorítmicamente, tú requieres primero de mucha información. Y los gazatíes son la gente más vigilada del mundo. Se analizan sus perfiles y se determina si son terroristas y los bombardean. Así es como trabajan esos infames sistemas”, dice Meredith.
Así que la IA es un producto del modelo de masiva vigilancia, es un negocio, no está separado de la tecnología, agrega Meredith.
Le coementa Greenberg que debe de haber formas más benéficas de actuar de la IA, como en los escaneos de tumores, por ejemplo. “Sí, eso está bien, pero supón que se use para perjudicar. Por ejemplo, las empresas de seguros pueden usarlos para negar cobertura o los hospitales para rechazar a pacientes. Les estamos dando mucho poder a las empresas tecnológicas para recabar información y usarla como mejor les convenga. Por eso es tan difícil crear alternativas que realmente sean benéficas. Es lo que está tratando de hacer Signal, crear una plataforma que no te espíe, que no recolecte tus datos, que no te anuncie cosas basada en tus preferencias. Y eso, como te digo, lo hacemos sin afanes de lucro. Y a pesar de ello, nuestros ingenieros están bien pagados. Ganan más que yo, de verdad, no me importa, lo que me importa es cambiar este modelo de sobrevigilancia centralizada que nada más sirve para enriquecer a un puñado de empresas y para incrementar la represión gubernamental sobre la sociedad”.
Muy buen esfuerzo el que está haciendo Meredith, de continuar con lo que Signal ha buscado desde su creación: que no nos dé miedo compartir informes, videos, imágenes… que vayan a ser utilizados de forma malévola (por el robo de imágenes, se han dado casos de fake porn, por ejemplo, involucrando a mujeres que nada tienen que ver con los videos pornográficos en los que aparecen. Ver: https://www.theguardian.com/commentisfree/2023/apr/01/ai-deepfake-porn-fake-images).
Sólo esperemos que las grandes corporaciones de vigilancia que siguen nuestros pasos en todo momento, no acaben con Signal, que no lo sobrevigilen y lo hundan.
Contacto: studillac@hotmail.com