Inteligencia artificial, otra contradicción y peligro del capitalismo
salvaje
por Adán Salgado Andrade
Una de las zagas
cinematográficas que mejor muestra el peligro de lo que significaría un robot
militar que se saliera de control, es la de los filmes de James Cameron, Terminator I y II, en los cuales un sistema de defensa “inteligente”, Skynet, encargado de vigilar el programa
nuclear de Estados Unidos (EU), se sale de control, comienza a “pensar” por sí
mismo y provoca un conflicto termonuclear que casi acaba con la humanidad en
1997. Décadas más tarde, las máquinas han evolucionado hasta apoderarse de todo
el planeta y lo que queda de la humanidad son algunos guerrilleros que luchan
por combatirlas.
El escenario planteado,
tan de ciencia-ficción, cada vez se vuelve más realista y potencialmente
peligroso, en vista de los “progresos” que ha ido teniendo la Inteligencia
Artificial (IA), la que, por desgracia, está teniendo aplicaciones no sólo en
la vida diaria, sino también en el diseño y fabricación de armamento. Una cosa
es que, por ejemplo, una supercomputadora de IBM, la Deep Blue, haya derrotado al campeón mundial de ajedrez, Gary
Kasaparov después de seis juegos y otra muy diferente es que se dejaran las
decisiones militares a cerebros artificiales y robots militares inteligentes.
Es lo que tiene preocupados a muchos, tanto científicos, así como empresarios.
Expertos en IA como
Demis Hassabis, fundador de la empresa DeepMind,
recientemente adquirida por Google, Shane
Legg, experto en IA, también de Google, Ryan Gariepy, de la empresa robótica
canadiense Clearpath, Elon Musk,
fundador de Tesla Motors, que fabrica eficientes autos eléctricos, Jaan Tallin,
fundador de Skype, el astrofísico Stephen Hawking, el profesor de Oxford, Nick
Bostrom, eticista sobre IA, Stuart Russell, pionero en ese campo y muchas otras
personalidades empresariales, académicas y científicas, se han reunido
frecuentemente en varios países y dictado conferencias sobre los peligros que
pueden derivarse de la IA, si ésta disciplina científica no se hace de acuerdo
a serias consideraciones éticas y morales, sobre todo, que se tengan en cuenta valores humanos en su creación.
Y es que todos esos
expertos y personalidades plantean el problema de qué sucedería si las máquinas
dotadas de inteligencia propia comenzaran a desviarse de los objetivos
originales para los cuales hubieran sido hechas y programadas, y generaran sus
propios comandos, que descartaran el objetivo original, sobre todo cuando se
tratara de la aplicación de la IA al diseño de armas, que, por desgracia, es el
primer cometido que se tiene cuando se da un nuevo avance, qué tan eficientes armas se lograrían aplicándolo allí.
Y no es un objetivo
secundario, no. Por desgracia, alrededor del 80% de los “avances” científicos
tienen como primer meta la fabricación y diseño de armas. Las armas siempre han
sido un muy lucrativo negocio, por eso aprovechan cualquier nuevo avance (ver: http://adansalgadoandrade.blogspot.mx/2011/12/ferias-de-armas-exhibicion-de-fuerza-de.html).
Quizá uno de los
proyectos militares que más mentes científicas conjuntó, además de millones de
dólares en fondos para que se lograra el destructivo objetivo cuanto antes, fue
el “Proyecto Manhattan”, la investigación que por poco más de tres años
engendró a la temible bomba nuclear, que fue usada absurdamente en contra de
Japón en 1945, país que ya estaba prácticamente derrotado, para “finalizar” la
segunda guerra mundial. Pocos científicos y personalidades objetaron ese infame
proyecto y que, finalmente, la letal creación se empleara (ver: http://adansalgadoandrade.blogspot.mx/2014/12/dia-de-la-trinidad-el-nacimiento-de-la.html).
En una reciente
conferencia en Londres, volvieron a reunirse personalidades como Elon Musk o
Stephen Hawking para advertir que varias corporaciones militares ya aplican la
IA en el diseño y fabricación de armas, que aunque no llegan aun a los niveles
de sofisticación de Skynet o los Terminators,
por fortuna, si representan un serio problema (ver: http://www.jornada.unam.mx/2015/07/29/ciencias/a02n1cie).
Por ejemplo, DARPA, la
división del Pentágono que existe exclusivamente para alentar la investigación
“científica” para el diseño de armas, ha logrado, mediante concursos, que
invenciones como los automóviles autónomos – que actualmente perfecciona Google
–, funcionen adecuadamente y su siguiente objetivo es que sirvan, por ejemplo,
como vehículos de combate para ir a las guerras o “vigilar” fronteras (imaginen
a cientos de esos engendros vigilando la frontera de México con EU, para evitar
que los “peligrosos” ilegales entraran allí, y, sin criterio alguno,
simplemente los mataran, con tal de cumplir eficientemente
la tarea para la que fueron programados). De hecho, los drones, esos pequeños aviones
militares que pueden volar grandes distancias, aunque no son autónomos aun,
pues son controlados remotamente por “soldados”, son un buen ejemplo de los
alcances que está teniendo el desarrollo de armamento “inteligente”. Y ya hay
varias empresas de varios países que están tratando de hacer que tales drones
sean totalmente autónomos. Y también comienzan a diseñarse prototipos de robots
militares, como el Atlas, fabricado por Boston Dynamics, que emplean principios
de la IA (ver: https://www.youtube.com/watch?v=zkBnFPBV3f0).
O sea, que el temor de
muchos por la aplicación de la IA en la industria bélica está bien fundado
Sin embargo, no sólo es
en la fabricación de las armas en donde la IA presenta reales peligros
potenciales.
Desde hace años, existen
robots industriales los cuales, en efecto, son más eficientes, veloces y
precisos en la fabricación de automóviles, por ejemplo (aunque a veces se
equivocan, como el que recientemente mató a un ingeniero que lo estaba
instalando en una fábrica de autos de VW. El robot lo confundió con una pieza,
lo apretó entre sus pinzas y lo mató. Ver: http://www.jornada.unam.mx/2015/07/02/economia/022n4eco).
Claro que desde el
punto de vista de la “racionalidad” capitalista, eso es magnífico, pues se han
incrementado exponencialmente el número de productos fabricados, es decir, que
la sobreproducción, fabricar más de lo que realmente la sociedad consume, ha
aumentado con creces, y con ello se ha agudizado más una de las principales
contradicciones del capitalismo, pues la capacidad social de consumo no va a la
par con la sobreproducción y las necesidades de obtención de ganancia de aquél.
Y no sólo eso, sino que
la introducción de sistemas robóticos automatizados crea menos empleos, pues se
fabrica más, gracias a las máquinas, con menos trabajadores (ver: http://adansalgadoandrade.blogspot.mx/2011/10/desempleo-en-eu-agudizada-tendencia-del.html).
Esta situación crea dos
problemas. Por un lado, al haber más desempleo, habrá menos consumo, el que, de
por sí, nunca ha estado a la par de todo lo que se hace, debido a la mencionada
sobreproducción. Por otro lado, las tareas para el obrero se van simplificando,
pues el llamado know-how se va
incorporando a las máquinas, así que no se requiere que sean grandes expertos,
y se les puede entrenar fácilmente, con lo que sus salarios serán cada vez más
bajos. Y así, con salarios bajos, se agudiza todavía más el problema de la
falta de consumo.
Imaginemos, entonces,
que se emplearan ya sólo robots en las fábricas, en lugar de humanos. Cabría
preguntarse, ¿quién compraría toda la sobreproducción que tan eficientemente
hicieran tales robots? Los robots, por supuesto que no, porque sólo serían
máquinas, ni modo que compraran. Pero, además, habría otra nueva contradicción,
pues al no haber ya mano de obra humana, que es la que genera realmente la
ganancia, por la plusvalía – el trabajo no pagado – generada, entonces, la
“ganancia” simplemente tendría que agregarse al final, ya que no habría
plusvalor, propiamente dicho. No sería ya capitalismo, en sentido estricto.
Y tampoco se ha cumplido
que al desplazar gente de ciertos sectores industriales por la automatización o
robotización, se crean trabajos en otros. No es así, pues, por ejemplo, en EU,
la creación de actividades alternativas a los empleos que se han perdido debido
a la automatización o los que han emigrado a China, no ha ido a la par.
Actualmente, son tiendas como Walmart las que más empleos crean en EU, pero no
otras industrias. Se ha terciarizado
el empleo allá, como en muchos otros países (ver Vaclav Smill,
desindustrialización en EU)
Quizá ese tipo de
consideraciones son a las que se refieren algunos expertos, como Murray
Shanahan, profesor of robótica cognitiva del Imperial College de Londres. Murray señala que, en efecto, puede
ser que la IA genere una súper mente diabólica que trate de destruirnos, pero
actualmente son problemas más cotidianos los que enfrentaremos. Señala que “Es difícil predecir qué va a suceder
exactamente, pero estamos muy seguros de que sí va a afectar a las sociedad de
un modo u otro”.
Sí, pues imaginemos que
no sólo en las fábricas se comenzaran a generalizar los robots, sino en otras
tareas. Por ejemplo, que los autos autónomos de Google comenzaran a trabajar
como taxis o que robots sirvieran en restaurantes, como ya sucede en algunos de
Japón o China. Y así, que se fueran sustituyendo las capacidades humanas por
robots, entonces, el consiguiente desempleo, grave de por sí, sería mucho, pero
mucho peor. Pero, insisto, también la contradicción capitalista de la
sobreproducción contra el bajo consumo se agravaría, un vicioso círculo.
Eso, en el plano
laboral, pero otros expertos están preocupados sobre el problema de que una IA
sin freno, digamos, podría llevar a generar, si no un Frankenstein, un problema
de valores. Quien más claramente lo señala es Stuart Russell, pionero en la
investigación de IA.
De hecho, el científico
británico-estadounidense redactó recientemente una carta en la que declaraba
que “Recomendamos mejor investigación con el objetivo de asegurarnos que
nuestros dispositivos basados en la IA sean más eficientes, pero benéficos.
Ellos deben de hacer exactamente lo que queremos de ellos que hagan”. Dicha
carta fue firmada ya por cientos de científicos y empresarios.
Señala Russell que
recientemente, gracias a lo que se llama deep
learning, que viene siendo una serie de algoritmos inspirados en la función
neuronal, se han mejorado, por mucho, los sistemas de reconocimiento facial que
emplea Facebook, los celulares inteligentes, la traducción simultánea de Skype
o los vehículos autónomos de Google, muy avanzados ya. Gracias a ese
procedimiento, un algoritmo “inteligente” denominado DQN fue capaz de jugar,
por sí sólo, una consola de Atari. A ese algoritmo, únicamente se le indicó el
puntaje que debía de lograr cada vez que jugara, lo cual hizo
extraordinariamente bien, incrementando mucho tal puntaje por cada juego (ver: https://www.youtube.com/watch?v=EfGD2qveGdQ).
Y es algo que preocupa
a Russell. Pues señala que “si un robot sólo tiene como meta lograr aquello para
lo que se programe, no vacilará en hacer cosas incluso absurdas. Supongamos que
un robot doméstico debe de hacer la comida y, al ver que ya no hay alimentos en
el refrigerador, toma al gato de la familia y lo mete al horno de microondas.
Si eso sucediera, nadie querría tener una cosa así”.
Quizá parezca extremo
su ejemplo, pero no lo es, pues como menciono arriba, un robot militar no
distinguiría entre un “amigo” o un enemigo, si solo está programado para
disparar contra cualquier objetivo que se mueva o tome un arma.
Viene aquí, muy ad hoc, la escena de la reciente cinta
titulada “El francotirador”, basada en al historia verídica de un soldado
estadounidense que por su excelente puntería fue asignado a trabajar como
tirador experto en la invasión a Irak. En tal escena, se ve a un niño que está
titubeando en usar o no un mortero dejado en el lugar por un atacante abatido
segundos antes por el francotirador, quien desea que el niño no lo emplee, que
no trate de disparar. Para su fortuna, al final, el niño lo deja y echa a
correr, salvándose de morir de un certero disparo. Eso, un robot, ni dudaría.
En el momento en que alguien, bueno, malo, amigo o enemigo, hombre, mujer,
niño… tomara un arma, de inmediato le dispararía, pues simplemente haría
aquello para lo que fue programado.
Algo que lograría,
señala Russell, un comportamiento “ético” en una máquina, sería enseñarle a
pensar “racionalmente”, pero es un concepto de por sí complicado en el ser
humano, pues, explica el científico, “nunca planeamos al pie de la letra lo que
hacemos. Sí, pensamos en que, por ejemplo, vamos a ir a un lugar en un avión y
de allí, tomaremos un taxi y, luego, el hotel, pero de una manera muy general.
Ya, los detalles, los vamos resolviendo en el momento”. Esa es la
“racionalidad” bajo la que funciona el cerebro humano, muy compleja aun de
convertirla en un algoritmo e introducirlo a una computadora, dice el
científico.
También plantea Russell
la necesidad de “fomentar valores” en las máquinas. “Sí, porque es lo que haría
que el robot no metiera al gato en el horno de microondas para cocinarlo, dado
que se daría cuenta de que está mal”. Por ello, piensa que se requeriría de una
“industria de valores”, a la par del avance de la IA, para dotar a las máquinas
pensantes de tales valores y que pudieran diferenciar entre lo bueno y lo malo,
lo ético y lo inmoral.
Russell mismo se
pregunta si se diera el caso de que un robot inteligente desarrollara también
valores acordes con su inteligencia, que al ir desarrollándose, o sea, que
fuera más inteligente, tales valores también crecieran. “Es algo que ignoro,
quizá sí sería así o quizá tendríamos que mejorar los valores cada que mejorara
o automejorara la inteligencia de una máquina”.
Por lo pronto, su
principal consternación en cuanto a la creación de máquinas que piensen
autónomamente, es que no sean dotadas de los mencionados valores. “Si esa
máquina no sólo piensa por sí misma, sino que es capaz de mejorar su
inteligencia, cómo garantizaremos que realmente la emplee para lo que fue
diseñada y, no, para otros fines, incluso, el hacernos daño”, señala.
Y, claro, lo de menos
sería que el robot doméstico metiera el gato al microondas para cocinarlo,
sino, como se plantea en las mencionadas cintas de Terminator, que los robots, sobre todo los militares, decidan que
su principal enemigo somos la humanidad y se apresten a aniquilarnos.
Sucede con la IA como
en algún momento pasó con la ingeniería genética, que se establecieron ciertos
estándares éticos, para evitar que algún inmoral “científico”, como, por
desgracia, abundan, se diera a la tarea de crear un monstruo en el laboratorio
o clonar a un ser humano.
“Sí, no podemos
arriesgarnos a que el robot haga su propio programa, muy distinto del original,
y se convierta en algo totalmente diferente para lo que fue diseñado. Es algo
de lo que no sabemos todavía mucho”.
Como puede verse, es
claro por qué científicos como Russell temen que se desate la investigación de
las capacidades de la IA, sin su debido paralelo de consideraciones éticas.
Por desgracia para
ellos, el capitalismo salvaje no tiene tales consideraciones y así como ha
hecho en la industria, ir relegando al obrero, lo hará en otros campos, con tal
de “abaratar costos y maximizar ganancias”, aunque con ello su principal
contradicción se profundice.
Y si la industria militar,
tan lucrativa, se beneficia aun más al diseñar armas con IA, lo hará, sin
importar las consecuencias de su inmoral proceder.
Desafortunadamente,
cada nuevo “avance” científico tiene, muchas veces, desastrosas consecuencias. Eso
sucederá, seguramente, al crear máquinas que piensen por sí mismas y los filmes
de Terminator no estarán ya tan
alejados de la realidad.