miércoles, 15 de marzo de 2023

En EEUU, se usa algoritmo para determinar si padres están capacitados para cuidar a sus hijos

 

En EEUU, se usa algoritmo para determinar si padres están capacitados para cuidar a sus hijos

Por Adán Salgado Andrade

 

En esta deshumanizada época en que todo se quiere hacer más eficiente, softwares “especializados” tratan de hacer labores que corresponderían más a personas, sobre todo, porque éstas, pueden sustituir eficiencia por sensibilidad, característica tan necesaria en un mundo cada vez más materialista y egoísta.

Por ejemplo, se emplean algoritmos, supuestamente operados con Inteligencia Artificial (que no lo es, pues son simples programas que se entrenan con bases de datos), de ese tipo, en Europa, para determinar si se le da ayuda estatal a algún ciudadano. En Holanda, cada año se les da a unas 30,000 personas ayuda para comprar comida, renta y algunos gastos esenciales. Pero últimamente se han estado empleando softwares que hacen una serie de invasivas preguntas que averiguan todo. Y según sean las obligadas respuestas, son los “riesgos” que detectan tales algoritmos. Si el solicitante es joven, el riesgo incrementa, es decir, que se trate de una persona “fraudulenta”. Lo mismo, si es una mujer, si se tienen niños, si no hablan holandés, si se las ven difíciles para pagar las deudas, si son migrantes, si no son blancos…

Son programas que no discriminan. Si una persona dejó de pagar renta, no importa la causa (que haya perdido su trabajo, digamos), simplemente, el algoritmo lo ve como una falla. O que tengan hijos, como los migrantes, también lo ve mal, pues es una carga adicional, sin entender que familias completas huyen de la miseria de sus países. O que si una mujer tuvo una relación y rompió, que es considerada “problemática” o que si es madre soltera, que también. O que si renunció a un trabajo, porque acaba de tener a su hijo y que, como no tiene quién lo cuide, igual, es “sujeto de investigación”.

Es la simple, fría aplicación de programas que medirían la “normalidad” humana, sin tomar en cuenta los factores individuales de porqué se cometió esa “falta” (ver: https://www.wired.com/story/welfare-state-algorithms/).

Igualmente en Dinamarca, se están aplicando algoritmos para determinar a las personas que cometen fraudes al solicitar ayuda estatal. En efecto, hay personas “vividoras”, pero la mayoría, realmente necesitan esa ayuda. Sin embargo, un algoritmo considera “sospechosos” a migrantes o a los que no hayan tenido una relación amorosa “estable”. También investiga sus pagos de servicios, como luz o agua y si están gastando mucho, también son “sospechosos”. Pero resulta que los considerados “sospechosos”, a la hora de que trabajadores sociales los investigan, comprueban que no lo son y que sólo tuvieron algunos contratiempos por los cuales, por ejemplo, no pudieron pagar la renta a tiempo o que estuvieron separados de su pareja sentimental algunas semanas, por cuestiones de viajes y así. Lo que demuestra que ese algoritmo es, simplemente, invasivo, intolerante y erróneo (ver: https://www.wired.com/story/algorithms-welfare-state-politics/).

Se han hecho realidad los métodos narrados en la novela del escritor inglés George Orwell (1903-1950), 1984, en la que refería al Big Brother, como un dictador de un estado totalitario, distópico, que todo lo vigilaba, nada escapaba a su control. Orwell tomó, como inspiración, a la Alemania nazi o a la URSS estalinista, ambos, países dictatoriales, dominados por locos de poder (ver: https://en.wikipedia.org/wiki/Nineteen_Eighty-Four).

Y a pesar de su cuestionable “eficacia” un algoritmo así, ya se aplica en varios estados de Estados unidos, para determinar, nada menos, si padres son o no capaces de cuidar a sus hijos. El algoritmo les hace una serie de preguntas y, al final, evalúa si pueden o no cuidarlos. Si determina que no, trabajadores sociales, llegan con órdenes en las que se obliga a los padres “incapaces” a entregar a sus hijos a instituciones públicas en donde los cuidan hasta que los padres se “curen” o hasta que otros “capacitados” puedan adoptarlos.

Ese tema, lo expone el artículo de Associated Press, titulado “Nada de magia: una opaca aplicación de IA, identifica a padres con discapacidades”, firmado por Sally Ho y Garance Burke, en el que refieren cómo esa cuestionable aplicación, puede decidir, bajo muy intolerantes y arbitrarios criterios, si padres pueden cuidar a sus hijos.

Es lo que hizo con Lauren y Andrew Hackney, quienes por sus “discapacidades”, perdieron la patria potestad de su hija de un año, arrebatándoselas trabajadores sociales, que la llevaron a una casa hogar, en donde la pueden visitar, pero sólo unos minutos.

Todo, porque la niña no quería comer y fue hospitalizada. El algoritmo determinó que los padres eran “descuidados. Luego, se concluyó que no fue por falta de cuidados, sino que la niña tiene un desorden que le interfiere el gusto y por eso, ni en la casa-hogar, come normalmente.

Y las supuestas “discapacidades” de los Hackney, no son problemáticas. Lauren, tiene un déficit de atención, pues es hiperactiva. Su esposo, Andrew, tiene un desorden de compresión y daño neuronal, por un derrame cerebral que sufrió en sus años veintes. “Pero amamos a nuestra hija, nos esforzamos lo más que podemos para cuidarla”, dice Lauren a las reporteras, llorando, sin entender porqué, tan drásticamente, les arrebataron a su hija.

Andrew trabaja en una tienda y se están quedando sin dinero por todos los gastos legales que están haciendo para recuperar la custodia de su hija, tan injustamente arrebatada, sólo porque un algoritmo “inteligente” determinó que no eran capaces de “cuidar” convenientemente a su pequeña.

Las reporteras quisieron averiguar, con las diseñadoras del programa, la señoras Rhema Vaithianathan, profesora de economía de la salud, en la Universidad Tecnológica de Auckland, Nueva Zelanda, y Emily Putnam-Hornstein, profesora de la escuela de Trabajo Social, dependiente de la Universidad de Carolina del Norte, en qué variables basaron su algoritmo. “Pero nunca contestaron a nuestras múltiples solicitudes de información y entrevistas”.

Claro, saben el libelo que hicieron, que, de todos modos, ya está siendo muy criticado por activistas y asociaciones de derechos humanos.

No es nuevo en Estados Unidos que la gente con discapacidades, sea separada de sus hijos. Pero son casos severos, como que tengan, por ejemplo, demencia, esquizofrenia, problemas motores y así.

Pero en el caso de los Hackney, no se justifica.

Además, esos algoritmos toman en cuenta problemáticos pasados que ya fueron superados. Es el caso de Charity Chandler-Cole, mujer afroestadounidense, madre de cuatro hijos, que estuvo en casas-hogar cuando era adolescente, “ solamente porque robó ropa interior para su hermana menor, que por ser tan pobres, no tenía”.

Ahora, es CEO de una organización para ayudar, en las cortes, a niños adoptados y a sus padres, y afirma que esos algoritmos, sólo etiquetan intolerantemente a gente que está en condiciones de cuidar a sus respectivos hijos.

Por otro lado, que hijos sean separados de sus padres, afirman expertos, es peor, pues terminan yendo de una casa-hogar a otra “y quedan traumados, de por vida, al ser separados de sus padres”.

Andrew dice que espera que les regresen a su hija. “Es muy triste que vengas, que la abraces y que, al final, te tengas que despedir de ella, llorando, a pesar de que sea tu hija. De verdad, queremos mi esposa y yo, que nos la regresen”.

Este es sólo uno de los ejemplos de lo dañino que será hacer a un lado la sensibilidad humana, para dejarla en manos de un “algoritmo inteligente”.

No, nada de inteligentes. Son simples, estúpidos programas de represión.

Para eso es para lo que sirven.

 

Contacto: studillac@hotmail.com