¿CUÁNTO RACISMO ESCONDE LA INTELIGENCIA ARTIFICIAL?

Edición Darío Bursztyn

<<>>

Inteligencia Artificial es como un nuevo mantra. Sobre sus ‘milagrosas’ posibilidades para la vida cotidiana, las ciencias, las comunicaciones, y la política, hay una docena de publicaciones por día. Y también aparecen algunos artículos tecno-fóbicos, que temen a las aplicaciones del algoritmo.

A 30 años del nacimiento de internet, www.purochamuyo.com / Cuadernos de Crisis, analiza la supuesta neutralidad, la AI-deología, y pone luz sobre el racismo congénito de la Artificial Intelligence.

<<>>

1

Tal como expresan el abogado especialista en migración Aidan Simardone y el investigador Dwayne Monroe en la más reciente publicación de Counterpunch, hay una AI-deología, una de cuyas características es que impide el control concreto, real, cara a cara, de las situaciones de discriminación y racismo.

“Las burocracias gubernamentales son en general, racistas, y esa decisión racista es responsabilidad de un humano, a quien se puede interpelar. En el departamento de migraciones de Canadá, los africanos tienen una tasa de aceptación de visa de sólo el 48 por ciento, cuando el 90 por ciento de los europeos, japoneses y surcoreanos logran que les aprueben la visa de ingreso a Canadá. Cuando una visa es rechazada, puede presentarse una nota de apelación para su reconsideración”.

Y prosiguen: “Esto no ocurre con la IA, porque las empresas dicen que su tecnología está patentada, que no hay nada que pueda examinarse. Dado que el público en general no entiende cómo funciona esta tecnología, las empresas pueden salirse con la suya afirmando que las decisiones de la IA son imparciales y están más allá del escrutinio”.

Lo cierto es que la IA no es realmente ‘inteligente’, sino que reconoce patrones. Racismo dentro, significa racismo fuera. Para acelerar los juicios penales, se utiliza la IA, con el propósito de determinar la probabilidad de reincidencia de cualquier sujeto. Basándose en el perfil de una persona, el algoritmo analiza una mayor probabilidad de reincidencia, lo que significa que a los negros les dictan penas de prisión más largas.

“Esto tiene sentido: aunque negros y blancos consumen drogas en igual proporción, la policía vigila más a los negros y tiene más probabilidades de detenerlos que a los blancos. Un negro tiene dos veces más probabilidades que un blanco de ser encarcelado por consumo de drogas. Por estas razones, la probabilidad de reincidencia de una persona negra es mayor, aunque no tenga más ‘probabilidades’ de cometer un delito. En lugar de tener en cuenta esta discrepancia, la IA la reproduce. El verdadero propósito de esta tecnología no es hacer que la gente esté más segura, sino eliminar la responsabilidad. Nadie fue, ‘lo decidió la computadora’.

Esta es la tecnología que se usa, y se usará más, para los visados, las solicitudes de prestaciones sociales y la situación fiscal. Estos sistemas siempre fueron racistas, pero en lugar de arreglarlo, la Inteligencia Artificial lo agrava.



En otro orden, Aidan Simardone  y Dwayne Monroe se preguntan “Y ¿qué pasa con la AI-deología y los trabajadores?

No se trata de debatir si el algoritmo y la IA van a sustituir al trabajo humano. Lo que las patronales impulsan es que la gente crea que puede hacerlo. Si los trabajadores creen que la IA les quitará el trabajo, será menos probable que exijan empleos más seguros y mejor pagados. La automatización, en diversas ramas de la producción, se utilizó para justificar los bajos salarios de los obreros. Ahora, la IA extiende esta amenaza a los empleos creativos y profesionales, con el ChatGPT, por ejemplo.

<> 

2

Ya en 2018, en la decana de las revistas conservadoras norteamericanas, Foreign Affairs -aquella desde la que Francis Fukuyama proclamó ‘el fin de la historia’ cuando cayó el Muro de Berlín- se alarmaban con la Inteligencia Artificial, pero apuntando sobre los peligros que su aplicación tenía en manos de  China y Rusia.

Lo que importa, 5 años después, es la validez de la advertencia que hacía Nicholas Wright, quien en su ilusión liberal, no podía (o no deseaba) ver que eso mismo iba a ocurrir a escala planetaria.

Afirmaba: “Las nuevas tecnologías permitirán altos niveles de control social a un costo razonable. Los gobiernos podrán censurar selectivamente temas y comportamientos (…) al tiempo que frenan los debates políticos que puedan perjudicar al régimen. (…) Además de censurar retroactivamente el discurso, la IA y los big data permitirán un control predictivo de los posibles disidentes. Esto se parecerá a la selección de consumidores que hacen Amazon o Google, pero será mucho más eficaz.

“La Inteligencia Artificial hará que esta táctica rinda más frutos. La gente sabrá que la vigilancia omnipresente de sus actividades físicas y digitales se utilizará para predecir comportamientos no deseados, incluso cualquier acción que estén contemplando. Desde un punto de vista técnico, estas predicciones no difieren de la utilización de IA en los sistemas de salud para predecir enfermedades en personas aparentemente sanas, antes de que aparezcan los síntomas.

Y concluía el analista en esa revista: “Para evitar que el sistema haga predicciones negativas, muchas personas empezarán a imitar los comportamientos de un miembro «responsable» de la sociedad.



¿Qué se entiende por imitar comportamientos?

Estos pueden ser tan sutiles como el tiempo que los ojos miran distintos elementos en la pantalla de un teléfono. Esto mejorará el control social no sólo al obligar a las personas a actuar de determinadas maneras, sino también al cambiar su forma de pensar”. Adecuarse al control social porque la IA estará en todos lados. El artículo, ese de 2018 en una revista conservadora, se titulaba “How Artificial Intelligence Will Reshape the Global Order” – Cómo la Inteligencia Artificial reconfigurará el Orden Global.

<> 

3

Hace poco más de un año, lo que relatamos en los dos puntos anteriores mereció una extensa investigación en Chicago, una de las 4 mayores ciudades de Estados Unidos, cuya intendenta era una mujer del partido Demócrata, negra y homosexual. El 30 por ciento de la población en esa ciudad, es negra.

Y la investigación se basó en quiénes recibían más multas de tránsito y en los semáforos. Tal como reveló el consorcio periodístico ProPublica,  los cientos de cámaras que salpican la ciudad -y que con las multas generan decenas de millones de dólares al año para el Municipio- han impactado en especial en los  automovilistas de los barrios negros y latinos de la ciudad.

Un análisis de ProPublica encontró que los hogares que corresponden a los códigos postales con mayoría de población negra y latina (los más pobres) recibieron el doble de multas de las que se hicieron a las zonas con mayoría de población blanca.



Las consecuencias fueron especialmente punitivas en los barrios negros, que han sido golpeados con más de 500 millones de dólares en multas en los últimos 15 años, contribuyendo a que el municipio incautara miles de autos, suspendiera licencias de conducir o decretara la quiebra e inhabilitación crediticia de miles de personas negras e hispanas. Las promesas de la alcaldesa de Chicago, Lori Lightfoot, se volatilizaron en los años de su mandato, y fue barrida por el voto popular que ahora eligió a otro negro, dirigente de base del gremio de los docentes. Los colectivos sociales pueden interpelar y cuestionar a los humanos, no a la Inteligencia Artificial…

<> 

4

La evaluación más certera y reciente proviene del Centro de Estudos Estratégicos da Fiocruz, de Brasil, y fue elaborado por Tarcizio Silva, autor del libro Racismo Algorítmico: mídia, inteligência artificial e discriminação nas redes digitais (Racismo Algorítmico: los medios, la inteligencia artificial y discriminación en las redes digitales).

¿Por qué hablar de racismo algorítmico?

Utilizo el término «racismo algorítmico» para explicar cómo las tecnologías y los imaginarios socio-técnicos en un mundo moldeado por el privilegio blanco, potencian la ordenación racializada del conocimiento, los recursos, el espacio y la violencia, a expensas de los grupos no blancos. Más allá de las líneas de programación, estamos hablando de la promoción e implementación acrítica de tecnologías digitales que favorecen la reproducción de los diseños de poder y opresión ya existentes. 

El principal problema en la superficie es que los sistemas algorítmicos pueden convertir las decisiones y los procesos en cajas opacas inescrutables, es decir, las tecnologías repletas de problemas se liberan en la sociedad, y pueden profundizar las discriminaciones, tanto sea en los motores de búsqueda en la web, que representan negativamente a las personas negras, hasta el software policial predictivo -el uso de datos y análisis para predecir delitos- que refuerza la selectividad penal.

Pero el racismo algorítmico no se refiere sólo al software en sí, sino que abarca también las tecnologías digitales emergentes, que, aun con tantos problemas, se lanzan a un ritmo cada vez mayor. Esto sucede porque las personas vulnerables por tales sistemas son minorías políticas y económicas cuyos derechos ocupan el último lugar en las prioridades tanto del sector privado como desde el área gubernamental.



¿Cuáles son los impactos del racismo algorítmico en relación a las minorías raciales?

Las tecnologías digitales contienen dualidades que pueden inclinarse hacia la opresión en sociedades marcadas por las desigualdades. Las manifestaciones más individualizadas del racismo algorítmico pueden darse en casi todas las esferas de la vida, y están cada vez más mediadas por las tecnologías digitales, como las plataformas, las apps y los sistemas de clasificación y jerarquización. Así, la mediación algorítmica de decisiones en ámbitos como los servicios públicos, la libertad de expresión, el trabajo, las remuneraciones, la seguridad e incluso el acceso a la salud, puede aumentar disparidades ya conocidas.

Esto se debe a que la carrera por el dominio del mercado de la inteligencia artificial hace que las empresas, las universidades y los gobiernos desarrollen e implementen tecnologías sin tener en cuenta los derechos humanos, en fases como la ideación, la planificación, la recopilación de datos, el procesamiento de datos, el diseño, el desarrollo de modelos y la implementación.



¿El racismo algorítmico sería una consecuencia del racismo estructural?

El racismo algorítmico es una especie de actualización del racismo estructural, su punta de lanza en la era de la datificación de la sociedad. El mantenimiento del racismo como sistema de producción de ventajas en favor de un grupo hegemónico, la blanquitud, depende profundamente de una epistemología de la ignorancia para el mantenimiento del poder. En otras palabras, la blanquitud mantiene una comprensión limitada de sociedad para que no se cuestionen las estructuras de poder racializadas y generizadas.

El desarrollo de las tecnologías algorítmicas se nutre de la historia social para ofrecer una pretendida inteligencia artificial, que está comprometida con el patriarcado y el colonialismo. Pero esta desinteligencia artificial, que actualiza opresiones como el racismo estructural, se vende como neutral.

Así, la relación entre el racismo estructural y las tecnologías digitales algorítmicas está, globalmente, marcada por lo que llamo doble opacidad, es decir, la forma en que los grupos hegemónicos buscan tanto presentar la idea de neutralidad en la tecnología como disipar el debate sobre el racismo y la supremacía blanca en Occidente.



Las bases de datos

El uso irresponsable de bases de datos supuestamente impecables para la capacitación, sin un filtrado o una curaduría completos, promueve lo peor de la sociedad, incluso en la recopilación de datos. Y las capas de opacidad en la producción, aplicación y ajuste de modelos son defendidas por las grandes empresas tecnológicas, en términos de rentabilidad y secreto comercial.

El racismo algorítmico no es una cuestión de programación o ingeniería. Más importante que las líneas de código es saber cuáles son las relaciones de poder y qué decisiones son propiciadas por la implementación de alguna tecnología.

En este sentido, me gusta mucho la idea de auditoría pública, con debates, pruebas, mapeo de casos e impactos, que sean abiertos por la propia sociedad. De esta forma, se pueden demostrar los impactos del racismo algorítmico y la sociedad civil puede reaccionar. Y las empresas no pueden eludir sus responsabilidades con excusas del tipo «secreto comercial», ya que el intento de autorregulación en el campo de la inteligencia artificial a escala busca constreñir el debate a nociones tecnicistas de parcialidad, para establecer auditorías sólo técnicas y sólo a quienes tienen acceso a los datos internos de las empresas.

Las tecnologías desarrolladas por grupos hegemónicos tienen sesgos que, de hecho, podrían mitigarse relativamente con una transformación en la diversidad demográfica y cultural de quienes las desarrollan, pero eso es parte de la cuestión.

También forma parte del problema del racismo algorítmico, y quizá sea el meollo de todo, la elección de en qué tecnologías invertir y con qué fines. No puede existir un reconocimiento facial antirracista para la policía. Es un oxímoron. Tampoco es posible contar con chatbots para la atención al cliente construidos de forma inclusiva, cuando su objetivo suele ser eliminar puestos de trabajo con un enorme desempleo y cuando la renta básica universal aún no es una realidad.



¿Qué papel desempeñan la inteligencia artificial y las bases de datos en la naturalización de los procesos de discriminación racial?

La naturalización de los procesos de discriminación racial en sistemas algorítmicos y bases de datos es característica del propio enfoque empresarial de las startups y las grandes empresas tecnológicas.

Los multimillonarios que se han convertido en gurús del capitalismo, como Elon Musk y Mark Zuckerberg, tienen frases célebres como «Muévete rápido y rompe cosas» para explicar los éxitos privados y los fracasos socialmente compartidos. Tenemos que cambiar la premisa de que es posible la universalidad de soluciones o tecnologías. No es posible crear sistemas adecuados, justos y potentes para todas las culturas. Esta creencia está ligada a una óptica colonial del conocimiento, que sólo favorecen la implantación y circulación de corporaciones tecnológicas globales y, como consecuencia, servicios de segunda clase para los grupos minoritarios o del Sur Global.

¿Cómo interrumpir este ciclo discriminatorio?

Existen diferentes modos de reaccionar ante el racismo algorítmico que se centran en mejorar implementaciones concretas -los filtros de selfies en Instagram, por ejemplo- hasta la inclusión de disposiciones antidiscriminatorias en las leyes sobre inteligencia artificial, protección de datos y similares.

El control social de la tecnología es un objetivo indispensable si queremos futuros democráticos y beneficiosos para el mundo. Brasil es un ejemplo teórico de gobernanza multisectorial de internet, con mecanismos para que sectores como el gobierno, las empresas, la sociedad civil y el mundo académico participen en el debate sobre políticas, regulación y vías de acceso a internet. En la práctica, sin embargo, el sector privado ha actuado sistemáticamente en contra de los intereses de la población, a veces incluso promoviendo la desinformación sobre la gobernanza de Internet.

Luchar contra la discriminación en la web o contra los efectos nocivos de los sistemas automatizados no es barato. No puede ser barato, teniendo en cuenta la complejidad del mundo, los discursos y la seducción de la blanquitud. Precisamente por ello, las empresas tecnológicas basadas en el capital financiero tratan de ofrecer soluciones que individualizan las posibles reacciones y tratan de eludir su responsabilidad. Por tanto, la falsa creencia de que las tecnologías digitales son objetivas o toman decisiones neutrales facilita la implantación de sistemas y modelos de negocio que privilegian el beneficio, el ahorro de costos, la precarización y la eliminación de puestos de trabajo en detrimento de los valores humanos.

La propia noción falsa de ‘inteligencia’ artificial es útil al capitalismo. Los sistemas que reciben este nombre no son ni inteligentes ni artificiales, ya que se producen a partir de la explotación del trabajo ajeno, directa o indirectamente. Pero la ideología de la inteligencia artificial (AI-deología) promueve la falsa noción de neutralidad y de que los ciudadanos debemos adaptarnos a la inteligencia artificial y no al revés, que las tecnologías deben ser construidas, reguladas e implementadas socialmente para el bien común.

<<>>

Las pinturas incluidas en esta edición son creación y propiedad de la artista Hassina Khelifati, y no pueden reproducirse sin su previo consentimiento.

<<>>

El material que publica la revista web www.purochamuyo.com / Cuadernos de Crisis pertenece al Colectivo Editorial Crisis Asociación Civil. Los contenidos solo pueden reproducirse, sin edición ni modificación, y citando la fecha de publicación y la fuente.

REGISTRO ISSN 2953-3945

9 comentarios

  1. Querido Dario, este apasionante tema forma parte de un artículo q estoy escribiendo: el lado oscuro del General Intellect. Debo sugerir q epistemologicamente, la validación de la IA reside en su eficacia o ineficacia para mejorar la productividad, y no el valor de uso de reforzar los dispositivos de opresión. Pero los reducidos datos reunidos hasta ahora muestran q en ese sentido, viene siendo un fracaso. La productividad no viene aumentando logarítmica mente, ni siquiera linealmente en los últimos tres o cuatro años. Se refuerza la conjetura de que es una retroalimentación de la tecnología para la dominación, y no tanto un explosivo método de creación de riqueza

    1. Gracias Pedro por tu lectura y aporte. Si los datos son esos, que no aumenta la productividad, entonces queda más despejada la hipótesis que sostienen los analistas que citamos en la edición, y es que la IA es un producto esencialmente ideológico, y un mecanismo de dominación, encubierto por la supuesta neutralidad del algoritmo

  2. Soy el resonsable de contenidos en la página http://www.identidad-cultural.com.ar La nota es excelente y deseo reproducirla en la página, que dicho sea de paso tiene una visita diaria de entre 2.500 y 3.000 interesados.
    Si están ustedes de acuerdo procederé a editarla para la página, desde luego destacando su procedencia, en nuestra sección «Diarios, revistas y otros papeles».
    Felicitaciones.
    Ricardo Luis Acebal

    1. Estimado Ricardo, gracias por los elogios al material que hemos publicado. Sí, con mucho gusto aceptamos esa propuesta. Simplemente solicitamos (como en otras ocasiones, ej. el informe sobre Vicentín u otros que han sido reproducidos) que no se modifiquen los contenidos, y se cite la fuente http://www.purochamuyo.com/Cuadernos de Crisis, revista de Cultura y Pensamiento Crítico
      Un muy cordial saludo

  3. Excelente investigación y no tan solo les felicito sino y fundamentalmente, les agradezco. Se sabe demasiado poco de IA, hace poco leí un artículo, muy interesante, aplicado al derecho; decía una magistrada que en sentencias era indispensable conocer los hechos por la misma fuente y tomar en cuenta los agravante y por menores para su emisión, no es automático ni apersonal
    Abrazos

    1. muchas gracias Juan por tu lectura y los elogios. Nos ayuda mucho, dado que la revista es de libre acceso, que más gente se suscriba para recibir el contenido, y lo comparta con otros lectores. Sumar conocimiento, sumar a los debates, es el objetivo de la Asociación Civil sin fines de lucro que edita la revista

Responder a Luciana Gorostiaga Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.