Press ESC to close

Kate Crawford y la otra cara de la IA

A finales del siglo XIX, un caballo llamado Hans el Astuto cautivó a Europa. Podía resolver problemas matemáticos, decir la hora y deletrear palabras golpeando su pezuña contra el suelo. El público, asombrado, veía inteligencia pura. Pero no era más que una ilusión. Una comisión de investigación descubrió que Hans no entendía nada; simplemente respondía a pistas inconscientes en la postura y la expresión facial de su interrogador, deteniéndose cuando percibía la tensión que delataba la respuesta correcta.

La anécdota abre el libro de Kate Crawford, “Atlas de inteligencia artificial” y es la metáfora perfecta para describir lo que la autora llama “sesgo de expectativa”: proyectamos inteligencia y autonomía en sistemas que, en realidad, solo reflejan nuestras propias órdenes, sesgos y estructuras de poder. Creemos ver una mente abstracta, pero ignoramos la realidad material que la sostiene.

En esa línea de pensamiento, la investigadora australiana, integrante de AI Now Research Institute de la Universidad de Nueva York y profesora del MIT Media Lab; hace una cartografía que pretende arrojar luz sobre aspectos ocultos de la inteligencia artificial, a la describe como una “megamáquinade extracción global, que para funcionar depende de la explotación de recursos materiales, mano de obra barata y datos a gran escala, afirmando que no es una tecnología neutral ni incorpórea.

De ese modo, explora las consecuencias materiales y sociales de la IA, detallando su dependencia de la minería de litio y otros minerales, y la explotación laboral en centros de distribución y el uso de la vigilancia.

Aquí algunos puntos destacados del libro:

  1. Ni “artificial” ni “inteligente”

Crawford analiza y resignifica el propio nombre del campo al afimar que  la IA “no es una mente incorpórea que surge del código, sino un sistema profundamente material“. No es “artificial” -dice- porque su existencia depende de la extracción de minerales, del consumo de agua y de combustibles fósiles. Tampoco es “inteligente” en el sentido humano; no razona ni comprende. Simplemente ejecuta funciones estadísticas a gran escala, entrenadas con cantidades masivas de datos.

Esta idea desmonta el mito de la IA como una fuerza objetiva y autónoma. La revela como lo que realmente es: una herramienta industrial diseñada para servir a intereses de poder ya existentes, ampliando su alcance y ocultando su funcionamiento. Como concluye Crawford, la IA no es una nueva forma de vida; es, fundamentalmente, un certificado de poder.

En ese sentido, explica que lejos de ser virtual, la IA tiene forma corpórea, materialidad, está hecha de recursos naturales, combustible, mano de obra, infraestructuras, logística, historias y clasificaciones para recordar que los sistemas de IA no son autónomos, racionales ni capaces de discernir algo sin un entrenamiento extenso e intensivo.

  1. La “nube” tiene un cuerpo físico (y una enorme huella planetaria)

Crawford desmitifica a “la nube” como algo etéreo e incorpóreo, mostrándonos que la nube tiene un cuerpo físico y voraz. Y para explicarlo  establece un brillante paralelismo histórico: Silicon Valley es a nuestra era lo que fue el San Francisco del siglo XIX. Aquella ciudad se construyó sobre la riqueza extraída de lejanas minas de oro y plata, mientras sus habitantes practicaban una “amnesia estratégica”, ignorando la devastación ambiental que financiaba su prosperidad. Hoy, asegura la autora, la industria tecnológica repite el patrón.

Tras afirmar que “nuestra vida digital depende de una industria de extracción masiva” toma las ideas del teórico Jussi Parikka, para recordar que “los medios no son extensiones de nuestros sentidos, sino extensiones de la Tierra”. Estamos extrayendo la historia geológica del planeta para alimentar dispositivos diseñados para durar apenas unos años.

Y concluye que la nube, columna vertebral de la industria de la IA, está hecha de rocas, litio en salmuera y petróleo crudo.

  1. La ilusión de la automatización se sostiene con trabajo humano oculto y explotado

En otro de los capítulos, la autora analiza la narrativa de que “los robots nos reemplazarán” y opina que es, en gran medida, una fachada. La denomina “IA Potemkin” o “fauxtomatización“, un engaño con profundas raíces históricas. En ese sentido explica que el concepto se remonta a los falsos pueblos modelo construidos por el príncipe Potemkin en la Rusia del siglo XVIII, y a las “casas de inspección” de Samuel Bentham, diseñadas para vigilar a los trabajadores y maximizar la eficiencia. Esta obsesión por controlar el cuerpo humano -asegura-se perfeccionó a lo largo de la historia industrial.

Citando al matemático Charles Babbage, que veía a los trabajadores como partes falibles de una máquina de cálculo; a Frederick Winslow Taylor, que cronometraba cada uno de sus movimientos y a Henry Ford, que los subordinó al ritmo implacable de la cadena de montaje pone el ejemplo de los centros logísticos de Amazon afirmando que “no son el futuro sino la culminación digital de estas fantasías de control del siglo XIX”: millones de trabajadores de “microtareas” en plataformas como Amazon Mechanical Turk etiquetan datos por salarios ínfimos para que los sistemas “aprendan“, “mientras los algoritmos gestionan los cuerpos de los empleados de almacén como si fueran componentes de una máquina. Este trabajo humano se oculta para mantener el mito de la inteligencia autónoma”.

  1. La IA no “descubre” el mundo: impone un orden a través de clasificaciones problemáticas

Avanzando a su tesis más profunda, Crawford recuerda que los sistemas de IA aprenden a partir de “conjuntos de datos de entrenamiento”, colecciones de datos etiquetados que están lejos de ser neutrales. Y Establece un potente paralelismo con la craneometría del siglo XIX de Samuel Morton, quien midió cráneos para “demostrar” una jerarquía racial preexistente. Sus métodos estaban plagados de sesgos que simplemente confirmaban sus prejuicios. Del mismo modo, los conjuntos de datos modernos imponen un orden al mundo que refuerza las jerarquías existentes.

  1. La “detección de emociones” es una industria multimillonaria basada en ciencia muy cuestionada

Finalmente, la autora describe una de las áreas más inquietantes de la IA: la tecnología que afirma poder leer nuestras emociones en el rostro, utilizada en contrataciones, seguridad y educación. Esta industria multimillonaria se basa en gran medida en las teorías del psicólogo Paul Ekman, quien propuso un pequeño conjunto de emociones universales con expresiones faciales idénticas en todas las culturas.

En ese sentido, explica que lo que rara vez se menciona en los estudios de Ekman es el contexto: la investigación inicial de Ekman en los años 60 fue financiada por ARPA (la precursora de DARPA), la agencia de investigación del Pentágono, en plena Guerra Fría. Esto vincula directamente la supuesta “ciencia” de la detección de emociones con los intereses de las agencias militares y de inteligencia de Estados Unidos, reforzando la tesis central del libro: la IA es un sistema de poder y control.

El fin del encantamiento

Tras un recorrido completo por las diferentes dimensiones de la IA, Crawford concluye en que la IA “no es una fuerza abstracta y neutral”; sino un sistema de poder con costes planetarios, laborales y sociales muy reales. Sin embargo, el debate público a menudo queda atrapado en lo que Crawford denomina “determinismo encantado”: la falsa dicotomía entre una IA utópica que nos salvará y una IA distópica que nos destruirá. Ambas visiones ocultan las verdaderas fuerzas políticas y económicas que la impulsan aquí y ahora.

Para Crawford, abandonar este encantamiento significa reconocer que la IA no es inevitable. Es el resultado de decisiones, inversiones e intereses concretos. Y afirma:

“en lugar de preguntar qué puede hacer la IA, debemos preguntar por qué se construye, a quién beneficia y quién paga el precio”.

Con una mirada fuertemente ecologista, propone que la lucha por una IA justa es inseparable de la lucha por la justicia climática, los derechos laborales y la equidad racial. “Solo entendiendo estas conexiones podemos empezar a exigir responsabilidad por todo el sistema de extracción que la sostiene”, dice finalmente.

Visited 10 times, 1 visit(s) today