La Nueva Edad Oscura James Bridle - PDFCOFFEE.COM (2024)

SÍGUENOS EN

@megustaleerebooks @editorialdebate

@debatelibros

@megustaleer

Para Navine

1 Caída en el abismo

«Ojalá la tecnología inventase alguna manera de contactar contigo en caso de emergencia», repetía una y otra vez mi ordenador. Tras el resultado de las elecciones estadounidenses de 2016, junto con otras personas que conozco, e incitado quizá por la mente colectiva de las redes sociales, empecé a ver de nuevo El ala oeste de la Casa Blanca: un ejercicio de vana nostalgia. No sirvió de nada, pero adopté la costumbre de ver uno o dos episodios cuando estaba solo, por las noches después de trabajar o en los aviones. Tras leer los más recientes y apocalípticos artículos de investigación sobre el cambio climático, la vigilancia total y las incertidumbres de la situación política, había cosas peores en las que sumergirse que una obrita neoliberal de la primera década del siglo. Una noche estaba a mitad de un episodio de la tercera temporada en el que Leo McGarry, jefe de gabinete del presidente Bartlett, lamenta haber asistido a una reunión de Alcohólicos Anónimos y, como consecuencia, haberse perdido los primeros momentos de una emergencia. «¿Qué habrías hecho hace media hora que no se haya hecho ya?», pregunta el presidente en la serie. «Habría sabido media hora antes lo que sé ahora —responde McGarry—. Exactamente por eso no volveré a las reuniones: son un lujo.» Bartlett acorrala a McGarry y lo provoca: «Lo sé. ¡Ojalá la tecnología inventase alguna manera de contactar contigo en caso de emergencia! Una especie de dispositivo telefónico con un número personalizado al que pudiésemos llamar para decirte que te necesitamos». El presidente rebusca en el bolsillo de Leo y saca su teléfono: «¡Quizá sería algo así, Mr. Moto!». Aunque no logré ver hasta ese punto del episodio. La imagen en la pantalla siguió cambiando, pero mi portátil se había quedado colgado y el sonido de una frase se repetía una y otra vez: «¡Ojalá la tecnología inventase alguna manera de contactar contigo en caso de emergencia! ¡Ojalá la tecnología inventase alguna manera de contactar contigo en caso de emergencia! ¡Ojalá la tecnología inventase alguna manera de contactar contigo en caso de emergencia!». Este es un libro sobre lo que la tecnología intenta decirnos en caso de emergencia. Y es también un libro sobre lo que sabemos y cómo lo sabemos y sobre lo que no podemos saber. A lo largo del último siglo, la aceleración tecnológica ha transformado nuestro planeta, nuestras sociedades y a nosotros mismos, pero no ha sido capaz de transformar nuestra forma de entender

todas esas cosas. Las razones son complejas y las soluciones también, en buena medida porque vivimos enredados en sistemas tecnológicos que a su vez influyen en cómo actuamos y en cómo pensamos. No podemos situarnos fuera de ellos; no podemos pensar sin ellos. Nuestras tecnologías son cómplices de los mayores retos a los que nos enfrentamos hoy: un sistema económico descontrolado que aboca a muchos a la miseria y continúa ampliando la brecha entre ricos y pobres; el colapso del consenso político y social a lo largo y ancho del planeta, que resulta en el auge de los nacionalismos, las divisiones sociales, los conflictos étnicos y las guerras no declaradas, y un cambio climático que constituye una amenaza existencial para todos. En las ciencias y en la sociedad, en la política y en la educación, en la guerra y en el comercio, las nuevas tecnologías no se limitan a aumentar nuestras capacidades, sino que las determinan y dirigen activamente, para bien y para mal. Cada vez es más necesario que seamos capaces de repensar las nuevas tecnologías y de adoptar ante ellas una actitud crítica, para así poder participar de manera significativa en el proceso por el que estas determinan y dirigen nuestras capacidades. Si no entendemos cómo funcionan las tecnologías complejas, cómo se interconectan los sistemas de tecnologías y cómo interactúan los sistemas de sistemas, estaremos a su merced, y será más fácil que las élites egoístas y las corporaciones inhumanas acaparen todo su potencial. Precisamente porque estas tecnologías interactúan entre sí de formas inesperadas y a menudo extrañas, y porque estamos completamente vinculados a ellas, este conocimiento no puede limitarse a los aspectos prácticos de cómo funcionan las cosas: debe ampliarse a cómo las cosas llegaron a ser como son y a cómo continúan funcionando en el mundo de maneras a menudo invisibles y complejas. Lo que se necesita no es comprensión, sino alfabetización. Una verdadera alfabetización en sistemas consiste en mucho más que en la mera comprensión, y podría entenderse y llevarse a la práctica de diversas maneras. Va más allá del uso funcional de un sistema; abarca también su contexto y sus consecuencias. Se niega a ver la aplicación de cualquier sistema individual como una panacea y, en lugar de ello, se centra en las interrelaciones de los sistemas y en las limitaciones intrínsecas de cualquier solución aislada. Significa hablar con fluidez no solo el lenguaje de un sistema, sino también su metalenguaje (el lenguaje que ese sistema emplea para hablar de sí mismo y para interactuar con otros sistemas), y es sensible a las limitaciones y a los usos y abusos potenciales de ese metalenguaje. Supone ser —y esto tiene una importancia crucial— capaz de hacer críticas y responder a ellas. Una de las propuestas que a menudo se plantean en respuesta a una pobre comprensión pública de la tecnología es un llamamiento a incrementar la educación tecnológica; en su formulación más sencilla: aprender a programar. Es un llamamiento que suelen hacer políticos, tecnólogos, expertos y líderes empresariales, y muchas veces se argumenta en términos descarnadamente funcionales y mercantilistas: la economía de la información necesita más programadores y los jóvenes necesitarán trabajo en el futuro. Es un buen comienzo, pero aprender a programar no

basta, como aprender a instalar un lavabo no es suficiente para entender las complejas interacciones entre capas freáticas, geografía política, una infraestructura envejecida y las políticas sociales que definen, determinan y crean en la sociedad verdaderos sistemas de apoyo vital. Una comprensión meramente funcional de los sistemas es insuficiente; hemos de ser capaces de pensar también en términos de antecedentes y consecuencias. ¿De dónde salen estos sistemas? ¿Quién los diseñó? ¿Para qué? ¿Cuáles de sus intenciones originales perviven aún hoy ocultas en su seno? El segundo peligro de una comprensión puramente funcional de la tecnología es lo que llamo pensamiento computacional. Se trata de una extensión de lo que otros han denominado solucionismo: la creencia de que cualquier problema que se presente puede resolverse mediante la aplicación de la computación. Sea cual sea el problema práctico o social al que nos enfrentemos, existe una app para solucionarlo. Pero también el solucionismo es insuficiente; esta es una de las cosas que nuestra tecnología trata de decirnos. Más allá de este error, el pensamiento computacional supone —a menudo a un nivel subconsciente— que el mundo es en realidad como proponen los solucionistas, e interioriza el solucionismo hasta el extremo de que es imposible pensar o articular el mundo en términos que no sean computables. El pensamiento computacional es predominante en el mundo actual; fomenta las peores tendencias en nuestras sociedades e interacciones, y una verdadera alfabetización sistémica debe plantarle cara. Así como la filosofía es la parte del pensamiento humano que trata con aquello que las ciencias no pueden explicar, la alfabetización sistémica trata con un mundo que no es computable, al tiempo que reconoce que este está irrevocablemente moldeado e informado por la computación. La debilidad de limitarse a «aprender a programar» también puede razonarse en el sentido contrario: deberíamos ser capaces de entender los sistemas tecnológicos sin necesidad de aprender a programar en absoluto, como tampoco tendríamos que ser fontaneros para ir al retrete ni para vivir sin el temor de que nuestro sistema de cañerías conspire contra nosotros. Tampoco deberíamos descartar la posibilidad de que nuestro sistema de cañerías conspire efectivamente contra nosotros: los sistemas computacionales complejos componen buena parte de la infraestructura de la sociedad contemporánea, y, si su uso no está exento de riesgos, no estaremos a salvo a largo plazo por mucho que se nos eduque en lo perniciosos que pueden ser. En este libro vamos a hacer algo de fontanería, pero sin perder de vista en ningún momento las necesidades de los que no son fontaneros: la necesidad de comprender y la necesidad de vivir aun cuando no siempre comprendamos. Es habitual que tengamos dificultades para imaginar y describir el alcance y la escala de las nuevas tecnologías, esto es, que nos cueste incluso pensar sobre ellas. Lo que se necesita no es tecnología nueva, sino nuevas metáforas: un metalenguaje para describir el mundo que los sistemas complejos han forjado. Es necesario un nuevo dialecto que reconozca y al mismo tiempo aborde la realidad de un mundo en el que las personas, la

política, la cultura y la tecnología están completamente entrelazadas. Siempre hemos estado conectados, de manera desigual e ilógica y unos más que otros, pero entera e inevitablemente. Lo que cambia en la red es que esta conexión es visible e innegable. En todo momento nos vemos confrontados con la radical interconectividad de los objetos y de nosotros mismos, y hemos de encontrar nuevas formas de considerar esta nueva realidad. No basta con afirmar que internet o tecnologías amorfas, por sí solas y sin supervisión, provocan o aceleran la caída en el abismo de nuestra comprensión y de nuestra aptitud. A falta de un término mejor, utilizo la palabra «red» para englobarnos a nosotros y a nuestras tecnologías en un gran sistema; para incluir la capacidad —humana y no humana— de actuar y de comprender, de saber y no saber, en un mismo entorno de actividad. El abismo no se abre entre nosotros y nuestras tecnologías, sino dentro de la propia red, y es a través de esta última como tenemos conocimiento de aquella. Por último, la alfabetización sistémica posibilita la crítica, la lleva a cabo y responde a ella. Los sistemas que discutiremos son demasiado importantes para que sean solo unos pocos quienes los piensen, los comprendan, los diseñen y los implementen, en particular cuando, con demasiada facilidad, esos pocos se alinean con —o son subsumidos por— las élites y las estructuras de poder preexistentes. Existe una relación concreta y causal entre la complejidad de los sistemas con los que nos topamos cada día, la opacidad con la que la mayoría de estos sistemas se construyen o describen y los problemas esenciales y globales relativos a la desigualdad, la violencia, el populismo y el fundamentalismo. Con demasiada frecuencia, las nuevas tecnologías se presentan como algo inherentemente emancipatorio. Pero este mismo es un ejemplo de pensamiento computacional, del que todos somos culpables. Quienes hemos sido de los primeros en utilizar y jalear las nuevas tecnologías, hemos experimentado sus múltiples placeres y nos hemos beneficiado de las oportunidades que ofrecen y quienes, en consecuencia, hemos defendido, a menudo ingenuamente, ampliar su aplicación, no por ello corremos menos peligro con su despliegue acrítico. Pero los argumentos de la crítica no pueden construirse a partir de amenazas individuales ni de la identificación con los menos afortunados o informados. Tanto el individualismo como la empatía son insuficientes en la red. La supervivencia y la solidaridad han de ser posibles sin entenderlo todo. No lo entendemos todo, ni es posible que lo hagamos, pero sí somos capaces de pensarlo. La capacidad de pensar sin pretender entender plenamente, o siquiera aspirar a ello, es fundamental para la supervivencia en una nueva edad oscura porque, como veremos, entender resulta a menudo imposible. La tecnología es y puede ser guía y compañera en este pensar, siempre que no privilegiemos sus aportaciones: los ordenadores no están aquí para darnos respuestas, sino que son herramientas para hacer preguntas. Como veremos una y otra vez a lo largo del libro, entender una tecnología de una manera profunda y sistemática a menudo nos permite recrear sus metáforas para alcanzar otras formas de pensar.

A partir de la década de 1950, un nuevo símbolo empezó a colarse en los diagramas que los ingenieros eléctricos dibujaban para describir los sistemas que construían. El símbolo era un círculo difuso, una especie de globo de cómic. Con el tiempo, acabó adoptando una forma de nube. Aquello en lo que estuviese trabajando el ingeniero podía conectarse a esta nube y no hacía falta nada más. La otra nube podía ser un sistema eléctrico o un proceso de intercambio de datos u otra red de ordenadores, o lo que fuera. Daba igual. La nube era un mecanismo de reducción de la complejidad: permitía que uno se concentrase en lo que tenía más cerca sin tener que preocuparse por lo que ocurría allá lejos. Con el transcurso del tiempo, a medida que las redes fueron haciéndose más grandes e interconectadas, la nube fue volviéndose cada vez más importante. Los sistemas más pequeños se definían por su relación con la nube, por la velocidad a la que podían intercambiar información con ella y por lo que podían extraer de ella. La nube iba ganando peso y se iba transformando en un recurso: la nube podía hacer esto o aquello. La nube podía ser potente e inteligente. Se convirtió en una palabra de moda en la jerga empresarial, en un argumento de venta. Era algo más que una abreviatura ingenieril; había pasado a ser una metáfora. Hoy, la nube es la metáfora central de internet: un sistema global de gran potencia y energía que, sin embargo, conserva el aura de algo espiritual y numinoso, algo casi imposible de aprehender. Nos conectamos a la nube, trabajamos en ella, almacenamos y extraemos información, pensamos a través de ella. Pagamos por ella y solo notamos que está ahí cuando deja de funcionar. Es algo que experimentamos continuamente sin entender realmente qué es o cómo funciona. Es algo de lo que nos estamos habituando a depender, aunque apenas tengamos una vaguísima idea de qué le estamos encomendando y en qué estamos confiando. Aparte del tiempo que pasa sin funcionar, la primera crítica a esta nube es que se trata de una metáfora muy mala. La nube no es ingrávida; ni es amorfa; ni siquiera es invisible, si uno sabe dónde mirar. La nube no es un mágico lugar remoto, hecho de vapor de agua y ondas de radio, donde todo funciona sin más. Es una infraestructura física compuesta de líneas telefónicas, fibra óptica, satélites, cables tendidos sobre el lecho marino e inmensas naves industriales repletas de ordenadores, que consumen ingentes cantidades de agua y electricidad y están ubicadas en el seno de jurisdicciones legales y nacionales. La nube es una nueva clase de industria, una industria hambrienta. No solo tiene una sombra, sino que deja una huella. Muchos de los que en otros tiempos fueron edificios de peso de la esfera pública —esos donde compramos, efectuamos operaciones bancarias, mantenemos relaciones sociales, tomamos prestados libros y votamos— están ahora absorbidos por la nube. Ocultos de este modo, se vuelven menos visibles y también menos susceptibles de crítica, investigación, preservación y regulación. Otra crítica es que esta falta de comprensión es deliberada. Hay buenos motivos, desde la seguridad nacional o el secreto empresarial hasta distintos tipos de actos ilícitos, para ocultar lo que hay en el interior de la nube. Lo que se evapora es aptitud y posesión: la mayoría de nuestros

correos electrónicos, fotos, actualizaciones de estado, documentos profesionales, datos de la biblioteca y electorales, historiales médicos, calificaciones de solvencia crediticia, «me gusta», recuerdos, experiencias, preferencias personales y deseos tácitos están en la nube, en la infraestructura de un tercero. Google y Facebook tienen sus motivos para construir sus centros de datos en Irlanda (bajos impuestos) y Escandinavia (energía y refrigeración baratas). También hay motivos por los que los imperios globales supuestamente poscoloniales se aferran a pedazos de territorio en disputa, como Diego García y Chipre: es allí donde la nube toca tierra, y eso permite sacar provecho del ambiguo estatus de esos lugares. La nube se amolda a las geografías del poder y la influencia, y sirve para reforzarlas. La nube es una relación de poder, y la mayoría de las personas no están en posición de control. Críticas como estas son válidas. Una manera de examinar la nube consiste en ver dónde proyecta su sombra: investigar los emplazamientos de los centros de datos y los cables submarinos y ver qué nos cuentan sobre la verdadera naturaleza del poder que está en vigor actualmente. Podemos sembrar la nube, condensarla y obligarla a confesar algunas de sus historias. A medida que se disipe, podrían revelarse ciertos secretos. Si entendemos cómo se usa la metáfora de la nube para ocultar cómo funciona realmente la tecnología, podemos empezar a entender las muchas maneras en que la propia tecnología oculta su propia capacidad de actuar (mediante máquinas opacas y código inescrutable, así como mediante la distancia física y constructos legales). Y, a la vez, podríamos aprender algo sobre el funcionamiento del poder en sí mismo, que ya hacía este tipo de cosas mucho antes de que tuviese nubes y cajas negras en las que ocultarse. Pero, más allá de esta renovada visión funcional de la nube, más allá de su reconexión con la tierra, ¿podemos darle otra vuelta a la imagen de la nube para producir una nueva metáfora? ¿Puede la nube absorber no solo nuestra falta de comprensión, sino también nuestra comprensión de esa falta de comprensión? ¿Podemos sustituir el pensamiento computacional básico por un pensamiento nebuloso, uno que acepte el desconocimiento y lo transforme en lluvia productiva? En el siglo XIV, un autor desconocido del misticismo cristiano escribió sobre «la nube del no saber» que se cierne entre la humanidad y la divinidad: la encarnación de la bondad, la justicia y el recto comportamiento. No es el pensamiento, sino el abandono del pensamiento lo que podrá traspasar esta nube, la insistencia en el aquí y ahora —no el futuro predicho, calculado— como el dominio de la actuación. El autor nos insta a «ir en pos de la experiencia, más que del conocimiento». «A causa del orgullo, el conocimiento puede a menudo engañarnos, pero el afecto gentil y amoroso no nos engañará. El conocimiento tiende a engendrar engreimiento, pero el amor construye. El conocimiento está pleno de trabajo; el amor, pleno de descanso.»[1] Esta es la nube que aspiramos a conquistar a través de la computación, pero este objetivo es continuamente desbaratado por la realidad de aquello a lo que aspiramos. El pensamiento nebuloso, la

aceptación del no saber, nos podría permitir abandonar el pensamiento computacional, cosa que la propia red nos insta a hacer. La principal cualidad significativa de la red es su carencia de propósito único y sólido. Nadie se propuso crear la red o el mayor exponente que de ella existe: internet. Con el transcurso del tiempo, un sistema tras otro, una cultura tras otra, se fueron conectando; lo hicieron a través de programas públicos e inversiones privadas; a través de relaciones personales y protocolos tecnológicos; en acero, vidrio y electrones; a través del espacio físico, y en el espacio de la mente. A su vez, la red permitió la expresión de los ideales más mezquinos y de los más elevados, albergó y se entusiasmó con los deseos más triviales y con los más radicales, que, en la mayoría de los casos, sus progenitores —que somos todos nosotros— no supimos ver. No hubo ni hay ningún problema que resolver; es simplemente una cuestión de empeño colectivo: la creación incipiente e involuntaria de una herramienta para la creación involuntaria. Examinar la red pone de manifiesto la insuficiencia del pensamiento computacional y la interconectividad de todas las cosas, así como su infinitud; insiste en la constante necesidad de repensar y reflexionar sobre sus contrapesos y equilibrios, su propósito y errores colectivos, sus roles, responsabilidades, prejuicios y posibilidades. Esto es lo que la red enseña: no servirá nada que no sea el todo.[2] Nuestro gran error a la hora de examinar la red, hasta ahora, ha sido suponer que sus acciones eran inherentes e inevitables. Por inherentes entiendo la idea de que emergieron ex nihilo de los objetos que habíamos creado en lugar de necesitar de nuestras propias acciones como parte de esa cocreación; con «inevitables» me refiero a la creencia en una línea recta de progreso tecnológico e histórico al que somos incapaces de resistirnos. Tal creencia ha recibido durante décadas repetidos ataques por parte de pensadores de los campos de las ciencias sociales y la filosofía, pero no ha sido derrotada, sino que se ha cosificado en la propia tecnología: en máquinas que se supone que llevan a cabo sus propios deseos. Así, hemos renunciado a nuestras objeciones al progreso lineal y hemos caído en el abismo del pensamiento computacional. La principal onda portadora de progreso durante el último siglo ha sido la propia idea central de la Ilustración: que más conocimiento —más información— lleva a mejores decisiones; donde uno puede, por supuesto, dar a ese «mejores» la definición que sea de su gusto. A pesar de los embates de la modernidad y la posmodernidad, esta idea central ha acabado por definir no solo aquello que se ha implementado, sino incluso lo que se considera posible para las nuevas tecnologías. Internet, en su juventud, se describía a menudo como una «autopista de la información», un conducto para el conocimiento que, con las luces parpadeantes de los cables de fibra óptica, ilumina el mundo. Cualquier dato, cualquier cuanto de información, está disponible con un toque de teclado; o eso hemos querido creer. Así, hoy nos encontramos conectados a inmensos repositorios de conocimiento, pero aún no hemos aprendido a pensar. De hecho, ha ocurrido lo contrario: aquello que se esperaba que

iluminase el mundo en la práctica lo oscurece. La abundancia de información y la pluralidad de cosmovisiones a la que ahora tenemos acceso a través de internet no producen una realidad consensuada y coherente, sino una desgarrada por la insistencia fundamentalista en relatos simplistas, teorías de la conspiración y una política de hechos consumados. En torno a esta contradicción gira la idea de una nueva edad oscura: una era en la que el valor que hemos depositado en el conocimiento es destruido por la abundancia de esa mercancía tan lucrativa y en la que buscamos a tientas nuevas formas de comprender el mundo. En 1926, H. P. Lovecraft escribió: Lo más piadoso del mundo, creo, es la incapacidad de la mente humana para relacionar todos sus contenidos. Vivimos en una plácida isla de ignorancia en medio de negros mares de infinitud, y no estamos hechos para emprender largos viajes. Las ciencias, esforzándose cada una en su propia dirección, nos han causado hasta ahora poco daño; pero algún día el ensamblaje de todos los conocimientos disociados abrirá tan terribles perspectivas de la realidad y de nuestra espantosa situación en ella que, o bien enloqueceremos ante tal revelación, o bien huiremos de esta luz mortal y buscaremos la paz y la seguridad en una nueva edad de tinieblas. [3]

La manera como entendamos y pensemos nuestro lugar en el mundo, así como las relaciones que mantenemos los unos con los otros y con las máquinas, será en última instancia lo que decida si nuestras tecnologías terminarán por conducirnos a la locura o a la paz. La oscuridad de la que hablo no es una oscuridad literal, ni representa tampoco una ausencia u oclusión del conocimiento, algo que suele asociarse con la idea popular de una edad oscura. No es una expresión de nihilismo o desesperanza, sino que hace referencia tanto a la naturaleza como a la oportunidad de la presente crisis: una aparente incapacidad para ver con claridad lo que tenemos delante y actuar en el mundo de manera significativa, con aptitud y justicia; y, al aceptar esta oscuridad, buscar nuevas maneras de ver bajo otra luz. En su diario privado, el 18 de enero de 1915, en las horas más lúgubres de la Primera Guerra Mundial, Virginia Woolf observó que «el futuro es oscuro, que es lo mejor que puede ser, creo yo». Como ha escrito Rebecca Solnit: «Es una declaración extraordinaria, que afirma que lo desconocido no tiene por qué transformarse en conocido mediante falsa adivinación, o la proyección de sombríos relatos políticos o ideológicos; es una celebración de la oscuridad que busca —como indica ese “creo yo”— ser deliberadamente vacilante incluso respecto a su propia afirmación».[4] Donna Haraway desarrolla aún más esta línea de pensamiento,[5] y señala que Woolf volvió a insistir en ella en Tres guineas, publicada en 1938: Debemos pensar. Pensemos mientras estamos en las oficinas, en los autobuses; mientras, de pie entre la

multitud, contemplamos coronaciones y celebraciones municipales, mientras pasamos ante el Cenotafio, y en Whitehall, en la galería de la Cámara de los Comunes, en las salas de los tribunales; pensemos en bautizos, bodas y entierros. No dejemos nunca de pensar: ¿qué es esa «civilización» en la que nos hallamos? ¿Qué son esas ceremonias y por qué habríamos de ganar dinero con ellas? ¿Adónde, en resumidas cuentas, nos lleva el desfile de los hijos varones de hombres instruidos?[6]

Los conflictos de clase y sociales, las jerarquías y las injusticias históricas a los que Woolf alude en sus procesiones y ceremonias, en modo alguno han remitido a día de hoy, pero algunos de los lugares donde pensar sobre ellos sí pueden haber cambiado. Las multitudes que en 1938 se congregaron para presenciar los desfiles del Lord Mayor de Londres y de la coronación ahora están distribuidas a través de la red, y las galerías y lugares de culto se han trasladado igualmente a los centros de datos y cables submarinos. No podemos hacer caso omiso de la red, solo podemos pensar a través de ella y en su seno. Y podemos escucharla cuando intenta hablarnos en una emergencia. Nada de esto es una argumentación contra la tecnología: razonar contra ella sería hacerlo contra nosotros mismos. Es, no obstante, una argumentación en favor de una interacción más reflexiva con la tecnología, junto con una visión radicalmente distinta de lo que es posible pensar y saber sobre el mundo. Los sistemas computacionales, como herramientas, ponen énfasis en uno de los aspectos más poderosos de la humanidad: nuestra capacidad de actuar de manera efectiva en el mundo y amoldarlo a nuestros deseos. Pero sigue siendo nuestra prerrogativa descubrir y articular esos deseos y asegurarnos de que no degradan, anulan, eliminan o borran los deseos de los demás. La tecnología no consiste en la mera creación y uso de herramientas: es la creación de metáforas. Al fabricar una herramienta, plasmamos una determinada comprensión del mundo que, así cosificada, es capaz de lograr ciertos efectos en el mundo y de este modo se convierte en un elemento más de nuestra comprensión del mundo (aunque a menudo sin que seamos conscientes de ello). Podríamos decir, pues, que se trata de una metáfora oculta: se consigue una especie de transporte o transferencia, pero, al mismo tiempo, una especie de disociación, la descarga de un determinado pensamiento o manera de pensar, en una herramienta, donde el pensamiento deja de ser necesario para actuar. Para repensar, o pensar de nuevo, necesitamos «rehechizar» nuestras herramientas. El presente relato no es más que la primera parte de ese reencantamiento, un intento de repensar nuestras herramientas; no necesariamente una reconversión o una redefinición, sino una consideración atenta de las mismas. Como suele decirse, cuando tenemos un martillo todo parece un clavo. Pero esto es no pensar el martillo. Este, cuando se entiende como es debido, tiene muchos usos: puede extraer los clavos además de clavarlos, forjar el hierro, dar forma a la madera y la piedra, revelar fósiles y fijar los anclajes para las cuerdas de escalada. Puede dictar sentencia, llamar al orden o lanzarse en un

concurso de fuerza atlética. Cuando lo porta un dios, genera fenómenos atmosféricos. El martillo de Thor, Mjölnir, que al golpearse producía rayos y truenos, también propició la creación de amuletos en forma de martillo que protegían de la ira divina o, gracias a que su forma recordaba a la de una cruz, contra la conversión forzada. Se creía que los martillos y hachas prehistóricos, que recibieron el nombre de «piedras de rayo» cuando los sacaron a la superficie los arados de generaciones posteriores, habían caído del cielo durante alguna tormenta. Estas misteriosas herramientas se convirtieron así en objetos mágicos: cuando se olvidó cuál había sido su propósito original, pudieron asumir nuevos significados simbólicos. Debemos rehechizar nuestros martillos —todas nuestras herramientas— para que se parezcan menos a los del carpintero y más al de Thor. Más a las piedras de rayo. La tecnología no la crean por completo —ex nihilo— los humanos, sino que depende, como nuestra propia existencia (bacterias, cosechas, materiales de construcción, ropas y especies con las que convivimos), de las posibilidades que ofrecen los objetos no humanos. La infraestructura de la negociación de alta frecuencia (que exploraremos en el capítulo 5) y el sistema económico que acelera y caracteriza están construidos con silicio y acero, con la velocidad de la luz a través de la fibra óptica, con la niebla, los pájaros y las ardillas. La tecnología también puede ser una excelente lección sobre la capacidad de acción de los actores no humanos, desde las piedras hasta los microbios, cuando, al roerlas o cortocircuitarlas, dificultan o permiten el funcionamiento de nuestras líneas eléctricas y de comunicaciones. Esta relación, cuando se comprende adecuadamente, es también una constatación de la inestabilidad intrínseca de la tecnología: su alineamiento o resonancia temporales y transitorios con otras inciertas propiedades de materiales y animales que están sujetas a cambios. En resumen, su nebulosidad. El análisis, en el capítulo 3, de las cambiantes posibilidades de uso de materiales para la computación en respuesta al estrés ambiental es un ejemplo de esto: los objetos se comportan de manera diferente a lo largo del tiempo. La tecnología viene acompañada de un aura de inmutabilidad: una vez encerradas en los objetos, las ideas parecen fijas e inexpugnables. Los martillos, si se utilizan como es debido, pueden volver a abrir grietas en ellas. Si volviéramos a hechizar unas cuantas herramientas, veríamos la infinidad de formas en que esta constatación es inherente a múltiples modos de la vida cotidiana contemporánea. Mientras tanto, siempre habría que mantener a una distancia prudencial lo que podría entenderse como «revelaciones» sobre la «verdad» del mundo, y verlas como meros (o no meros, sino abyectos) replanteamientos de dicho mundo. En efecto, extender el brazo para mantener una distancia prudencial debe ser el gesto determinante y representativo de la obra, ya que, visto desde una perspectiva distinta, mantener el brazo extendido tiene el efecto de apuntar a otra cosa en la lejanía, a algo que va más allá de la constatación inmediata y que promete más. El argumento que se plantea en este libro es que, como sucede con el cambio climático, los

efectos de la tecnología se extienden a través de todo el planeta y afectan ya a cada faceta de nuestra vida. Estos efectos son potencialmente catastróficos, y se derivan de la incapacidad para comprender las consecuencias turbulentas e interconectadas de nuestros propios inventos. Como tales, desbaratan el que, ingenuamente, habíamos llegado a considerar el orden natural de las cosas y obligan a una reconsideración radical de las maneras en que pensamos el mundo. Pero la otra idea central del libro es que no todo está perdido: si somos realmente capaces de pensar de manera novedosa, también podremos repensar el mundo y, por ende, entender y vivir en él de una forma diferente. Así como nuestra comprensión actual del mundo procede de nuestros descubrimientos científicos, la reconsideración que hagamos de él tendrá que surgir a partir de — y en paralelo con— nuestros avances tecnológicos, que son manifestaciones muy reales del estado, disputado, complejo y contradictorio, en que se encuentra el mundo en sí. Nuestras tecnologías son extensiones de nosotros mismos, están codificadas en máquinas e infraestructuras, en marcos de conocimiento y acción; si se piensan de verdad, ofrecen un modelo de un mundo más auténtico. Estamos condicionados para ver la oscuridad como un lugar de peligro, incluso de muerte. Pero la oscuridad también puede ser un lugar de libertad y posibilidad, un lugar de igualdad. Para muchos, lo que se discute aquí será obvio, porque siempre han vivido en esa oscuridad que tan amenazadora parece a los privilegiados. Tenemos mucho que aprender sobre la ignorancia. La incertidumbre puede ser productiva, incluso sublime. El abismo último y crucial es el que se abre ante nosotros como individuos cuando somos incapaces de reconocer y expresar las condiciones presentes. No nos equivoquemos: hay aspectos de la nueva edad oscura que son verdaderas e inminentes amenazas existenciales, muy en particular, el calentamiento climático del planeta y el colapso de sus ecosistemas. También están los efectos continuados de la quiebra del consenso, los fracasos de las ciencias, los horizontes de predicción truncados y la paranoia pública y privada, todos ellos indicios de discordia y violencia. Las disparidades económicas y de comprensión son letales a no muy largo plazo. Todos estos elementos están conectados: todos ellos son ejemplo de la incapacidad de pensar y hablar. Escribir sobre la nueva edad oscura, aunque pueda aligerarlo con esperanza en red, no es algo agradable. Obliga a decir cosas que preferiríamos callar, a pensar cosas que preferiríamos no pensar. A menudo, hacerlo nos deja con una sensación de vacío en el estómago, una suerte de desesperación. Y, sin embargo, no hacerlo implica ser incapaces de reconocer el mundo tal como es y seguir viviendo en la fantasía y la abstracción. Pienso en mis amigos y en las cosas que nos decimos cuando dialogamos con franqueza y, en cierto modo, en lo mucho que eso nos aterra. Se siente una especie de vergüenza al hablar de las exigencias del presente, y una profunda vulnerabilidad, pero eso no debe hacernos perder la cabeza. Ahora no podemos fallarnos los unos a los otros.

2 Computación

En 1884, el crítico de arte e intelectual John Ruskin ofreció una serie de conferencias en la London Institution tituladas «La nube de tormenta del siglo XIX». En las noches del 14 y el 18 de febrero, hizo un repaso de las descripciones del cielo y de las nubes extraídas del arte clásico y europeo, así como de las historias de montañeros en sus queridos Alpes, junto con sus propias observaciones de los cielos del sur de Inglaterra en las últimas décadas del siglo XIX. En estas conferencias, expuso su opinión de que había en el cielo una nueva clase de nube, a la que llamó «nube de tormenta» o, a veces, «nube de peste»: […] nunca vista con anterioridad a nuestra época […]. Hasta donde he leído, no se encuentra descripción escrita por ningún observador de la Antigüedad. Ni Homero ni Virgilio, tampoco Aristófanes ni Horacio, reconocen tales nubes entre las impelidas por Júpiter. Chaucer no las menciona, tampoco Dante; ni Milton, ni Thomson. En la época moderna, Scott, Wordsworth y Byron las desconocen igualmente, y el más observador y descriptivo de los hombres de ciencia, De Saussure, guarda un silencio total respecto a ellas.[1]

La «atenta y constante observación» de los cielos por parte de Ruskin lo había convencido de que en Inglaterra y en el continente se había levantado un viento nuevo, un «viento de peste» que traía consigo nuevos fenómenos atmosféricos. Citando la entrada de su propio diario del 1 de julio de 1871, Ruskin cuenta lo siguiente: Una nube gris cubre el cielo; no es una nube de lluvia, sino un velo negro y seco que ningún rayo de sol puede atravesar; en parte disipada en neblina, tenue neblina, suficiente para hacer ininteligibles los objetos lejanos, pero sin sustancia alguna o adorno o color propios […]. Es algo nuevo para mí, algo muy desazonador. Tengo más de cincuenta años y, desde los cinco, he pasado las mejores horas de mi vida al sol de las mañanas primaverales y estivales. Y nunca, hasta ahora, vi algo así. Los hombres de ciencia, atareados como hormigas, examinan el Sol, la Luna y las siete estrellas, y pueden, según tengo entendido, contármelo todo sobre esos astros; sobre cómo se mueven y de qué están compuestos. Por mi parte, no me importa lo más mínimo cómo se mueven o de qué están hechos. No puedo moverlos de ninguna otra manera de la que ya se desplazan, ni volver a crearlos de nada mejor de lo que ya están compuestos. Pero me interesaría mucho saber, y pagaría mucho por saber, de dónde procede este viento amargo y de qué está hecho.[2]

En el resto del texto, Ruskin sigue elucidando muchas observaciones similares: desde fuertes

vientos surgidos de la nada, hasta nubes oscuras que cubren el sol al mediodía y lluvias negras como la noche que hicieron pudrirse su jardín. Y, aunque reconoce, en comentarios que los ecologistas han hecho suyos en los años posteriores, la presencia de una cantidad numerosa y creciente de chimeneas industriales en la región donde lleva a cabo sus observaciones, su principal preocupación es el carácter moral de tal nube y cómo esta parecía emanar de los campos de batalla y otros focos de disturbios sociales. «¿Qué es lo mejor que se puede hacer?, me preguntan ustedes. La respuesta es sencilla: al margen de si podemos o no influir sobre los signos del cielo, sí podemos ejercer nuestra influencia sobre los signos de los tiempos.»[3] Las metáforas que usamos para describir el mundo, como la nube de peste de Ruskin, moldean y dan forma a la visión que tenemos de él. Hoy en día, otras nubes, que a menudo aún emanan de los lugares de protesta y disputa, proporcionan las maneras que tenemos de pensar el mundo. Ruskin se demoró en la descripción de la particular cualidad de la luz bajo los efectos de la nube de tormenta, pues la luz posee también una cualidad moral. En sus conferencias, argumentaba que el «fiat lux de la creación» (el momento en que el Dios del Génesis dice: «Hágase la luz»), es también fiat anima, el momento de la creación de la vida. La luz, insistía Ruskin, es «en igual medida la ordenación de la Inteligencia y la ordenación de la Visión». Lo que vemos no solo determina lo que pensamos, sino cómo pensamos. Unos pocos años antes, en 1880, Alexander Graham Bell hizo la primera demostración de un aparato que llamó «fotófono», un invento complementario del teléfono que hizo posible la primera transmisión «inalámbrica» de la voz humana. El fotófono funcionaba mediante un haz de luz que, tras ser proyectado contra una superficie reflectante que vibraba con el sonido de la voz que emitía un altavoz, era recibido por una primitiva célula fotovoltaica que convertía las ondas de luz de nuevo en sonido. Bell logró hacerse entender entre dos azoteas de Washington D. C. separadas por unos doscientos metros. El fotófono llegó varios años antes de la implantación de una iluminación eléctrica efectiva y dependía por completo de que un cielo despejado iluminase intensamente el reflector. Esto significaba que las condiciones atmosféricas podían afectar al sonido obtenido y perturbar la emisión. Emocionado, Bell le escribió a su padre: «¡He oído a la luz del sol articular el habla! ¡He oído cómo un rayo de sol reía, tosía y cantaba! ¡He podido escuchar una sombra e incluso he percibido con el oído el paso de una nube por delante del disco solar!».[4] La acogida que recibió en un principio el invento de Bell no fue prometedora. Un comentarista en el New York Times se preguntaba sarcásticamente si una «línea de rayos de sol» colgaría de los postes de telégrafo y si sería necesario aislarlos. «Hasta que alguien vea a un hombre recorriendo las calles con una bobina de rayos solares del doce al hombro y colgándolos de un

poste a otro, cundirá la sensación de que el fotófono del profesor Bell estira hasta el límite la credulidad humana», escribió.[5] Por supuesto, esa línea de rayos de sol es precisamente la que podemos ver hoy desplegada alrededor del planeta. El invento de Bell fue el primero en utilizar la luz como portadora de información compleja; como, sin ser consciente de ello, señaló el comentarista, solo necesitaba aislar el rayo de sol para poder transmitirlo a distancias inimaginables. Hoy, los rayos de Bell ordenan los datos que pasan bajo las olas del mar en forma de cables de fibra óptica capaces de transmitir la luz, y estos ordenan a su vez la inteligencia colectiva del mundo. Hacen posible la articulación de las gigantescas infraestructuras de computación que nos organizan y gobiernan a todos. El fiat lux como fiat anima de Ruskin se plasma en la red. Pensar mediante máquinas es algo más antiguo que las propias máquinas. La existencia del cálculo demuestra que algunos problemas pueden ser abordables antes de que sea posible resolverlos en la práctica. La historia, si se entiende como uno de estos problemas, puede transformarse en una ecuación matemática que, si se resolviese, produciría el futuro. Esta era la creencia de los primeros pensadores computacionales del siglo XX, y sobre su persistencia, en gran medida indiscutida e incluso inconsciente, hasta nuestra época es sobre lo que trata este libro. Encarnada hoy en una nube digital, la historia del pensamiento computacional comienza con el tiempo atmosférico. En 1916, el matemático Lewis Fry Richardson estaba en su trabajo en el frente occidental; como cuáquero, era un pacifista convencido, por lo que se había alistado en la Unidad de Ambulancias de la Sociedad Religiosa de los Amigos, una sección cuáquera de la que también formaban parte el artista Roger Penrose y el filósofo y escritor de ciencia ficción Olaf Stapledon. A lo largo de varios meses, entre salidas a la línea del frente y periodos de descanso en húmedas cabañas en Francia y Bélgica, Richardson llevó a cabo el primer cálculo de las condiciones meteorológicas mediante un proceso numérico: el primer pronóstico diario del tiempo, sin un ordenador. Antes de la guerra, Richardson había sido responsable del Observatorio Eskdalemuir, una remota estación meteorológica situada en el oeste escocés. Entre los papeles que se llevó consigo cuando partió a la guerra estaban los registros completos de un solo día de observaciones a lo largo y ancho de Europa, recopilados el 20 de mayo de 1910 por cientos de observadores en todo el continente. Richardson creía que, a través de la aplicación de toda una serie de complejas operaciones matemáticas derivadas de años de datos meteorológicos, debería ser posible calcular numéricamente la transformación de las observaciones para predecir cómo evolucionarían las condiciones en las horas siguientes. Para hacerlo, elaboró un montón de formularios informáticos, con columnas para la temperatura, la velocidad del viento, la presión y otra información adicional, cuya preparación le llevó varias semanas. Dividió el continente en una serie de puntos

de observación espaciados uniformemente y realizó sus cálculos con lápiz y papel, lo que convirtió su despacho en «una pila de heno en un frío barracón».[6] Cuando consiguió completarla, Richardson comparó su predicción con los datos que se observaron en la práctica y descubrió que sus cifras eran exageradísimas. Sin embargo, eso demostraba la utilidad del método: descomponer el mundo en un conjunto de casillas de una cuadrícula y aplicar una serie de técnicas matemáticas para resolver las ecuaciones atmosféricas para cada casilla. Lo que faltaba era la tecnología necesaria para implementar un razonamiento como ese con la escala y la velocidad del propio tiempo atmosférico. En Weather Prediction by Numerical Process, publicado en 1922, Richardson revisó y resumió sus cálculos y planteó un sencillo experimento mental para obtenerlos de una manera más eficiente con la tecnología disponible por aquel entonces. En su experimento, los «computadores» eran aún seres humanos y las abstracciones de lo que más tarde conoceríamos como computación digital se adaptaban a la escala de la arquitectura: Tras tan arduo razonamiento, ¿se me permitirá fantasear? Imaginemos un gran auditorio, como el de un teatro, salvo por el hecho de que los palcos y las galerías atraviesan el espacio que normalmente ocuparía el escenario. Las paredes de esta sala están pintadas de manera que forman un mapamundi. El techo representa las regiones polares septentrionales, Inglaterra está en la galería, los trópicos, en el palco superior, Australia, en el inferior y la Antártida, en el foso. Infinidad de computadores están atareados con el tiempo de la parte del mapa donde cada uno de ellos se encuentra, pero cada computador se centra únicamente en una ecuación, o en parte de una ecuación. Un funcionario de rango más alto coordina el trabajo de cada región. Numerosas pequeñas «señales nocturnas» muestran los valores instantáneos para que los computadores cercanos puedan leerlos, de manera que cada número se muestra en tres zonas adyacentes para así mantener la comunicación hacia el norte y el sur del mapa. Desde el suelo del foso se alza un elevado pilar hasta la mitad de la altura del auditorio. Sobre él reposa un enorme púlpito en el que se encuentra el hombre a cargo de todo el teatro, rodeado de varios ayudantes y mensajeros. Una de sus tareas consiste en mantener una velocidad de avance uniforme en todas las partes del planeta. En este sentido, es como el director de una orquesta en la que los instrumentos son reglas de cálculo y máquinas calculadoras. Pero, en lugar de agitar una batuta, dirige un haz de luz rosada hacia cualquier región que se esté adelantando al resto y un rayo de luz azul hacia las rezagadas. Cuatro administrativos séniores en el púlpito central recopilan la información sobre el tiempo futuro en cuanto se computa y la despachan a través de un tubo neumático a una sala silenciosa, donde será codificada y comunicada por teléfono a la emisora de radiotransmisión. Los mensajeros llevan montones de formularios de computación a un almacén en el sótano. En un edificio cercano se ubica un departamento de investigación donde inventan mejoras. Pero se hace mucha experimentación a pequeña escala antes de introducir cualquier cambio en la compleja rutina del teatro de computación. En un sótano, un investigador entusiasta estudia los remolinos que se forman en el revestimiento líquido de un enorme cuenco rotatorio, pero de momento parece que la aritmética es la mejor manera de avanzar. En otro edificio se encuentran las típicas oficinas de finanzas, correspondencia y

administración. Fuera hay terrenos de juego, casas, montañas y lagos, porque se creía que quienes calculan el tiempo deberían poder disfrutarlo libremente.[7]

En un prefacio al informe, Richardson escribió: Quizá algún día, en un futuro remoto, sea posible realizar los cálculos a mayor velocidad que aquella a la que progresa el tiempo y a un coste menor que lo que la humanidad se ahorra gracias a la información obtenida. Pero esto es un sueño.[8]

Seguiría siéndolo durante otros cincuenta años, hasta que se resolviese mediante la aplicación de tecnologías militares de las que el propio Richardson renegaría. Tras la guerra, se incorporó a la Oficina Meteorológica con la intención de proseguir con su investigación, pero dimitió en 1920 cuando pasó a depender del Ministerio del Aire. Durante muchos años, la investigación en torno a la predicción meteorológica por medios numéricos languideció, hasta que recibió el impulso de la explosión de potencia de cálculo que emanó de otro conflicto, la Segunda Guerra Mundial. La guerra liberó ingentes cantidades de dinero para financiar la investigación e hizo que se generalizase la sensación de urgencia por aplicar sus resultados, pero también creó problemas enrevesados: el descomunal flujo de información que manaba de un mundo recién conectado en red y un sistema de producción de conocimiento en rápida expansión. En un ensayo titulado «As We May Think» [«Como podríamos pensar»], publicado en el Atlantic en 1945, el ingeniero e inventor Vannevar Bush escribió: Hay una enorme montaña de investigaciones científicas que no para de crecer pero, paradójicamente, cada vez está más claro que hoy en día nos estamos quedando atrás debido a nuestra creciente especialización. El investigador se encuentra abrumado por los descubrimientos y conclusiones de miles de compañeros, hasta el punto de no disponer de tiempo para aprehender, y mucho menos para recordar, sus diferentes conclusiones a medida que van viendo la luz. Sin embargo, podemos afirmar también que la especialización resulta cada vez más necesaria para el progreso y, como consecuencia, el esfuerzo de construir puentes entre las distintas disciplinas resulta cada vez más superficial.[9]

Durante la guerra, Bush había ejercido como director de la Oficina de Investigación y Desarrollo Científico de Estados Unidos (OSRD por sus siglas en inglés), el principal cauce para la investigación y el desarrollo militares. Fue uno de los progenitores del Proyecto Manhattan, el proyecto de investigación de alto secreto que se llevó a cabo durante la guerra y condujo al desarrollo de la bomba atómica estadounidense. La solución que Bush propuso para estos dos problemas —la apabullante cantidad de información disponible para las mentes inquietas y los fines cada vez más destructivos de la investigación científica— fue un dispositivo que llamó «mémex»:

Un mémex es un aparato en el que una persona almacena todos sus libros, archivos y comunicaciones y que está mecanizado de modo que puede consultarse con una gran velocidad y flexibilidad. En realidad, constituye un suplemento ampliado e íntimo de su memoria. El mémex consiste en un escritorio que, si bien puede ser manejado a distancia, constituye primariamente el lugar de trabajo de la persona que accede a él. En su plano superior hay varias pantallas translúcidas inclinadas —visores— sobre las que se puede proyectar el material para ser consultado. También dispone de un teclado y de un conjunto de botones y palancas. Por lo demás, su aspecto se asemeja al de cualquier otra mesa de despacho.[10]

Básicamente, y con la perspectiva que da el paso del tiempo, Bush estaba proponiendo el ordenador electrónico y conectado en red. Su gran hallazgo consistió en combinar en una sola máquina, precisamente de la manera en que un mémex le permitiría hacer a cualquier persona, múltiples descubrimientos procedentes de muy diversas disciplinas: avances en telefonía, maquinaria, fotografía, almacenamiento de datos y taquigrafía. La incorporación a esta matriz de una dimensión temporal produce lo que hoy reconoceríamos como hipertexto, la capacidad de vincular documentos colectivos de distintas maneras y crear nuevas asociaciones entre dominios de conocimiento en red: «En el futuro aparecerán formas totalmente nuevas de enciclopedias, que contendrán en su seno numerosos senderos de información preestablecidos y que podrán ser introducidas en el mémex para ser ampliadas por el usuario».[11] Una enciclopedia así, fácilmente accesible para una mente inquieta, no solo amplificaría el pensamiento científico, sino que lo civilizaría: Las aplicaciones de la ciencia han permitido al ser humano construir hogares bien equipados y le están enseñando a vivir saludablemente en ellos. También han puesto a su alcance la posibilidad de empujar a masas de personas unas contra otras portando crueles armas de destrucción. Por ello, también le pueden conceder la capacidad de abarcar el vasto archivo que se ha ido creando durante toda su historia y aumentar su sabiduría mediante el contacto con todas las experiencias de la raza humana. Es posible que perezca en un conflicto antes de aprender a utilizar tan vasto archivo para su propio bien, pero interrumpir repentinamente este proceso, o perder la esperanza en sus resultados, constituiría un paso especialmente desafortunado en la aplicación de la ciencia a los deseos y necesidades del ser humano.[12]

Uno de los colegas de Bush en el Proyecto Manhattan era otro científico, John von Neumann, que compartía con él la inquietud ante los abrumadores volúmenes de información que producían —y requerían— las empresas científicas de la época. Además, a Von Neumann también le intrigaba la idea de predecir, e incluso controlar, el tiempo atmosférico. En 1945, se topó con un documento mimeografiado titulado «Outline of Weather Proposal» [«Esbozo de una propuesta sobre el tiempo atmosférico»], escrito por un investigador de los laboratorios RCA llamado Vladimir Zworykin. Von Neumann había pasado la guerra trabajando como consultor para el

Proyecto Manhattan, lo que incluía viajes frecuentes al laboratorio secreto en Los Álamos (Nuevo México), y haber presenciado la primera detonación de una bomba atómica, de nombre en clave Trinity, en julio de 1945. Fue el principal defensor del método de implosión que se utilizó en la prueba de Trinity y en la bomba Fat Man que se lanzó sobre Nagasaki y contribuyó al decisivo diseño de las lentes que focalizaron la explosión. Zworykin, como Vannevar Bush, se había dado cuenta de que las capacidades de recopilación y recuperación de información de los nuevos equipos de cálculo, junto con los modernos sistemas de comunicación electrónica, permitían el análisis simultáneo de enormes cantidades de datos. Pero, en lugar de centrarse en la producción de conocimiento por los humanos, predijo sus efectos en la meteorología. Combinando los informes de múltiples estaciones meteorológicas ampliamente distribuidas se podría llegar a construir un modelo exacto de las condiciones climáticas en un momento determinado. Una máquina de este tipo que tuviese una precisión absoluta no solo sería capaz de mostrar esa información, sino también de predecir, a partir de los patrones previos, lo que ocurriría después. La intervención era el siguiente paso lógico: El objetivo final por alcanzar es la organización internacional de los medios para el estudio de los fenómenos atmosféricos como fenómenos globales y, en la medida en que sea posible, encauzar el tiempo meteorológico mundial, de manera que se minimicen los daños causados por perturbaciones catastróficas y, al tiempo, se maximicen los beneficios al mejorar las condiciones climáticas allí donde sea posible. Una organización internacional de esta índole contribuiría a la paz mundial al integrar el interés mundial en torno a un problema común y canalizar la energía científica hacia la persecución de objetivos pacíficos. Cabe imaginar que, en última instancia, los efectos beneficiosos de amplio alcance sobre la economía mundial acaben contribuyendo a la causa de la paz.[13]

En octubre de 1945, Von Neumann escribió a Zworykin para decirle: «Estoy completamente de acuerdo con usted». La propuesta se alineaba a la perfección con lo que Von Neumann había aprendido del amplio programa de investigación del Proyecto Manhattan, que había recurrido a simulaciones complejas de procesos físicos para predecir resultados en el mundo real. En lo que podría considerarse la declaración fundacional del pensamiento computacional, escribió: «Predeciremos todos los procesos estables. Controlaremos todos los procesos inestables».[14] En enero de 1947, Von Neumann y Zworykin compartieron escenario en Nueva York en una sesión conjunta de la Sociedad Meteorológica Estadounidense y el Instituto de Ciencias Aeronáuticas. A la ponencia de Von Neumann sobre «Los usos futuros de la computación de alta velocidad en meteorología» le siguió la de Zworykin, «Discusión sobre la posibilidad de controlar el tiempo atmosférico». Al día siguiente, el New York Times se hizo eco de la conferencia bajo el titular «Tiempo a la carta» y comentó que «si el doctor Zworykin está en lo cierto, los creadores del tiempo del futuro son los inventores de las máquinas calculadoras».[15]

En 1947, el inventor de las máquinas calculadoras por antonomasia era el propio Von Neumann, que dos años antes había fundado en Princeton el Electronic Computer Project, un proyecto basado en el ordenador analógico de Vannevar Bush —el Analizador Diferencial de Bush, desarrollado en el Massachusetts Institute of Technology (MIT) en la década de 1930— y en las contribuciones del propio Von Neumann al primer ordenador electrónico de propósito general, el Electronic Numerical Integrator and Computer (Ordenador e Integrador Numérico Electrónico). El ENIAC se inauguró oficinalmente en la Universidad de Pensilvania el 15 de febrero de 1946, pero sus orígenes eran militares: diseñado para calcular tablas de trayectorias de artillería para el Laboratorio de Investigación Balística del Ejército estadounidense, había dedicado la mayor parte de sus primeros años de funcionamiento a predecir los rendimientos siempre crecientes de la primera generación de bombas atómicas termonucleares. Como Bush, con el tiempo Von Neumann desarrollaría una honda preocupación por las posibilidades de la guerra nuclear y del control del tiempo atmosférico. En 1955, en un ensayo para la revista Fortune titulado «Can We Survive Technology?», escribió: «Las espantosas posibilidades actuales de una guerra nuclear podrían dar paso a otras aún más terroríficas. Una vez que sea posible controlar el clima mundial, quizá todas nuestras dificultades actuales nos parezcan sencillas. No nos llamemos a engaño: una vez que tales posibilidades se concreten, habrá quien las aproveche».[16] El ENIAC resultó ser la fantasía del cálculo matemático de Richardson hecha realidad gracias a la insistencia de Von Neumann. En 1948, el ENIAC se trasladó de Filadelfia al Laboratorio de Investigación Balística, en el Campo de Pruebas de Aberdeen, en Maryland. Por aquel entonces, estaba compuesto por unos 18.000 tubos de vacío, 70.000 resistencias, 10.000 condensadores y 6.000 conmutadores y cubría tres de las cuatro paredes del laboratorio de investigación. La instalación estaba organizada en cuarenta y dos paneles, cada uno de los cuales medía 60 centímetros de ancho por 90 de profundidad y conjuntamente alcanzaban los tres metros de altura. Requería 140 kilovatios de potencia y emitía tal cantidad de calor que hubo que instalar ventiladores especiales en el techo. Para reprogramarlo, había que girar manualmente centenares de conmutadores rotatorios de diez polos y los operarios tenían que moverse entre los montones de equipos, conectando cables y comprobando cientos de miles de conexiones soldadas a mano. Entre esos operarios se encontraba Klára Dán von Neumann, la mujer de John, que había escrito la mayoría del código meteorológico y debía revisar el trabajo de los demás.

El ENIAC (Electronic Numerical Integrator and Computer; Ordenador e Integrador Numérico Electrónico) en Filadelfia, Pensilvania. Glen Beck (al fondo) y Betty Snyder (en primer plano) programan el ENIAC en el edificio 328 del Laboratorio de Investigación Balística. Fuente: Ejército de Estados Unidos.

En 1950, un equipo de meteorólogos se reunió en Aberdeen con el objetivo de obtener la primera previsión meteorológica de veinticuatro horas, siguiendo exactamente las directrices que Richardson había propuesto. Para este proyecto, los confines del mundo eran los límites de la parte continental de Estados Unidos, que una cuadrícula dividía en quince filas por dieciocho columnas. El cálculo que estaba programado en la máquina consistía en dieciséis operaciones consecutivas, cada una de las cuales debía ser minuciosamente planificada y volcada en tarjetas perforadas, y que a su vez generaría un nuevo mazo de tarjetas que había que reproducir, cotejar y ordenar. Los meteorólogos trabajaban en turnos de ocho horas, con el apoyo de programadores, y la ejecución completa del programa absorbió casi cinco semanas, 100.000 tarjetas perforadas de IBM y un millón de operaciones matemáticas. Pero, cuando se examinaron los registros del experimento, Von Neumann, que lo dirigía, descubrió que el tiempo real de computación era casi exactamente de veinticuatro horas: «Hay motivos para confiar en que el sueño de Richardson de hacer que la programación avance más rápido que el tiempo atmosférico pronto pueda hacerse realidad», escribió.[17] Tiempo después, Harry Reed, un matemático que trabajaba en el ENIAC en Aberdeen, recordaba el efecto personal que provocaba trabajar con cálculos de tal magnitud: «Curiosamente, el propio ENIAC era un ordenador muy personal. Ahora pensamos en un ordenador personal como

algo que uno lleva consigo; el ENIAC era un ordenador dentro del cual uno prácticamente vivía». [18] Pero lo cierto es que, hoy, todos vivimos dentro de una versión del ENIAC, una enorme maquinaria de computación que engloba el planeta entero y se extiende hasta el espacio exterior a través de una red de satélites. Es esta máquina imaginada por Lewis Fry Richardson y hecha realidad por John von Neumann la que gobierna de un modo u otro todas y cada una de las facetas de la vida actual. Y uno de los aspectos más sorprendentes de este régimen computacional es que se ha vuelto prácticamente invisible a nuestros ojos. Es casi imposible señalar el momento preciso en que la computación militarizada y la creencia en la predicción y el control que esta encarna y genera desaparecieron de nuestra vista. El ENIAC era, para los iniciados, una máquina legible. Distintas operaciones matemáticas implicaban distintos procesos electromecánicos: los operarios del experimento meteorológico explicaban que podían identificar cuándo entraba en una fase determinada por la particular secuencia de tres notas que emitía el componente que reordenaba las tarjetas.[19] Incluso el observador ocasional podía ver cómo las luces parpadeantes que identificaban las distintas operaciones iban avanzando por las paredes de la sala.

Fotografía publicitaria del SSEC de IBM, 1948. Fuente: Universidad de Columbia.

Por su parte, el Selective Sequence Electronic Calculator (SSEC; Calculador Electrónico Secuencial Selectivo) de IBM, instalado en Nueva York en 1948, no permitía una lectura tan fácil. Tenía el nombre de «calculador» porque en 1948 los computadores aún eran personas y el presidente de IBM, Thomas J. Watson, quería asegurar al público que sus productos no estaban diseñados para ocupar su lugar.[20] IBM construyó la máquina como rival del ENIAC, pero ambos eran descendientes de otra máquina anterior, el Harvard Mark I, de Von Neumann, que había contribuido al Proyecto Manhattan. El SSEC se instaló a la vista de todo el mundo, tras gruesos paneles de cristal, en el interior de lo que había sido una zapatería para mujeres junto a

las oficinas de IBM en la calle Cincuenta y Siete Este. (El edificio es ahora la sede corporativa del grupo de productos de lujo LVMH.) Esa preocupación por las apariencias llevó a Watson a ordenar a sus ingenieros que retirasen los antiestéticos pilares que dominaban el espacio. Cuando vieron que eso no era posible, retocaron las fotos publicitarias para que los periódicos difundiesen la imagen que Watson deseaba.[21] Para la multitud que se apiñaba frente a los cristales, incluso con la presencia de las columnas, el SSEC irradiaba una apariencia estilizada y moderna. Su estética estaba inspirada en el Harvard Mark I diseñado por Norman Bel Geddes, el arquitecto de la celebrada muestra Futurama en el marco de la Exposición Universal de 1939 en Nueva York. Estaba alojado en la primera sala para ordenadores que incluía un suelo elevado, algo que ahora es estándar en los centros de proceso de datos, para ocultar al público el antiestético cableado, y lo controlaba la operaria principal, Elizabeth «Betsy» Stewart, del Departamento de Ciencia Pura de IBM, desde un gran escritorio.

Elizabeth «Betsy» Stewart con el SSEC. Fuente: Archivo de IBM.

Para cumplir con la proclama de Watson, que figuraba estampada y firmada en la pared de la sala de ordenadores —según la cual la máquina «asiste al científico en las instituciones de enseñanza, en el gobierno y en la industria, para explorar las consecuencias del pensamiento humano hasta los últimos confines del tiempo, el espacio y las condiciones físicas»—, el primer programa del SSEC se dedicó a calcular la posición de la Luna, las estrellas y los planetas para posibles vuelos de la NASA. Sin embargo, los datos resultantes nunca llegaron a utilizarse y, al cabo de un par de semanas, la máquina pasó a ejecutar primordialmente cálculos de alto secreto para un programa llamado Hippo, ideado por el equipo de John von Neumann en Los Álamos para simular la primera bomba de hidrógeno.[22] Se tardó casi un año en programar Hippo, y cuando estuvo listo se ejecutó de forma ininterrumpida en el SSEC, veinticuatro horas al día, siete días a la semana, durante varios meses. El resultado de los cálculos fueron al menos tres simulaciones completas de la explosión de una bomba de hidrógeno: cálculos efectuados a la vista del público, en el escaparate de una tienda de Nueva York, sin que nadie en la calle tuviese ni la más remota idea de lo que allí se cocía. La primera prueba termonuclear estadounidense a gran escala basada en los cálculos de Hippo se llevó a cabo en 1952; hoy, todas las grandes potencias nucleares poseen bombas de hidrógeno. El pensamiento computacional —violento, destructivo e inimaginablemente costoso tanto en términos monetarios como de capacidad cognitiva humana— desapareció de la vista. Se convirtió en algo incuestionado e incuestionable, y sigue siéndolo. Como veremos, la incapacidad cada vez mayor de la tecnología para predecir el futuro —ya sean los fluctuantes mercados de las bolsas de valores digitales, los resultados y aplicaciones de la investigación científica o la creciente inestabilidad del clima global— se deriva directamente de estos malentendidos sobre la neutralidad e inteligibilidad de la computación. El sueño de Richardson y Von Neumann —el de «hacer avanzar la computación más rápido que el tiempo atmosférico»— se hizo realidad el 1 de abril de 1951, cuando Whirlwind I, el primer ordenador digital capaz de ofrecer resultados en tiempo real, entró en funcionamiento en el MIT. El proyecto Whirlwind había comenzado siendo un intento de construir un simulador de vuelo de propósito general para la fuerza aérea, pero, a medida que fue avanzando, los problemas asociados a la recopilación y procesamiento de datos en tiempo real atrajeron a terceros interesados en cuestiones que iban desde las primeras redes informáticas hasta la meteorología. Para poder reproducir más fielmente las condiciones reales a las que se enfrentarían los pilotos, una de las principales funciones del Whirlwind I era la de simular fluctuaciones aerodinámicas y atmosféricas, en lo que equivalía a un sistema de predicción meteorológica. Este sistema no solo operaba en tiempo real, sino, necesariamente, en red, conectado a toda una serie

de sensores y oficinas, desde sistemas de radar a estaciones meteorológicas, de los que recibía datos. Los jóvenes ingenieros del MIT que trabajaron en él formarían tiempo después el núcleo de DARPA (Defense Advanced Research Projects Agency; Agencia de Proyectos de Investigación Avanzados de Defensa) —la progenitora de internet— y de la Digital Equipment Corporation (DEC), la primera empresa que fabricó un ordenador empresarial asequible. Toda la computación contemporánea proviene de esta conexión: los intentos militares de predecir y controlar el tiempo atmosférico y, por lo tanto, de controlar el futuro. En el diseño del Whirlwind ejerció una gran influencia el ENIAC; a su vez, aquel sentó las bases para SAGE (Semi-Automatic Ground Environment; Entorno de Tierra Semiautomático), el enorme sistema informático que la NORAD (North American Air Defense Command; Mando Norteamericano para la Defensa Aérea) utilizó entre las décadas de 1950 y 1980. Se instalaron «centros de dirección» de cuatro pisos de altura en veintisiete estaciones de mando y control distribuidas por todo el territorio de Estados Unidos, y sus terminales gemelas —una en funcionamiento, otra de respaldo— incorporaban una pistola de luz para señalar los objetivos (similar al Zapper de Nintendo) y ceniceros integrados en la consola. Para hacerse una idea de cómo era SAGE, nada mejor que la estética colosalista y paranoica de los sistemas informáticos de la Guerra Fría retratados en películas, desde Teléfono rojo. Volamos hacia Moscú, de 1964, hasta Juegos de guerra, el éxito de taquilla de 1983 que contaba la historia de una inteligencia informática incapaz de distinguir entre realidad y simulación, célebre por su frase final: «La única jugada ganadora es no jugar». Para conseguir que un sistema tan complejo funcionase, siete mil ingenieros de IBM se dedicaron a escribir el mayor programa informático jamás creado y se tendieron 25.000 líneas telefónicas dedicadas para conectar las distintas ubicaciones.[23] A pesar de ello, SAGE es más conocido por sus pifias: dejar ejecutándose cintas de pruebas (de manera que los turnos posteriores tomaron datos de simulación por ataques reales con misiles) o confundir bandadas de aves migratorias con flotas de bombarderos soviéticos aproximándose. Las historias sobre los proyectos de computación suelen tratar estos casos como fracasos anacrónicos y los comparan con los sobredimensionados proyectos modernos de software e iniciativas gubernamentales en el ámbito de las tecnologías de la información que, incapaces de alcanzar sus muy publicitados objetivos, son sustituidos antes de completarse por otros sistemas más modernos y mejor diseñados, lo que da lugar a un ciclo de obsolescencia y revisión permanente. Pero ¿y si esos casos cuentan la verdadera historia de la computación: una letanía de fracasos a la hora de distinguir entre simulación y realidad; una incapacidad crónica para identificar el abismo conceptual que constituye el núcleo del pensamiento computacional, de nuestra construcción del mundo? Estamos condicionados para creer que los ordenadores vuelven el mundo más claro y eficiente,

que reducen la complejidad y procuran mejores soluciones para los problemas que nos aquejan y que aumentan nuestra capacidad de actuación para abordar un ámbito de experiencia que no deja de ampliarse. Pero ¿y si eso no es en absoluto cierto? Una lectura atenta de la historia de los ordenadores pone de manifiesto cómo nunca ha dejado de crecer la opacidad, unida a la concentración de poder, al tiempo que ese poder se repliega hacia ámbitos de experiencia cada vez más reducidos. Al cosificar las preocupaciones del presente en arquitecturas incuestionables, la computación congela los problemas del momento inmediato en dilemas abstractos e insolubles, se obsesiona con las limitaciones intrínsecas de una reducida clase de enigmas matemáticos y materiales en lugar de hacerlo con las cuestiones más generales propias de una sociedad verdaderamente democrática e igualitaria. Al confundir aproximación con simulación, los sumos sacerdotes del pensamiento computacional reemplazan el mundo por modelos defectuosos de él; y, al hacerlo, como modeladores del mundo que son, pasan a controlarlo. Una vez que resultó evidente que SAGE era peor que inútil a la hora de evitar una guerra nuclear, tras un encuentro en pleno vuelo entre el presidente de American Airlines y un comercial de IBM, mutó hasta convertirse en SABRE (Semi-Automated Business Research Environment; Entorno Semiautomático de Investigación Empresarial), una corporación multinacional para gestionar las reservas en las aerolíneas.[24] Todas las piezas encajaban: las líneas telefónicas, el radar meteorológico, la potencia de procesamiento cada vez más distribuida en manos privadas y la capacidad de gestionar flujos de datos en tiempo real en una era de turismo y gasto de consumo masificados. Una máquina diseñada para evitar que los vuelos comerciales fuesen derribados —un componente imprescindible de cualquier sistema de defensa aérea— pasó a gestionar esos mismos vuelos, con el respaldo de miles de millones de dólares del presupuesto de defensa. Hoy, SABRE conecta más de 57.000 agencias de viajes y millones de viajeros con más de 400 compañías aéreas, 90.000 hoteles, 30 empresas de alquiler de coches, 200 operadores turísticos y decenas de compañías ferroviarias y líneas de ferris y cruceros. Un elemento nuclear de la paranoia computacional de la Guerra Fría es ahora un componente esencial de miles de millones de viajes que se hacen cada año. La aviación aparecerá una y otra vez a lo largo de este libro como un entorno donde la tecnología, la investigación científica, los intereses de defensa y seguridad y la computación convergen en un nudo de transparencia/opacidad y visibilidad/invisibilidad. Una de las más extraordinarias visualizaciones que pueden encontrarse en internet es la que ofrecen los sitios web que hacen seguimiento en tiempo real de las rutas de los aviones. Quien lo desee puede acceder y ver, en cualquier momento, miles y miles de aviones en el aire, yendo de una ciudad a otra, apiñándose sobre el Atlántico, formando grandes ríos de metal a lo largo de las rutas internacionales de vuelo. Se puede clicar en uno cualquiera de esos miles de iconitos de aviones y ver su recorrido, su marca y modelo, la compañía que lo opera y su número de vuelo, su origen y

destino y su altitud, velocidad y tiempo de vuelo. Todos los aviones emiten una señal ADS-B, que es detectada por una red de aficionados al seguimiento de aviones: hay miles de personas que deciden instalar receptores de radio local y compartir sus datos en internet. La visión de estos sitios de seguimiento de vuelos, como la de Google Earth y otros servicios de imágenes vía satélite, es profundamente seductora, hasta el punto de suscitar una emoción casi vertiginosa: una muestra de lo sublime en la era digital. El sueño de todo estratega de la Guerra Fría está ahora a disposición del gran público en sitios web de acceso libre. Pero esta visión total es engañosa, ya que también sirve para ocultar y borrar otras actividades tanto privadas como estatales, desde los aviones privados de oligarcas y políticos hasta maniobras militares y vuelos de vigilancia encubiertos.[25] Por cada cosa que se muestra, otra se esconde.

Captura de pantalla tomada en octubre de 2017 de Flightradar24.com donde se ven 1.500 vuelos de los 12.151 de los que hace seguimiento. Sobre Puerto Rico pueden verse los globos del Proyecto Loon de Google tras el huracán María. Fuente: Flightradar24.com.

En 1983, tras el derribo de un avión comercial coreano que se había desviado de su rumbo hasta penetrar en el espacio aéreo ruso, Ronald Reagan ordenó que se abriese al uso civil el Sistema de Posicionamiento Global (GPS),hasta entonces encriptado. El GPS se ha acabado convirtiendo en el ancla de una cantidad ingente de aplicaciones actuales y ha pasado a ser una más entre todas las señales invisibles e incuestionadas que modulan nuestra vida cotidiana; otra de esas cosas que, más o menos, «simplemente funciona». El GPS hace posible ese punto azul en mitad del mapa que ciñe el planeta entero alrededor del individuo. Sus datos marcan el rumbo a coches y camiones, localizan barcos, evitan las colisiones entre aviones, envían taxis y permiten hacer seguimiento de inventarios logísticos y ordenar ataques con drones. La señal temporal de los satélites GPS, que es básicamente un enorme reloj con base en el espacio, regula las redes eléctricas y los mercados bursátiles. Pero nuestra creciente dependencia de este sistema enmascara el hecho de que quienes controlan su señal aún pueden manipularlo; entre ellos, el

Gobierno estadounidense, que conserva la capacidad de bloquear selectivamente las señales de posicionamiento de cualquier región que desee.[26] En el verano de 2017, una serie de informaciones procedentes del mar Negro daban cuenta de la interferencia deliberada con el GPS que estaba teniendo lugar a lo largo y ancho de una extensa área, donde los sistemas de navegación de los barcos los ubicaban a decenas de kilómetros de sus posiciones reales. Muchos de ellos incluso aparecían en tierra firme, varados virtualmente en una base aérea rusa (de la que se sospechaba que estaba en el origen del intento de falsificación).[27] El Kremlin está rodeado por un campo similar, como descubrieron los jugadores de Pokémon GO cuando vieron cómo sus personajes eran teletransportados a varias manzanas de distancia cuando intentaban jugar al juego, que se basa en la ubicación, en el centro de Moscú.[28] (Los jugadores más avispados encontraron la manera de sacar provecho de la situación: usaron métodos de apantallamiento electromagnético y generadores de señal para acumular puntos sin salir de casa.)[29] En otros casos, empleados cuyo trabajo se monitoriza a distancia mediante GPS, como camioneros de trayectos largos, simplemente han bloqueado la señal para poder hacer descansos y tomar rutas no autorizadas, lo cual ha desorientado a otros usuarios a lo largo de sus recorridos. Cada uno de estos ejemplos muestra lo esencial que la computación es para la vida contemporánea, al tiempo que pone de manifiesto sus puntos ciegos, peligros estructurales y debilidades deliberadas. Consideremos otro ejemplo del ámbito de la aviación: la experiencia de estar en un aeropuerto. Un aeropuerto es el paradigma de lo que los geógrafos llaman «código/espacio».[30] La noción de código/ espacio describe el entrelazamiento de la computación con el entorno construido y la experiencia diaria en una medida muy concreta: en lugar de superponerse a ellos y aumentarlos, la computación pasa a ser un componente esencial de ambos, de tal manera que, en ausencia de código, tanto el entorno como la experiencia del mismo dejan de funcionar correctamente. En el caso del aeropuerto, el software facilita y coproduce el entorno al mismo tiempo. Antes de visitar un aeropuerto, los pasajeros interactúan con un sistema electrónico de reservas —como SABRE— que registra sus datos, identifica a los pasajeros y los vuelve visibles para otros sistemas, como los mostradores de facturación y los sistemas de control de pasaportes. Si el sistema deja de estar operativo cuando los pasajeros se encuentran en el aeropuerto, el resultado no es un mero trastorno. Los procedimientos de seguridad modernos han eliminado la posibilidad de que la identificación o el procesamiento de los pasajeros se efectúe usando papel: la consecuencia es que, si el software se bloquea, el edificio pierde su estatus de aeropuerto y se transforma en un enorme cobertizo lleno de gente enfadada. Así es como la computación en gran medida invisible coproduce nuestro entorno: su necesidad imperiosa solo se pone de relieve cuando se produce algún fallo, como una especie de lesión cerebral. Cada vez en mayor medida, el código/espacio se refiere a algo más que edificios inteligentes. Gracias a la posibilidad de acceder a la red desde cualquier lugar y a la naturaleza autorreplicante

del código corporativo y centralizador, va aumentando el número de actividades cotidianas que dependen de su correspondiente software. Los viajes diarios, incluso privados, dependen de la orientación por satélite, de la información del tráfico y de vehículos cada vez más «autónomos», que, por supuesto, no lo son en absoluto, ya que para funcionar necesitan recibir un flujo continuo de información y actualizaciones. La mano de obra está cada vez más reglada, ya sea a través de sistemas logísticos integrales o por servidores de correo electrónico, que a su vez requieren una atención y una supervisión constantes por parte de los trabajadores que dependen de ellos. Nuestras vidas sociales están mediadas por la conectividad y la vigilancia algorítmica. Los teléfonos inteligentes se están convirtiendo en potentes ordenadores de uso general, la computación se desvanece en todos los dispositivos que nos rodean, desde los electrodomésticos inteligentes hasta los sistemas de navegación de los vehículos, y el mundo entero se convierte en un código/espacio. Esta ubicuidad, lejos de volver obsoleta la idea de código/espacio, subraya nuestro fracaso a la hora de entender el impacto de la computación sobre nuestra propia manera de pensar. Cuando se compra un libro electrónico a través de un servicio en línea, sigue siendo propiedad del vendedor, y su préstamo queda sujeto a la posibilidad de ser revocado en cualquier momento, como sucedió en 2009 cuando Amazon borró remotamente miles de copias de 1984 y Rebelión en la granja de los Kindle de sus clientes.[31] Los servicios de música y vídeo en streaming filtran los contenidos disponibles en función de la jurisdicción legal y las preferencias «personales» de sus usuarios determinadas mediante algoritmos. Las revistas académicas determinan el acceso al conocimiento según la afiliación institucional y la contribución económica mientras las bibliotecas físicas y de acceso libre echan el cierre. El funcionamiento continuado de Wikipedia se basa en un ejército de agentes de software —bots— que aplican y mantienen el formato correcto, establecen conexiones entre artículos y actúan como moderadores en los conflictos e incidentes de vandalismo. Según el recuento más reciente, diecisiete de los veinte editores más prolíficos eran bots, que colectivamente suman en torno al 16 por ciento de todas las correcciones al proyecto enciclopédico: una contribución concreta y medible a la producción de conocimiento hecha por el propio código.[32] Leer un libro, escuchar música, investigar y aprender: estas y muchas otras actividades se rigen cada vez en mayor medida por lógicas algorítmicas y son controladas por procesos computacionales opacos y ocultos. La cultura en sí es un código/espacio. El peligro de este énfasis en la coproducción del espacio físico y cultural por parte de la computación radica en que a su vez impide ver las enormes desigualdades de poder en las que se basa y que reproduce. La computación no se limita a aumentar, enmarcar y moldear la cultura; al operar por debajo de nuestro nivel de conciencia cotidiano y distraído, de hecho «se convierte» en cultura. La computación acaba haciéndose con el control de aquello que inicialmente se propone

cartografiar y modelar. Google se propuso indexar todo el conocimiento humano y acabó convertido en la fuente y árbitro de ese conocimiento: se convirtió en lo que la gente piensa realmente. Facebook se propuso trazar un mapa de las conexiones entre las personas —el «grafo social»– y se convirtió en la plataforma para esas conexiones, reconfigurando irrevocablemente las relaciones sociales. Como un sistema de control aéreo que confunde una bandada de aves con una flota de bombarderos, el software es incapaz de distinguir entre su modelo del mundo y la realidad; y nosotros, una vez condicionados, tampoco. Este condicionamiento ocurre por dos motivos: porque la combinación de opacidad y complejidad vuelve ilegible buena parte del proceso computacional y porque la computación en sí se percibe como algo política y emocionalmente neutro. La computación es opaca: tiene lugar dentro de la máquina, detrás de la pantalla, en edificios remotos; podría decirse que en una nube. Incluso cuando se penetra en esta opacidad, mediante el conocimiento directo del código y los datos, sigue resultando incomprensible para la mayoría de nosotros. La agregación de sistemas complejos en las aplicaciones en red contemporáneas implica que no hay nadie que tenga por sí solo una visión de conjunto. La fe en la máquina es un requisito previo para poder usarla, lo cual se suma a otros sesgos cognitivos que nos llevan a creer que las respuestas automatizadas son intrínsecamente más fiables que las no automatizadas. Este fenómeno se conoce como «sesgo de automatización», y se ha observado en todos los dominios computacionales, desde el software corrector ortográfico a los pilotos automáticos, y en todos los tipos de persona. El sesgo de automatización asegura que damos más valor a la información automatizada que a nuestras propias experiencias, incluso cuando aquella entra en conflicto con otras observaciones (en particular, cuando estas son ambiguas). La información automatizada es clara y directa, y elimina las zonas grises que enturbian la cognición. Otro fenómeno asociado, el sesgo de confirmación, reajusta nuestra percepción del mundo para que se adapte mejor a la información automatizada, reafirmando aún más la validez de las soluciones computacionales, hasta el extremo de que podamos descartar por completo las observaciones incompatibles con el punto de vista de la máquina.[33] Estudios con pilotos de avión realizados en cabinas de alta sofisticación tecnológica han dado como resultado múltiples ejemplos de sesgo de automatización. Los pilotos del vuelo de Korean Air Lines cuya destrucción llevó a que se permitiese el uso civil del GPS fueron víctimas del más habitual de ellos. Poco después de despegar de Anchorage, Alaska, el 31 de agosto de 1983, la tripulación del vuelo programó el piloto automático con el rumbo que les habían comunicado desde control de tráfico aéreo y dejó que el avión tomase el control. El piloto automático estaba preprogramado con una serie de puntos intermedios que llevarían al avión a recorrer las aerovías sobre el Pacífico hasta llegar a Seúl, pero, debido a un error de configuración o bien a una deficiente comprensión de los mecanismos del sistema, el piloto automático no siguió recorriendo

la ruta que tenía preasignada, sino que mantuvo su rumbo inicial, lo que lo llevó a alejarse progresivamente hacia el norte de la ruta prevista. Cuando abandonó el espacio aéreo alaskeño, cincuenta minutos después del despegue, estaba diecinueve kilómetros al norte respecto a la trayectoria prevista; a medida que prosiguió su vuelo, esta divergencia aumentó hasta ochenta y, después, hasta ciento sesenta kilómetros. Según contaron los investigadores, a lo largo de varias horas hubo indicios que podrían haber alertado a la tripulación de lo que estaba sucediendo. La tripulación fue consciente de cómo el tiempo de vuelo entre balizas iba aumentando lentamente, pero no le dio importancia. Se quejaron de la mala recepción por radio mientras se iban alejando cada vez más de las rutas aéreas habituales. Pero ninguno de estos efectos hizo que los pilotos dudasen del sistema o comprobasen su posición. Siguieron confiando en el piloto automático incluso mientras entraban en el espacio aéreo militar soviético sobre la península de Kamchatka. Mantuvieron el rumbo incluso cuando aviones de combate se lanzaron a interceptarlos. Tres horas más tarde, todavía sin ser conscientes de la situación, fueron atacados por un Sukhoi Su-15 armado con dos misiles aire-aire, que estallaron lo suficientemente cerca como para destruir sus sistemas hidráulicos. La transcripción de lo acaecido en la cabina de mando durante los últimos minutos de vuelo revela intentos fallidos de reactivar el piloto automático mientras una locución advierte de que se está produciendo un descenso de emergencia.[34] Situaciones similares se han repetido en múltiples experimentos en simuladores que han confirmado esos resultados. Peor aún es que los sesgos no se limitan a errores de omisión, sino que incluyen también errores de acción. Cuando los pilotos de Korean Air Lines siguieron ciegamente las instrucciones del piloto automático, estaban tomando el camino más fácil, pero se ha demostrado que incluso los pilotos más experimentados tomarán medidas drásticas al recibir advertencias automatizadas, incluso cuando estas choquen contra la evidencia de sus propias observaciones. Las hipersensibles alarmas de incendios de las primeras remesas de aviones Airbus A300 fueron célebres por provocar el desvío de numerosos vuelos, creando en ocasiones situaciones de cierto riesgo, incluso aunque los pilotos comprobasen visualmente varias veces si había o no indicios de incendio. En un estudio realizado en el Simulador de Vuelo de Conceptos Avanzados Ames de la NASA, se enviaron a las tripulaciones alarmas de incendios contradictorias durante la preparación para el despegue: el 75 por ciento de las tripulaciones que siguieron las indicaciones de un sistema automático desactivó el motor equivocado, mientras que cuando siguieron una lista de comprobación tradicional en papel solo lo hizo el 25 por ciento, a pesar de que en ambos casos tenían acceso a información adicional que debería haber influido sobre su decisión. Las grabaciones de las simulaciones mostraban cómo quienes seguían las indicaciones del sistema automatizado tomaban sus decisiones más rápidamente y con menor debate, lo que parece indicar que disponer de una sugerencia de acción inmediata evitaba que profundizaran en el problema.[35]

El sesgo de automatización implica que la tecnología ni siquiera tiene que fallar para constituir una amenaza para nuestras vidas; y el GPS es, de nuevo, un sospechoso habitual. En su intento de llegar a una isla en Australia, un grupo de turistas japoneses condujeron con su coche hasta una playa y lo metieron directamente en el mar porque su sistema de navegación por satélite les aseguraba que allí había una carretera viable. Tuvieron que ser rescatados cuando la marea subió a su alrededor, a unos 15 metros de la orilla.[36] Otro grupo, en el estado de Washington, metió su coche en un lago tras recibir indicaciones para que abandonasen la carretera principal y se dirigiesen a una rampa de barcos. Cuando llegaron los servicios de emergencia, encontraron el coche flotando en aguas profundas, de tal manera que solo la baca sobresalía de la superficie.[37] Para los guardas del parque nacional de Death Valley, situaciones así se han vuelto tan habituales que tienen una expresión para referirse a ellas: «Muerte por GPS», que describe lo que sucede cuando viajeros que no están familiarizados con el área siguen las instrucciones del GPS y no lo que les dicen sus sentidos.[38] En una zona donde muchas de las carreteras señalizadas pueden ser intransitables para vehículos normales, donde las temperaturas diurnas pueden alcanzar los cincuenta grados centígrados y donde no hay agua, perderse conduce a una muerte segura. En estos casos, la señal del GPS no había sido falseada ni se había desviado. Sencillamente, al ordenador se le hizo una pregunta, este dio una respuesta y los humanos le hicieron caso hasta la muerte. En el origen del sesgo de automatización está otro sesgo más profundo, firmemente arraigado no en la tecnología, sino en el propio cerebro. Cuando las personas se enfrentan a un problema complejo, en particular cuando el tiempo apremia —¿y a quién no le apremia el tiempo continuamente?—, intentan realizar el mínimo trabajo cognitivo posible y prefieren estrategias que sean al mismo tiempo fáciles de seguir y fáciles de justificar.[39] Ante la posibilidad de delegar la toma de decisiones, el cerebro toma la senda del menor esfuerzo cognitivo, el atajo más corto, que los asistentes automatizados le ofrecen de forma casi instantánea. La computación, a cualquier escala, es una argucia cognitiva, que descarga en la máquina tanto el proceso de toma de decisiones como la responsabilidad. Cuanto más se acelera la vida, más interviene la máquina para hacerse cargo de un número mayor de tareas cognitivas, lo cual refuerza su autoridad con independencia de cuáles sean las consecuencias. Reajustamos nuestra visión del mundo para adaptarnos mejor a las alertas y atajos cognitivos constantes que nos proporcionan los sistemas automatizados. La computación sustituye al pensamiento consciente. Pensamos cada vez más como una máquina, o dejamos por completo de pensar. En la línea que conduce del mainframe hasta el smartphone y la red global en la nube, pasando por el ordenador personal, vemos cómo hemos llegado a vivir dentro de la computación. Pero la computación no es una mera arquitectura; se ha convertido en la base misma de nuestro pensamiento. Ha evolucionado hasta convertirse en algo tan ubicuo y atractivo que hemos llegado a preferir utilizarla incluso cuando nos bastaría con recurrir a procesos mecánicos, físicos o

sociales más sencillos. ¿Por qué hablar cuando podemos enviar mensajes de texto? ¿Por qué usar una llave cuando podemos usar el teléfono? A medida que la computación y sus productos nos envuelven cada vez más, se los dota de poder y de la capacidad de generar verdades y van asumiendo un número creciente de tareas cognitivas, la realidad misma adopta la apariencia de un ordenador y nuestros modos de pensamiento hacen lo propio. De la misma manera que las comunicaciones han hecho que colapsen el tiempo y el espacio, la computación fusiona pasado y futuro. Lo que se recopila en forma de datos modela la forma en que las cosas son y, a continuación, se proyecta hacia el futuro (con la suposición implícita de que las cosas no cambiarán ni se alejarán radicalmente respecto de experiencias pasadas). Así, la computación no se limita a gobernar nuestras acciones en el presente, sino que construye el futuro que mejor se adecua a sus parámetros. Lo posible se reduce a lo que es computable. Lo que es difícil de cuantificar y de modelar, lo que no se ha visto nunca antes o lo que no se corresponde con ningún patrón establecido se excluye del campo de los futuros posibles. La computación proyecta un futuro que es como el pasado, lo que a su vez hace que sea incapaz de manejar la realidad del presente, que nunca es estable. El pensamiento computacional subyace en muchas de las cuestiones que más división generan en nuestros días; de hecho, la división, al ser una operación computacional, es su característica principal. El pensamiento computacional insiste en la respuesta fácil, que requiera la mínima cantidad de esfuerzo cognitivo. Más aún, insiste en que existe una solución, una solución única e inviolable a la que se puede llegar. El «debate» en torno al cambio climático, cuando no se trata de una mera conspiración del petrocapitalismo, se caracteriza por esta incapacidad computacional para gestionar la incertidumbre. Tal y como se entiende en un sentido matemático y científico, la incertidumbre no es lo mismo que el desconocimiento; en términos científicos, climatológicos, es una medida precisamente de lo que no sabemos. Y nuestros sistemas computacionales, a medida que se extienden, nos muestran de forma cada vez más evidente cuánto es lo que ignoramos. El pensamiento computacional se ha impuesto porque, primero, nos ha seducido con su poder, después nos ha desconcertado con su complejidad y, por último, se ha asentado en nuestra corteza cerebral como algo evidente. Sus efectos y consecuencias, su mera manera de pensar, ahora forman parte de nuestro día a día hasta tal punto que oponerse a él parece una tarea tan abrumadora y vana como oponerse al propio tiempo meteorológico. Pero reconocer la infinidad de maneras en que el pensamiento computacional es el producto de una excesiva simplificación, datos erróneos y ofuscación deliberada nos permite reconocer también las formas en que fracasa y revela sus propias limitaciones. Como veremos, el propio caos del tiempo atmosférico queda fuera de su alcance. En los márgenes de las galeradas de Numerical Prediction, Lewis Fry Richardson escribió:

Einstein señaló en algún sitio que lo que lo guio hacia sus descubrimientos fue la idea de que las leyes importantes de la física eran realmente simples. Se ha oído decir a R. H. Fowler que, entre dos fórmulas, es más probable que la más elegante sea la correcta. Dirac buscó una explicación alternativa a la del espín del electrón porque creía que la naturaleza no podía haberlo dispuesto de una manera tan complicada. Estos matemáticos han tenido un éxito fenomenal a la hora de tratar con masas y cargas puntuales. Si se dignasen a dirigir su atención hacia la meteorología, la disciplina podría enriquecerse enormemente. Pero sospecho que tendrían que abandonar la idea de que la verdad es realmente simple.[40]

Tardó cuarenta años en formularlo, pero en la década de 1960 Richardson finalmente encontró un modelo para esta incertidumbre, una paradoja que resume perfectamente el problema existencial del pensamiento computacional. Mientras trabajaba en Statistics of Deadly Quarrels, un primer intento de análisis científico de los conflictos, Richardson se propuso encontrar una correlación entre la probabilidad de que dos países se enfrentasen en una guerra y la longitud de la frontera que los separaba. Pero descubrió que muchas de las estimaciones de esas longitudes variaban enormemente según la fuente que se consultase. La razón, como llegó a entender, era que la longitud de la frontera dependía de las herramientas utilizadas para medirla: cuanto más precisas eran estas, más se incrementa la longitud, ya que se tenían en cuenta variaciones cada vez más pequeñas de la línea de separación.[41] Los litorales eran aún peores, lo que llevó a Richardson a entender que, en realidad, es imposible dar cuenta con precisión de la longitud de las fronteras de un país. Esta «paradoja de la línea de costa», que pasó a conocerse como el efecto Richardson y que constituyó la base del trabajo de Benoît Mandelbrot sobre fractales, demuestra, con una claridad palmaria, la premisa contraintuitiva de la nueva era oscura: cuanto más obsesivamente intentamos computar el mundo, más incognosciblemente complejo se muestra.

3 Clima

Había un vídeo en YouTube que vi una y otra vez hasta que lo borraron. Luego encontré varios GIF del vídeo publicados en sitios web de noticias y vi esos en su lugar: sacudidas concentradas del momento clave, un chute de estupefacción. Un hombre con botas de goma, traje de camuflaje y un rifle colgado del hombro recorre la inmensa extensión de la tundra siberiana en primavera. El suelo es verde y marrón, espeso, con una tupida alfombra de hierbas, y se extiende perfectamente llano en todas las direcciones hasta el azul pálido de un horizonte que parece estar a cientos de kilómetros de distancia. Da amplias zancadas, a ritmo de marcha, lo suficientemente vivo como para permitirle recorrer largas distancias cada día. Pero al pisar, el suelo reluce y se ondula; la tierra espesa se vuelve líquida y se mueve en olas.[1] Ese suelo que parecía tan sólido no es más que una fina alfombra de materia vegetal, una corteza orgánica sobre un mar caldoso que empieza a agitarse. El permafrost bajo la tundra se está derritiendo. En el vídeo, parece como si en cualquier momento el suelo pudiese ceder, la bota del caminante fuese a hundirse bajo la superficie y este fuese a ser arrastrado por la corriente subterránea hasta perderse bajo la alfombra verde. De hecho, es más probable que, si algo ocurre, sea en la dirección opuesta: el suelo empujará hacia arriba y lanzará al aire tierra húmeda y gases calientes. En 2013, en el extremo norte de Siberia se oyó una misteriosa explosión y personas que vivían a cien kilómetros de distancia contaron que habían visto un brillante resplandor en el cielo. Los científicos, que llegaron a la aislada península de Taimyr varios meses más tarde, descubrieron allí un enorme cráter reciente de cuarenta metros de ancho y treinta de profundidad. La temperatura en Taimyr alcanza un máximo de cinco grados centígrados en pleno verano y se hunde hasta los treinta grados bajo cero en invierno. Su desolado paisaje está salpicado de pingos: pequeños montículos y lomas formados cuando la presión hidrostática empuja bloques de hielo hacia la superficie. A medida que crecen los pingos (colinas de hielo formadas en el permafrost), la vegetación y el hielo de la superficie se cuartean hasta alcanzar el aspecto de cordilleras de volcanes truncados, agrietados y con cráteres en sus coronas. Pero, como el permafrost, los pingos se están derritiendo y, en algunos casos, están explotando. En abril de 2017, unos investigadores instalaron en Siberia la primera red de sensores sísmicos; lo hicieron en la cercana península de Yamal, cuyo nombre significa «el fin de la Tierra». Cerca del nuevo

puerto de Sabetta, en la desembocadura del río Ob, esos sensores son capaces de medir movimientos de tierra en un radio de 200 kilómetros; están diseñados para proporcionar una alerta temprana cuando los pingos estallen —o algo aún peor—, lo que podría dañar la infraestructura industrial del puerto o de los cercanos depósitos de gas en Bovanenkovskoye y Kharasavay. El establecimiento de Sabetta como punto de exportación de las enormes reservas de gas natural siberiano ha sido posible gracias al mismo impulso que provoca la explosión de los pingos: el aumento global de las temperaturas. A medida que se derrite el hielo del Ártico, las reservas de petróleo y gas que antes eran inaccesibles pasan a resultar viables. Se calcula que el 30 por ciento de las reservas de gas natural en el mundo están en el Ártico;[2] la mayoría se encuentra en alta mar, a menos de 500 metros bajo el agua, y ahora son accesibles debido precisamente al catastrófico impacto del último siglo de extracción y dependencia de los combustibles fósiles. Los sensores instalados para proteger la infraestructura industrial son necesarios debido a las condiciones que la propia infraestructura ha generado. Es un bucle de retroalimentación positivo; positivo no para la vida —humana, animal o vegetal— ni para la razón, sino acumulativo, expansivo y cada vez más rápido. La forma subyacente y concreta que adopta esa retroalimentación positiva es la emisión de metano por el permafrost cuando se funde, la tundra semiderretida y trémula. El permafrost situado bajo la tundra siberiana puede alcanzar profundidades de más de un kilómetro y está formado por capas permanentemente congeladas de suelo, roca y sedimentos. Atrapados en este hielo hay millones de años de vida que están empezando a volver a la superficie. En el verano de 2016, el brote que mató a un niño y acabó con más de cuarenta personas hospitalizadas en la península de Yamal se achacó al contacto con la atmósfera de cadáveres de renos enterrados debido al derretimiento del permafrost. Los cadáveres estaban infectados con bacterias de carbunco, que habían permanecido aletargadas en el hielo durante décadas o incluso siglos, congeladas en el tiempo bajo la tundra.[3] Relacionada con estas mortíferas bacterias está la materia muerta que, cuando el hielo se derrite, comienza a descomponerse y a emitir columnas de metano, un gas de efecto invernadero cuya capacidad para retener el calor en la atmósfera terrestre es muy superior a la del dióxido de carbono. En 2006, el permafrost siberiano liberó a la atmósfera unos 3,8 millones de toneladas de metano; una cifra que en 2013 se elevó hasta los 17 millones de toneladas. Es este metano, más que cualquier otra cosa, lo que está causando que la tundra tiemble y explote.

Paisaje de la península de Tuktoyaktuk, en Siberia. Fuente: Landsat / Observatorio de la Tierra de la NASA.

Por supuesto, en un mundo en red no existen los efectos locales. Lo que percibimos como el tiempo meteorológico en un momento dado cubre el planeta entero en forma de clima: pequeños momentos de actividad turbulenta a través de los cuales apenas podemos atisbar una totalidad oculta e incognoscible. Como ha observado el artista Roni Horn, «El tiempo meteorológico es la paradoja clave de nuestra era. A menudo, el buen tiempo es un tiempo malo: lo bueno ocurre en lo inmediato y lo individual; lo malo ocurre en el conjunto del sistema».[4] Lo que en la tundra se muestra como un suelo cada vez más movedizo es la desestabilización del planeta entero. El propio suelo tiembla, se pudre, se cuartea y apesta. No se puede confiar en él. Vistos desde el aire, los pingos reventados y los lagos superficiales de deshielo en la llanura siberiana recuerdan a los escáneres cerebrales de los pacientes con encefalopatía espongiforme, con su corteza cerebral picada y llena de cicatrices por la muerte de las células nerviosas. Las enfermedades priónicas que causan la encefalopatía espongiforme (tembladera, kuru, enfermedad de las vacas locas, enfermedad de Creutzfeldt-Jakob y sus derivados) son el resultado del plegamiento incorrecto de ciertas proteínas, pedazos de materia prima que se han retorcido hasta acabar en una malformación. Estas proteínas mal plegadas se extienden a través del cuerpo a base de hacer que otras proteínas correctamente plegadas reproduzcan su malformación. Cuando las infecciones priónicas llegan al cerebro, provocan demencia precoz, pérdida de memoria, alteraciones de la personalidad, alucinaciones, ansiedad, depresión y, en última instancia, la muerte. El propio cerebro llega a parecer una esponja, agujereado y desnaturalizado, incapaz de comprenderse a sí mismo y su final. El permafrost —una palabra inglesa que significa literalmente «congelación permanente»— se está derritiendo. Las palabras pierden su sentido y con ellas desaparecen las formas que tenemos para pensar el mundo.

El 19 de junio de 2009, representantes de cinco países nórdicos se reunieron en la remota isla ártica de Spitsbergen, en el archipiélago de Svalbard, para poner la primera piedra de una máquina del tiempo. Durante los dos años siguientes, los trabajadores hicieron un pozo de 120 metros en una montaña de arenisca, donde excavaron cavernas de otros 150 metros de largo por 10 de ancho. La máquina del tiempo se ha diseñado para transportar uno de los recursos más preciados de la humanidad a un incierto futuro, sorteando ciertos horrores del presente. En bolsas de aluminio termoselladas y empaquetadas en cajas de plástico apiladas en estanterías industriales, se acumulan millones y millones de semillas preservadas: especímenes de cultivos alimenticios procedentes de colecciones regionales de todo el mundo.

Fotomicrografía (con una ampliación 100X) de tejido cerebral aquejado de la enfermedad de Creutzfeldt-Jakob (ECJ). Fuente: Public Health Image Library (n.º de identificación: 10131).

Situado a tan solo 1.120 kilómetros del polo norte, Svalbard es el lugar más septentrional del mundo que permanece habitado a lo largo de todo el año y, a pesar de su ubicación tan remota, es desde hace mucho tiempo un punto de encuentro internacional. Los pescadores y cazadores escandinavos frecuentaron el lugar al menos desde el siglo XII, y su «descubrimiento» por parte de exploradores holandeses en 1596 abrió las islas a la explotación ballenera y minera. Los británicos desembarcaron allí en 1604 y empezaron a cazar morsas; a finales de ese siglo, los rusos llegaron en busca de pieles de osos y zorros polares. Aunque las incursiones británicas en el mar de Barents los expulsaron de allí en la década de 1820, volverían, como todos los demás,

atraídos por el carbón. Durante la Segunda Guerra Mundial, se evacuó a la población del archipiélago, que pasó a ser ocupado por un destacamento de soldados alemanes encargados de una estación meteorológica, que quedaron incomunicados en mayo de 1945 y no fueron rescatados hasta finales de septiembre por un barco noruego de cazadores de focas, lo que los convirtió en los últimos alemanes en rendirse a los aliados. El descubrimiento de depósitos de carbón a finales del siglo XIX agudizó las cuestiones relativas a la soberanía sobre el lugar, que hasta entonces habían quedado sin resolver. Durante siglos, el archipiélago había funcionado como un territorio libre, sin leyes ni regulaciones, fuera de la jurisdicción de cualquier país. El Tratado de Svalbard de 1920, firmado como parte de las negociaciones de Versalles, concedió la soberanía a Noruega, pero otorgó a todos los signatarios los mismos derechos a participar en actividades comerciales en las islas —principalmente, en torno a la minería—. El archipiélago se desmilitarizó y, hasta la fecha, continúa siendo una zona excepcional libre de visados: cualquiera puede establecerse y trabajar allí con independencia de su país de origen y su nacionalidad, siempre que disponga de medios de sustento. Junto con casi 2.000 noruegos y 500 rusos y ucranianos, Svalbard alberga a varios cientos de personas no nórdicas, incluidos trabajadores tailandeses e iraníes. En los últimos años, demandantes de asilo cuyas solicitudes habían sido rechazadas en Noruega han llegado a Svalbard para pasar allí los siete años de residencia que se exigen para obtener la nacionalidad noruega.[5] La Cámara Global de Semillas de Svalbard —también conocida como «el arca» o la «cámara del fin del mundo»— se inauguró en 2008. Como instalación de respaldo para los bancos de genes de todo el mundo, la ubicación de Svalbard es adecuada por partida doble. Su emplazamiento excepcional desde el punto de vista geopolítico hace que sea mucho más fácil convencer a las organizaciones nacionales para que almacenen allí sus preciadas —y a menudo confidenciales— colecciones. Y, al estar enterrada bajo el permafrost, la cámara es también un congelador natural: alimentada a base de carbón extraído en los alrededores, está refrigerada a dieciocho grados centígrados bajo cero e, incluso en el caso de que esas máquinas fallaran, la roca madre del lugar permanece todo el año por debajo de la temperatura de congelación. La Cámara de Semillas es un intento de crear un santuario que esté aislado tanto geográfica como temporalmente, suspendido en territorio neutral y en el tiempo profundo de los inviernos árticos. Los bancos de semillas, esenciales para mantener una cierta apariencia de biodiversidad genética, son el fruto de un movimiento que comenzó en la década de 1970, cuando se tomó conciencia de que la Revolución Verde en la agricultura estaba llevando a los agricultores a abandonar sus semillas habituales, desarrolladas localmente a lo largo de siglos, y a sustituirlas por nuevos híbridos. Se calcula que hace un siglo había en la India más de cien mil variedades de arroz; hoy apenas son unos pocos miles. Los tipos de manzanas en el continente americano se han reducido de cinco mil a unos pocos cientos. En conjunto, la Organización de las Naciones Unidas

para la Alimentación y la Agricultura (FAO, por sus siglas en inglés) estima que se ha perdido el 75 por ciento de la biodiversidad de cultivos.[6] Esta diversidad es esencial para contrarrestar el riesgo de que puedan surgir nuevas enfermedades o plagas que amenacen con exterminar variedades hom*ogéneas. La colección de Svalbard busca ofrecer almacenamiento seguro para variedades diversas en caso de catástrofe; su contenido está técnicamente en situación de préstamo a largo plazo y no está previsto que se pueda acceder a él a menos que todas las demás fuentes hayan fallado. En enero de 2012, el banco nacional de semillas de Filipinas fue destruido por un incendio, seis años después de haber sufrido graves daños por inundaciones, mientras que los de Afganistán e Irak han resultado completamente destruidos por la guerra.[7] En 2015, el Centro Internacional de Investigaciones Agrícolas en Zonas Áridas (ICARDA, por sus siglas en inglés) solicitó la primera retirada de material de la cámara: 130 de las 325 cajas que había depositado allí, que contenían un total de 116.000 muestras. ICARDA se fundó en 1977, con sede en Alepo, Siria, y sucursales en Oriente Próximo, el Norte de África y Asia Central. Su trabajo se centra en las necesidades y riesgos para la seguridad alimentaria específicos de la región: el desarrollo de nuevas variedades de cultivos, la gestión del agua, la conservación y la educación rural, en particular la de las mujeres. En 2012, los combatientes rebeldes en la guerra civil siria tomaron el control del banco de genes del centro, situado a unos treinta kilómetros al sur de Alepo, donde mantenía una extraordinaria colección de 150.000 poblaciones diferentes de semillas de trigo, cebada, lentejas y habas procedentes de 128 países. Aunque se permitió que parte del personal se quedara para mantener la instalación, el ICARDA se vio obligado a trasladar su sede a Beirut y se le impidió el acceso a la colección. La colección del ICARDA —que se guarda temporalmente en Svalbard y en el futuro próximo se redistribuirá a Marruecos, Turquía y otros lugares— está especializada en cultivos adaptados a las duras condiciones ambientales de Oriente Próximo y el Norte de África. La ventaja de la biodiversidad intrínseca a este archivo, fruto de los cambios y las manipulaciones introducidos por los agricultores y la naturaleza a lo largo de generaciones, no es la resistencia a enfermedades y plagas, sino la resiliencia climática. De este recurso los científicos confían en extraer nuevas características genéticas para paliar los estragos del cambio climático; por ejemplo, cruzar cultivos resistentes al calor y a la sequía, como los garbanzos y las lentejas, con maíz y soja, para hacer que estos últimos puedan crecer en ecosistemas sometidos a cambios rápidos y calentamiento.[8] Este cambio es tan rápido que ha sorprendido incluso a la Cámara Global de Semillas. Por tercer año consecutivo, 2016 fue el más caluroso del que se tiene registro; las investigaciones indican que la temperatura de la Tierra no era tan alta desde hace 115.000 años. En noviembre, los científicos informaron de que las temperaturas en el Ártico eran hasta veinte grados centígrados más elevadas que la media y de que los niveles del hielo marino se encontraban un 20 por ciento

por debajo del promedio de los últimos veinticinco años. En Svalbard, en lugar de suaves nevadas, lo que cayeron fueron intensas lluvias, y el permafrost empezó a descongelarse. Una inspección de la cámara en mayo de 2017 descubrió que el túnel de entrada se había inundado con agua del deshielo, que había vuelto a congelarse bajo la superficie hasta formar un glaciar interior que hubo que destruir a base de hachazos para poder acceder al banco de semillas. La cámara, diseñada para funcionar durante largos periodos sin intervención humana, está ahora vigilada las veinticuatro horas, se han añadido medidas de emergencia para garantizar la estanqueidad del túnel de entrada y se ha excavado un foso alrededor del lugar para encauzar el agua de deshielo. «El Ártico, y Svalbard en particular, se está calentando más rápido que el resto del planeta. El clima está cambiando drásticamente y todos estamos asombrados ante la velocidad a la que está sucediendo», explicó a los periodistas el meteorólogo danés Ketil Isaksen.[9] El cambio climático ya está ocurriendo y sus efectos son tan visibles y urgentes en el terreno de la geopolítica como en el de la geografía. El conflicto sirio, que obligó a los científicos del ICARDA a huir a Beirut y pedir ayuda a la Cámara de Semillas, puede atribuirse en parte a cambios en el medio ambiente.[10] Entre 2006 y 2011, más de la mitad de las zonas rurales de Siria sufrieron la peor sequía de la que hay constancia. Esta sequía, más intensa y prolongada de lo que las variaciones naturales del tiempo atmosférico permitían explicar, se ha relacionado con la aceleración del cambio climático; como consecuencia de las malas cosechas, en pocos años murieron casi el 85 por ciento de las cabezas de ganado rural. El presidente Bashar al Asad redistribuyó los derechos hídricos tradicionales entre sus aliados políticos, lo que obligó a los agricultores a cavar pozos ilegales; quienes protestaban se enfrentaban a la cárcel, la tortura e incluso la muerte. Más de un millón de habitantes de las zonas rurales huyeron hacia las ciudades. Cuando este resentimiento y esta presión demográfica rural se sumaron a la opresión totalitaria que ya estaba aplastando las ciudades, se produjo el detonante definitivo para una revuelta que se extendió rápidamente a las regiones más azotadas por la sequía. Los medios de comunicación y los activistas se han referido al conflicto sirio como la primera guerra climática a gran escala del siglo XXI, al establecer una relación directa entre el clima y la gran cantidad de refugiados que han llegado a Europa. Los científicos son más cautos a la hora de identificar conexiones explícitas entre conflicto y clima, pero no en lo tocante al cambio climático en sí. Incluso si Siria se recupera políticamente en los próximos años, se arriesga a perder casi el 50 por ciento de su capacidad agrícola para el año 2050. No hay vuelta atrás. ¿Por qué debería preocuparnos tanto la Cámara de Semillas? Es de una importancia crucial porque es un bastión no solo de la diversidad, sino de la diversidad en el conocimiento y de la diversidad como conocimiento. La Cámara de Semillas transporta cosas —objetos, conocimientos y vías de conocimiento— desde un presente incierto hasta un futuro que lo es aún más. Se nutre no solo de los objetos que contiene, sino también de la propia diversidad de esos objetos. Lo que la

impulsa es heterogéneo, variopinto e incompleto, porque tal es la naturaleza del conocimiento y del mundo. Es la necesaria antítesis del monocultivo; en este caso, ni siquiera es una metáfora, sino que se trata de un monocultivo en sentido literal: de variedades vegetales diseñadas para aplicaciones geográficas y temporales específicas que, cuando se generalizan, son incapaces de adaptarse a la caótica incoherencia del mundo tal y como es realmente. La crisis climática es también una crisis de conocimiento y de comprensión; es una crisis de comunicación y de saber, en el pasado, en el presente y en el futuro. En las regiones del Ártico, todo el mundo es climatólogo. Arqueólogos en busca de vestigios de culturas antiguas están excavando en la historia profunda del planeta para extraer pruebas que nos ayuden a comprender cómo se comportó la Tierra —y los seres humanos— en periodos anteriores de rápidos cambios climáticos y, por tanto, cómo podríamos abordarlos nosotros ahora. En la costa occidental de Groenlandia, a orillas del gran fiordo glaciar de Ilulissat, el permafrost que rodea el antiguo asentamiento de Qajaa conserva los restos de tres civilizaciones que ocuparon el mismo lugar a lo largo de los tres mil quinientos años anteriores. Se trata de las culturas Saqqaq, Dorset y Thule, la primera de las cuales se estableció en el sur de Groenlandia en torno al año 2500 a. C., mientras que las culturas posteriores fueron sustituyendo progresivamente a sus predecesoras hasta que, en el siglo XVIII, se intensificó el contacto con los europeos. La historia de cada una de estas culturas llega hasta nosotros a través de muladares: capas de restos derivados de la cocina y la caza que durante generaciones fueron depositándose y hundiéndose en la tierra mientras esperaban a que los arqueólogos diesen con ellas. Estos muladares nos han ayudado a entender los movimientos de población y los acontecimientos ambientales de épocas pasadas. Lo que les sucedió a las culturas groenlandesas no es algo extraordinario desde un punto de vista cultural, pero arqueológicamente sí lo es. A diferencia de los yacimientos de la Edad de Piedra de todo el mundo, donde los únicos restos son de piedra, los yacimientos del Ártico, gracias a la congelación del permafrost, conservan mucha más información sobre la cultura material humana de la Prehistoria. Los muladares de Qajaa contienen flechas de madera y de hueso, cuchillos con mango, lanzas, agujas de coser y otros objetos que no han sobrevivido en ningún otro lugar del planeta. También contienen rastros de ADN.[11] Al igual que ocurre con el enmarañado pasado y futuro de los bancos de semillas, entender cómo civilizaciones anteriores afrontaron o fueron incapaces de afrontar en el pasado periodos de estrés medioambiental es una vía a través de la que podríamos responder a lo que nos afecta a nosotros, si es que no se destruye ese conocimiento antes de que podamos llegar a él. Tras miles de años de estabilidad, a lo largo del próximo siglo desaparecerán por completo estos extraordinarios depósitos arqueológicos —repositorios de conocimiento e información—. Investigadores del Centro para el Permafrost de la Universidad de Copenhague hicieron

perforaciones en los alrededores del muladar de Qajaa y en otro yacimiento en el nordeste de Groenlandia para extraer bloques de suelo congelado que empaquetaron en bolsas de plástico y mantuvieron congelados durante su trayecto hasta el laboratorio, donde los examinaron en busca de indicios de producción de calor. Cuando el terreno se calienta, las bacterias presentes en el suelo que llevaban mucho tiempo aletargadas empiezan a despertar y activarse, lo cual provoca que el terreno se caliente aún más y, de paso, que más bacterias se descongelen y despierten; más retroalimentación positiva. Cuando el hielo se funde y el agua empieza a discurrir, el oxígeno penetra en las capas del suelo, las fractura y las degrada. Las recién reactivadas bacterias empiezan a alimentarse de residuos orgánicos hasta no dejar más que la roca y, al hacerlo, emiten más carbono, que contribuye al calentamiento. «Cuando el hielo se derrite y el agua fluye — escribe el profesor Bo Elberling, jefe del estudio y director del Centro para el Permafrost— no hay vuelta atrás».[12] En un informe de octubre de 2016 sobre la capa de hielo de Groenlandia, Thomas McGovern, un profesor de arqueología que ha trabajado sobre los muladares durante décadas, detalló cómo el rápido deshielo de la capa de hielo está haciendo papilla un registro arqueológico de varios milenios de antigüedad y que apenas hemos empezado a comprender: En los viejos tiempos, estos yacimientos permanecían congelados durante la mayor parte del año. Cuando visité el sur de Groenlandia en los años ochenta, podía meterme en las zanjas que llevaban abiertas desde los años cincuenta y sesenta, y de las paredes sobresalían pelos, plumas, lana y huesos de animales en un estado de conservación extraordinario. Lo estamos perdiendo todo. Básicamente, tenemos el equivalente de la Biblioteca de Alejandría en el suelo, y está ardiendo.[13]

La afirmación de McGovern es profundamente preocupante en dos sentidos muy concretos. El primero es la terrible sensación de pérdida cuando se nos hurta la posibilidad de acceder a nuestro propio pasado y aprender más sobre él en el preciso instante en que más útil podría resultarnos. Pero el segundo es más existencial: tiene que ver con nuestra intensa necesidad de descubrir cada vez más cosas sobre el mundo, de recopilar y procesar más datos sobre él, para que los modelos que construyamos del mismo puedan ser más robustos, más precisos y más útiles. Pero está sucediendo lo contrario: nuestras fuentes de datos desaparecen, y con ellas las estructuras mediante las que hemos organizado el mundo. El deshielo del permafrost es al mismo tiempo una señal de alarma y una metáfora: el acelerado colapso de nuestra infraestructura tanto medioambiental como cognitiva. Las certidumbres del presente se asientan sobre el supuesto de la existencia de geologías del conocimiento cada vez más amplias y cristalizadas; resulta tranquilizador imaginar una Tierra que se enfría, que toma forma, que se manifiesta de maneras diferenciadas y sólidas. Pero, como en Siberia, la esponjación del paisaje groenlandés reitera una

vuelta a lo fluido, lo pantanoso y cenagoso, lo indiferenciado y gaseoso. Una nueva edad oscura exigirá más formas líquidas de conocimiento que las que se pueden extraer exclusivamente de las bibliotecas del pasado. Algún conocimiento derivado del pasado o revelado a partir de él puede servir para afrontar los catastróficos efectos del cambio climático. Pero nuestras tecnologías y procesos actuales deberían ser también capaces de protegernos, hasta cierto punto, de sus excesos. Eso, suponiendo que estas tecnologías y estrategias cognitivas no se cuenten entre las primeras víctimas del cambio climático. El Consejo para la Ciencia y la Tecnología, un organismo que asesora al Gobierno británico, publicó en 2009 un informe titulado «A National Infrastructure for the 21st century», en el que analizaba el futuro de las redes de comunicaciones, energéticas, de transporte e hídricas del país. El informe hacía hincapié en que la infraestructura nacional de Reino Unido, como internet, constituía «una red de redes», una red frágil, fragmentada en su distribución y gobernanza, cuyas responsabilidades y rendición de cuentas eran poco claras, en gran medida no cartografiada y con un déficit crónico de mantenimiento. Entre las causas últimas de esta situación identificadas por el estudio estaban la compartimentación de la administración, la insuficiente inversión tanto pública como privada y la carencia de una mínima comprensión de cómo funcionan —y menos aún de cómo fallan— esas complejas redes materiales y de conocimiento. Pero el informe hacía referencia explícita a una dificultad que, como no podía ser de otra manera, se impondría sobre todas las demás, el cambio climático: La resiliencia frente al cambio climático es el desafío más sustancial y complejo a largo plazo. Se prevé que los efectos del cambio climático provoquen temperaturas más altas tanto en verano como en invierno, la subida del nivel del mar, una creciente intensidad de las tormentas, incendios forestales y sequías, más inundaciones y olas de calor, y que alteren la disponibilidad de recursos como, por ejemplo, el agua. Los desafíos para las infraestructuras actuales pasan tanto por adaptarse a esos efectos como por propiciar la transición radical a una economía baja en carbono. La Estrategia Nacional de Seguridad del Gobierno, publicada en marzo de 2008, reconoce el cambio climático como la mayor amenaza potencial para la estabilidad y la seguridad globales, habida cuenta de los efectos que se espera que tenga en todo el planeta. Una adaptación efectiva es clave para mitigar este riesgo, en relación con la infraestructura y con otras áreas. [14]

De nuevo, lo llamativo de los efectos directos del cambio climático que el informe vaticinaba es su fluidez e impredecibilidad: Los sistemas de distribución tanto para el agua potable como para las aguas residuales tendrán mayor propensión a reventar a medida que los cambios climáticos lleven a mayores corrimientos de tierras como consecuencia de los ciclos de épocas secas y húmedas […]. Las presas tendrán mayor propensión a la

colmatación como resultado de un incremento de la erosión del suelo y aumentará también el riesgo de deslizamiento para los muros de contención de tierras como consecuencia de lluvias torrenciales.

Otro informe para el Gobierno británico, publicado al año siguiente por la consultora medioambiental AEA, explora los efectos específicos del cambio climático sobre las tecnologías de la información y las comunicaciones (TIC).[15] En este contexto, las TIC se definen como «el conjunto de sistemas y artefactos que permiten la transmisión, recepción, captura, almacenamiento y manipulación de tráfico de voz y de datos en y a través de dispositivos electrónicos», esto es, todo aquello que podríamos considerar parte o artefacto de nuestro universo digital contemporáneo, desde cables de fibra óptica hasta ordenadores, pasando por antenas, centros de datos, centrales telefónicas y satélites. Fuera del ámbito del estudio quedan, por ejemplo, las líneas eléctricas, a pesar la importancia crucial que sus servicios tienen para las TIC. (Por su parte, el estudio del Consejo para la Ciencia y la Tecnología señala que «uno de los factores limitadores para la distribución de electricidad mediante líneas aéreas de transmisión es su capacidad térmica, que se ve afectada por la temperatura ambiente del aire. Unas temperaturas máximas globales más elevadas reducirán esos límites y, por tanto, la capacidad de la red para transportar electricidad».)[16] Los informes destinados a los gobiernos son a menudo mucho más taxativos y claros que las propias declaraciones y políticas de los propios gobiernos. Como sucede en Estados Unidos, donde el Ejército ha puesto en marcha planes a diez años para adaptarse al cambio climático incluso mientras los negacionistas se hacen con control del ejecutivo, los informes británicos se toman la ciencia climática muy en serio, lo que hace que resulten una lectura sorprendentemente lúcida sobre el valor de las redes: Todos los artefactos anteriores funcionan conjuntamente como un sistema: interconectados, interdependientes y completamente enredados los unos con los otros, se rigen por unas reglas de interoperabilidad absolutas. El de las TIC es el único sector de las infraestructuras que conecta directamente a un usuario con cualquier otro a través del tiempo y el espacio empleando simultáneamente múltiples caminos y que es capaz de adaptar dinámicamente el enrutamiento en tiempo real. Así pues, en este caso el activo nacional es la red y no cualquiera de sus componentes individuales, y es el funcionamiento de la red el que depende de la infraestructura en su conjunto y posibilita la generación de valor […] mientras que la red como infraestructura es el activo, el valor de la red no radica en el activo en sí, sino en la información que viaja a través de ella. Casi toda la economía depende de la capacidad de transmitir, recibir y convertir flujos de datos digitales prácticamente en tiempo real, ya sea la extracción de dinero en efectivo de un cajero bancario, el uso de una tarjeta de crédito o de débito, el envío de un mensaje de correo electrónico, el control remoto de un surtidor o de un interruptor o el envío o la recepción de un avión o de algo tan cotidiano como una llamada telefónica.[17]

Las redes de información contemporáneas constituyen los marcos de referencia tanto

económicos como cognitivos de la sociedad. ¿Cómo se comportarán, pues, en una era de cambio climático? ¿Qué daño hacen en el presente? La subida global de las temperaturas supondrá un mayor estrés en particular para las infraestructuras que ya funcionan en caliente, así como para las personas que trabajan en y cerca de ellas. Los centros de datos y los ordenadores individuales generan enormes cantidades de calor y necesitan las cantidades correspondientes de refrigeración, desde las extensas superficies ocupadas por los sistemas de aire acondicionado en los edificios industriales a los ventiladores que refrescan nuestro ordenador portátil cuando un vídeo de un gatito en YouTube exige un esfuerzo suplementario a la CPU. El aumento de la temperatura del aire incrementa los costes de refrigeración y la posibilidad de que se produzcan averías graves. «El iPhone necesita enfriarse antes de continuar» es el mensaje de error que muestra el último teléfono de Apple cuando la temperatura ambiente supera los cuarenta y cinco grados centígrados. Hoy puede aparecer si nos dejamos olvidado el aparato en un coche caliente en algunos lugares de Europa, pero se prevé que se convierta en algo cotidiano en las regiones del Golfo en la segunda mitad del siglo XXI, tras las olas de calor récord de 2015, cuando Irak, Irán, Líbano, Arabia Saudí y los Emiratos Árabes Unidos padecieron temperaturas diurnas cercanas a los cincuenta grados. El informe de la consultora medioambiental AEA sobre las TIC y el clima identifica una serie de efectos concretos que se dejarán sentir en las redes de información. Por lo que respecta a la infraestructura física, el informe señala que buena parte de esta red es parasitaria de estructuras que no fueron diseñadas para sus usos actuales ni teniendo en cuenta los efectos del cambio climático: antenas de telefonía móvil adosadas a los campanarios de las iglesias, centros de datos en antiguos polígonos industriales, centrales telefónicas construidas en oficinas de correos de la era victoriana. Bajo el suelo hay cables de fibra óptica que recorren conductos del alcantarillado que empiezan a ser incapaces de soportar el aumento de las inundaciones y las crecidas durante las tormentas; los puntos de aterrizaje de cable, donde tocan tierra los cables submarinos de datos de internet, son vulnerables ante la subida del nivel del mar, que será particularmente destructiva en el sudeste y el este de Inglaterra, zona de ubicación de las conexiones esenciales con el continente. Las instalaciones costeras serán cada vez más propensas a la corrosión salina, mientras que las torres y antenas de transmisión se combarán y caerán a medida que el suelo, afectado por sequías e inundaciones, ceda y se hunda. En el espectro electromagnético, la intensidad y la eficacia de la transmisión inalámbrica disminuirán con el aumento de las temperaturas. El índice de refracción de la atmósfera depende fuertemente del grado de humedad y afecta considerablemente a la curvatura de las ondas electromagnéticas, así como a la rapidez con la que se atenúan. Temperaturas y precipitaciones más elevadas harán que se desvíen los haces de conexiones de datos punto a punto —como las transmisiones por microondas— y atenuarán las señales de radiodifusión. Cuanto más caliente y

húmeda se vuelva la Tierra, mayor será la densidad necesaria de torres inalámbricas y más difícil será su mantenimiento. Los cambios en la vegetación también afectarán a la propagación de la información. En resumen, lejos de mejorar, la comunicación por wifi empeorará. Incluso podría darse el caso de que los corrimientos de tierras redujeran la fiabilidad de los datos de referencia para los cálculos necesarios en las telecomunicaciones y las transmisiones por satélite. La precisión disminuye, las transmisiones se superponen e interfieren entre sí, el ruido se impone sobre la señal. Los sistemas que hemos construido para reducir a cero el tiempo y el espacio están siendo atacados por el espacio y el tiempo. La computación es, a la vez, víctima y cómplice del cambio climático. En 2015, los centros de datos existentes en todo el mundo, donde se almacenan y procesan exabytes de información digital, consumían alrededor del 3 por ciento de la electricidad mundial y suponían el 2 por ciento de las emisiones globales totales, una huella de carbono aproximadamente similar a la de la industria aeronáutica. Los 416,2 teravatios/hora de electricidad consumidos en 2015 por el conjunto de los centros de datos del planeta superaron el consumo de todo el Reino Unido, que fue de 300 teravatios/hora.[18] Se prevé que este consumo aumente drásticamente debido tanto al crecimiento de la infraestructura digital como a la retroalimentación positiva por el aumento global de las temperaturas. Como consecuencia de los colosales incrementos en capacidad de computación y de almacenamiento de datos que se han producido a lo largo de la última década, la cantidad de energía que usan los centros de datos se ha duplicado cada cuatro años, y se calcula que se triplicará en los próximos diez años. Un estudio realizado en Japón apunta a que en 2030 las necesidades energéticas de los servicios digitales rebasarán por sí solas la capacidad actual de generación de energía de todo el país.[19] Ni siquiera están exentas las tecnologías que proclaman explícitamente buscar una transformación radical de la sociedad. La criptomoneda bitcóin, que aspira a trastocar los sistemas financieros jerárquicos y centralizados, necesita consumir la misma energía que nueve hogares estadounidenses para llevar a cabo una sola transacción; si continúa su crecimiento, en 2019 requerirá para sustentarse toda la producción energética anual de Estados Unidos.[20] Además, estas cifras reflejan la capacidad de procesamiento, pero no tienen en cuenta la red más amplia de actividades digitales que la computación facilita. Estas actividades —dispersas, fragmentadas y a menudo virtuales— también consumen ingentes recursos y son, por la propia naturaleza de las redes actuales, difíciles de ver y de agrupar. Las necesidades energéticas inmediatas y locales, fácilmente visibles y cuantificables por los individuos, son desdeñables en comparación con el coste de la red, de la misma manera en que la producción y gestión individual

de residuos, aparentemente mitigada por un proceso de compra ético y un posterior reciclaje, palidece en comparación con los ciclos industriales globales. Un informe de 2013, «The Cloud Begins with Coal – Big Data, Big Networks, Big Infrastructure, and Big Power» [«La nube empieza por el carbón. Big data, grandes redes, grandes infraestructuras y grandes eléctricas»], calcula que «para recargar una sola tableta o smartphone se necesita una cantidad insignificante de electricidad; usar cualquiera de esos dispositivos para ver una hora de vídeo a la semana consume anualmente más electricidad en las redes remotas que la que gastan dos frigoríficos nuevos en un año».[21] Este informe no proviene de una respetable y bienintencionada organización ecologista, sino que fue encargado por la National Mining Association y la American Coalition for Clean Coal Electricity: es un llamamiento de los grupos de presión a incrementar el consumo de combustibles fósiles para satisfacer demandas inevitables. Lo que los gigantes del carbón señalan, quizá inadvertidamente, es que el uso de los datos es tanto cualitativo como cuantitativo. Aquello que observamos acaba siendo más importante que cómo lo observamos; y no solo para el medio ambiente. Un consultor que trabaja para el sector, cuyas declaraciones se recogieron en los periódicos, argumentaba lo siguiente: «Debemos ser más responsables a la hora de decidir para qué usamos internet […]. Los centros de datos no son los culpables; la responsabilidad recae en las redes sociales y los teléfonos móviles. Son las películas, la p*rnografía, las apuestas, las aplicaciones de citas, las compras… Cualquier cosa que tenga imágenes».[22] Como sucede con la mayoría de las proclamas protoecologistas, las soluciones propuestas consisten en llamamientos a la regulación (una tasa sobre los datos), en regresiones conservadoras (prohibir la p*rnografía, usar fotografías en blanco y negro en lugar de en color para reducir los costes de transmisión) o desatinados apaños tecnológicos (como el grafeno, ese material milagroso), todas ellas ridículas, inviables e impensables en la escala de las redes que pretenden abordar. A medida que la cultura digital se vuelve más rápida, requiere mayor ancho de banda y se basa más en imágenes, también se vuelve más costosa y destructiva, tanto en sentido literal como figurado. Exige más datos de entrada y más electricidad y afianza la primacía de la imagen —la representación visual de los datos— como representación del mundo. Pero estas imágenes han dejado de ser verdaderas, cosa que sucede sobre todo con la imagen que tenemos del futuro. Mientras el pasado se deshiela al mismo tiempo que el permafrost, el futuro se ve sacudido por la atmósfera. Los cambios climáticos no solo trastocan nuestras expectativas, sino nuestra propia capacidad para predecir cualquier futuro en absoluto. Justo después de la medianoche del 1 de mayo de 2017, cuando el vuelo SU270, la línea regular de Aeroflot entre Moscú y Bangkok, se aproximaba a su destino, se topó con una bolsa de violentas turbulencias.[23] Sin ser advertidos de lo que sucedía, los pasajeros salieron

despedidos de sus asientos y algunos se golpearon contra el techo del avión para a continuación caer sobre sus vecinos y en los pasillos. En los vídeos grabados a bordo se puede ver a los pasajeros aturdidos y sangrando, tirados en los pasillos entre bandejas de comida y maletas desperdigadas.[24] Cuando el avión aterrizó, veintisiete pasajeros fueron trasladados de urgencia al hospital, varios de ellos con fisuras o fracturas de huesos. «Salimos disparados hacia el techo del avión; era prácticamente imposible agarrarse a algo — contó a los periodistas uno de los pasajeros—. Las sacudidas se hicieron interminables; parecía que íbamos a estrellarnos.» La embajada rusa explicó a Reuters que «la causa de las lesiones fue que algunos de los pasajeros no llevaban puesto el cinturón de seguridad». En un comunicado de prensa, Aeroflot afirmó que «pilotaba el vuelo una tripulación experimentada. El piloto acumulaba más de 23.000 horas de vuelo y el copiloto tenía más de 10.500. Sin embargo, fue imposible prever la turbulencia que golpeó al Boeing 777».[25] En junio de 2016, un «un breve instante de intensas turbulencias» sobre la bahía de Bengala provocó heridas a veinticuatro pasajeros y a seis miembros de la tripulación del vuelo MH1 de Malaysian Airlines que unía Londres con Kuala Lumpur.[26] Las bandejas de comida salieron despedidas de la cocina del avión; las agencias de noticias distribuyeron imágenes de pasajeros con collarín evacuados en camilla. Tres meses más tarde, un Boeing 767 de United Airlines que se dirigía de Houston a Londres tuvo que hacer un aterrizaje de emergencia en el aeropuerto irlandés de Shannon como consecuencia de «turbulencias intensas e inesperadas» en mitad del Atlántico. «El avión se desplomó cuatro veces seguidas», explicó un pasajero. Sentimos un tremendo tirón. A la tercera o cuarta vez, los bebés empezaron a despertarse y se pusieron a llorar, la gente se despertaba desorientada. Pensé: esto no es una turbulencia, es lo que se siente cuando el desplome puede acabar en tragedia. No había sentido nada parecido. Fue como si saliese disparado de un cañón. Algo tira de ti hacia abajo con fuerza, deja de hacerlo durante un instante y vuelve a tirar cuatro veces seguidas. Si no llevabas puesto el cinturón, podías llevarte un golpetazo en la cabeza.[27]

Varias ambulancias recibieron al avión en la pista de aterrizaje y dieciséis pasajeros fueron trasladados al hospital. El episodio más grave de turbulencias con cielo despejado del que se tiene constancia afectó en 1997 al vuelo 826 de United Airlines que cubría la ruta entre Tokio y Honolulu. A las dos horas de vuelo, minutos después de que el capitán activase la señal de uso obligatorio del cinturón en respuesta a avisos recibidos desde otra aeronave, el Boeing 747 se desplomó en el aire y a continuación rebotó con tal fuerza que un miembro de la tripulación, un auxiliar de vuelo que se

había apoyado en una encimera para mantener el equilibrio, acabó cabeza abajo con los pies en el aire. Una pasajera que no llevaba el cinturón abrochado salió de su asiento, chocó contra el techo y cayó al pasillo, inconsciente y sangrando con profusión; se la declaró muerta poco después, a pesar de los intentos de reanimación por parte de varias azafatas y un pasajero médico. Su autopsia reveló que había sufrido graves daños en la columna vertebral. El vuelo dio media vuelta y aterrizó sin más sobresaltos en Tokio, donde quince pasajeros recibieron tratamiento por fracturas en la columna y el cuello, y otros ochenta y siete por contusiones, esguinces y lesiones menores. Se retiró el fuselaje y no volvió a volar. Posteriormente, un informe de la Junta Nacional de Seguridad en el Transporte estadounidense (NTSB, por sus siglas en inglés) descubrió que los sensores del avión habían registrado una aceleración normal máxima de 1,814 g durante la primera elevación brusca, para después desplomarse hasta un valor negativo extremo de –0,824 g. Además, sufrió un balanceo descontrolado de dieciocho grados, sin que el piloto recibiese ninguna indicación visual o mecánica de lo que estaba a punto de ocurrir.[28] Las turbulencias pueden calcularse hasta cierto punto mediante el estudio del tiempo atmosférico. La Organización de Aviación Civil Internacional (ICAO) publica diariamente «mapas meteorológicos significativos» que contienen información sobre la altura de las nubes y su cobertura, la velocidad del viento, los frentes meteorológicos y las posibles turbulencias. El principal indicador que se utiliza para calcular la probabilidad de turbulencias es el número de Richardson (el mismo Lewis Fry Richardson que desarrolló esa medida en una serie de artículos meteorológicos publicados durante la década de 1920 en relación con su trabajo sobre predicción numérica del tiempo atmosférico). Examinando las temperaturas y velocidades del viento relativas en distintas zonas de la atmósfera es posible determinar las turbulencias potenciales entre ellas si se dispone de tales mediciones.

Las turbulencias en cielo despejado se denominan así porque surgen literalmente de la nada. Tienen lugar cuando se encuentran masas de aire que se desplazan a velocidades muy diferentes: cuando los vientos se entrecruzan, se generan vórtices y movimientos caóticos. Aunque se han estudiado mucho, en particular en la alta troposfera, por donde transitan los aviones de los vuelos de larga distancia, sigue siendo casi imposible detectarlas o predecirlas. Por este motivo, son mucho más peligrosas que las formas predecibles de turbulencia que ocurren en los bordes de las tormentas y de los grandes fenómenos climáticos, porque los pilotos no pueden prepararse para afrontarlas ni tampoco sortearlas. Y las incidencias de turbulencias en cielo despejado aumentan cada año. Aunque los relatos anecdóticos de turbulencias como los aquí recogidos pueden tener amplia difusión, muchos incidentes no trascienden, a pesar de tener una importancia global, y es difícil encontrar cifras al respecto. Una circular con consejos para evitar lesiones relacionadas con las

turbulencias, publicada por la Administración Federal de Aviación estadounidense en 2006, afirma que la frecuencia de los accidentes debidos a turbulencias ha aumentado constantemente durante más de una década, desde 0,3 accidentes por cada millón de despegues en 1989 hasta 1,7 en 2003.[29] A día de hoy, estas cifras han quedado manifiestamente obsoletas. La causa del aumento de las turbulencias son los niveles crecientes de dióxido de carbono en la atmósfera. En un artículo publicado en Nature Climate Science en 2013, Paul Williams, del Centro Nacional de Ciencias Atmosféricas de la Universidad de Reading, y Manoj Joshi, de la Escuela de Ciencias Medioambientales de la Universidad de Anglia Oriental, explican los efectos del calentamiento atmosférico para la aviación transatlántica: Aquí demostramos, utilizando simulaciones de modelos climáticos, que las turbulencias en cielo despejado cambian sustancialmente a lo largo del corredor aéreo transatlántico cuando la concentración de dióxido de carbono en la atmósfera se multiplica por dos. A altitudes de crucero entre 50° y 70° N y entre 10° y 60° O en invierno, la mayoría de las mediciones de las turbulencias en cielo despejado reflejan un incremento de entre el 10 y el 40 por ciento de la mediana de la intensidad de las turbulencias y de entre el 40 y el 170 por ciento en la frecuencia de ocurrencia de turbulencias moderadas o de mayor calado. Nuestros resultados indican que, para mediados de este siglo, el cambio climático dará lugar a vuelos transatlánticos más accidentados. Puede alargarse la duración de los viajes y aumentar el consumo de combustible y las emisiones.[30]

Los autores del estudio sobre las turbulencias inciden una vez más en que este aumento de las turbulencias es resultado de una retroalimentación: «La aviación es parcialmente responsable de los cambios climáticos, pero nuestros resultados muestran por primera vez cómo el cambio climático podría afectar a la aviación». Donde más se notarán estos efectos es en los concurridos corredores aéreos de Asia y el Atlántico Norte, ya que provocarán alteraciones, retrasos y daños en los vuelos. El futuro será accidentado, y estamos perdiendo la capacidad de predecir los sobresaltos. Crecí en los suburbios del sur de Londres, bajo las trayectorias de aproximación de los aviones al aeropuerto de Heathrow. Cada tarde, a las seis y media, el Concorde procedente de Nueva York retumbaba sobre nuestras cabezas y hacía temblar los marcos de puertas y ventanas como si fuese un cohete. Para entonces llevaba volando más de una década: el primer vuelo tuvo lugar en 1969 y los vuelos regulares comenzaron en 1976. Los vuelos transatlánticos duraban tres horas y media… si uno podía permitirse comprar un billete que, como mínimo, costaba en torno a dos mil libras esterlinas para un vuelo de ida y vuelta. En 1997, el fotógrafo Wolfgang Tillmans expuso una serie de cincuenta y seis fotografías del Concorde que se corresponden casi a la perfección con mis propios recuerdos: una flecha oscura

que retumbaba en el cielo, vista no desde la cabina de lujo sino desde tierra. En el catálogo de la exposición, Tillmans escribió: El Concorde es quizá el último ejemplo de un invento tecno utópico de los años sesenta que sigue en pleno funcionamiento a día de hoy. Su forma futurista, su velocidad y su estruendo ensordecedor fascinan tanto al gran público hoy como lo hizo cuando despegó por primera vez en 1969. Es una pesadilla medioambiental concebida en 1962, cuando la tecnología y el progreso eran la respuesta para todo y el cielo había dejado de ser un límite… Para unos pocos elegidos, volar en el Concorde es al parecer una rutina glamurosa aunque incómoda y ligeramente aburrida, mientras que verlo en el aire, aterrizando o despegando, es un espectáculo extraño y gratuito, un anacronismo supermoderno y una imagen del deseo de trascender el tiempo y la distancia mediante la tecnología.[31]

Concorde. Detalle de Concorde Grid (1997), de Wolfgang Tillmans. Imagen cortesía de Tate Galleries / Maureen Paley, Londres.

El Concorde voló por última vez en 2003, víctima tanto de su propio elitismo como del terrible accidente del vuelo 4590 de Air France en los suburbios de París acaecido tres años antes. Para muchos, el fin del Concorde fue el fin de una cierta idea del futuro. Queda poco del Concorde en las aeronaves actuales: los más recientes aviones de pasajeros son el resultado de avances graduales —mejores materiales, motores más eficientes, ajustes en el diseño de las alas—, en lugar del avance radical que el Concorde proponía. La última de esas

mejoras progresivas es mi favorita: esas aletillas o «dispositivos de punta alar» que ahora adornan los extremos de las alas de muchas aeronaves, un invento reciente desarrollado por la NASA en respuesta a la crisis del petróleo de 1973 que se fue incorporando gradualmente a los aviones comerciales para mejorar la eficiencia en el consumo de combustible. Siempre me hacen pensar en el epitafio de Buckminster Fuller, tal y como puede leerse en su lápida en Cambridge, Massachusetts: «Llamadme aleta de compensación». Pequeños ajustes en vuelo, hechos a escala. Eso es lo que seguimos siendo capaces de hacer. La historia —el progreso— no siempre sigue una trayectoria ascendente, no todo son cumbres iluminadas por el sol. Y esto no es —no puede ser— una cuestión de nostalgia, sino de asumir un presente que ha descarrilado de la temporalidad lineal, que se aleja en ciertos aspectos cruciales, aunque desconcertantes, de la propia idea de historia. Ya nada está claro ni puede estarlo. Lo que ha cambiado no es la dimensionalidad del futuro, sino su predecibilidad. En un artículo de opinión publicado en 2016 en el New York Times, el meteorólogo computacional William B. Gail, antiguo presidente de la Sociedad Meteorológica Estadounidense, mencionó toda una serie de patrones que la humanidad lleva siglos estudiando pero que el cambio climático trastoca: tendencias meteorológicas a largo plazo, el desove y la migración de los peces, la polinización de las plantas, los ciclos del monzón y de las mareas, la ocurrencia de eventos meteorológicos «extremos». Durante la mayor parte de la historia escrita, estos ciclos han sido en gran medida predecibles y hemos acumulado enormes reservas de conocimiento a las que podemos recurrir para sostener mejor esta civilización nuestra cada vez más enrevesada. Ese conocimiento nos ha permitido ampliar gradualmente nuestra capacidad de hacer pronósticos, desde saber qué cultivos plantar según la época del año hasta predecir sequías e incendios forestales, las dinámicas depredador/presa y el rendimiento esperado de explotaciones agrícolas y piscícolas. La propia civilización depende de nuestra capacidad de hacer pronósticos con precisión, pero la estamos perdiendo a medida que los ecosistemas empiezan a descomponerse y conforme tormentas que deberían ocurrir cada cien años nos azotan una tras otra. Sin pronósticos precisos a largo plazo, los agricultores no pueden sembrar los cultivos adecuados, los pescadores no pueden encontrar buenos caladeros, no se pueden planificar las defensas contra inundaciones e incendios, no es posible determinar cuáles son nuestros recursos energéticos y alimentarios ni satisfacer su demanda. Gail vislumbra una época en la que nuestros nietos sabrán menos sobre el mundo en el que van a vivir de lo que nosotros sabemos hoy, con las correspondientes consecuencias catastróficas que eso podría acarrear para nuestras sociedades complejas.[32] Quizá, se pregunta Gail, ya hayamos dejado atrás el «cénit del conocimiento», como ya hemos pasado el cénit del petróleo. Se avecina una nueva edad oscura. El filósofo Timothy Dalton describe el cambio climático como un «hiperobjeto»: algo que nos

rodea, nos envuelve y nos enreda pero que es literalmente demasiado grande como para que podamos verlo en su totalidad. Por lo general, percibimos los hiperobjetos a través de su influencia sobre otros objetos: una capa de hielo que se derrite, un mar que se muere, el zarandeo de un vuelo transatlántico. Los hiperobjetos ocurren en todas partes al mismo tiempo, pero solo podemos experimentarlos en el entorno local. Podemos percibirlos como algo personal porque nos afectan directamente, o imaginarlos como productos de la teoría científica; de hecho, se encuentran al margen de nuestra percepción y de nuestra capacidad de medida. Existen sin nosotros. Como son tan difíciles de ver a pesar de lo cerca que los tenemos, ponen a prueba nuestra capacidad de describirlos de manera racional y de dominarlos o superarlos en cualquier sentido tradicional. Una de las características definitorias de los hiperobjetos es que solo percibimos las huellas que dejan en otros objetos; por lo tanto, modelarlos requiere de grandes volúmenes de computación. Algo que solo se puede apreciar a nivel de red, al volverse perceptible a través de extensos sistemas distribuidos de sensores, exabytes de datos y computación, efectuados tanto en el tiempo como en el espacio. El mantenimiento de registros científicos se convierte así en una forma de percepción extrasensorial, un proceso de generación de conocimiento en red, comunitario y que viaja en el tiempo. Esta característica es precisamente lo que hace que sea anatema para una determinada manera de pensar (aquella que exige poder tocar y palpar cosas que son intangibles e impalpables y, por ende, rechaza aquello que no puede pensar). Los debates en torno a la existencia del cambio climático son en realidad debates en torno a lo que podemos pensar. Y no podremos pensar durante mucho más tiempo. En la época preindustrial, entre los años 1000 y 1750 d.C., la cantidad de dióxido de carbono en la atmósfera osciló entre 275 y 285 partes por millón (ppm), niveles que conocemos gracias al estudio de los testigos de hielo, las mismas reservas de conocimiento que están ahora derritiéndose en el Ártico. Desde los albores de la era industrial, esos niveles comienzan a subir hasta alcanzar 295 ppm a principios del siglo XX y 310 ppm en 1950. La tendencia —denominada curva de Keeling en honor al científico que inauguró las mediciones modernas en el observatorio de Mauna Loa, en Hawái, en 1958— es siempre ascendente y se está acelerando: 325 ppm en 1970, 350 en 1988, 375 en 2004. En 2015, por primera vez en al menos ochocientos mil años, el dióxido de carbono en la atmósfera superó la barrera de las 400 ppm.

Concentración de dióxido de carbono en el observatorio de Mauna Loa: la curva de Keeling a fecha de 21 de octubre de 2017. Datos procedentes de la Institución Scripps de Oceanografía.

A la velocidad actual, que no da muestras de ralentizarse (y que nosotros tampoco damos muestras de ir a detener), el CO2 atmosférico superará las 1.000 ppm a finales de este siglo. Con 1.000 ppm, la capacidad cognitiva de los humanos se reduce en un 21 por ciento.[33] A concentraciones aún más elevadas, el CO2nos impide pensar con claridad. En el exterior, el CO2 ya alcanza las 500 ppm habitualmente en las ciudades industriales; bajo techo, en hogares, colegios y lugares de trabajo mal ventilados, puede exceder con frecuencia las 1.000 ppm (una cantidad considerable de las escuelas de California y Texas donde se llevaron a cabo mediciones superaron las 2.000 ppm).[34] El dióxido de carbono nubla la mente; degrada directamente nuestra capacidad de pensar con claridad y no hacemos más que acumularlo en nuestros lugares de trabajo y emitirlo a la atmósfera. La crisis del calentamiento global es una crisis de la mente, una crisis del pensamiento, una crisis de nuestra capacidad de pensar otra forma de ser. Pronto seremos absolutamente incapaces de pensar. La degradación de nuestras capacidades cognitivas se refleja a escala en el colapso de las rutas aéreas transatlánticas, la degradación de las redes de comunicaciones, la supresión de la diversidad, la fusión de las reservas históricas de conocimiento, todos ellos indicios y presagios de una incapacidad más amplia de pensar a la escala de la red, de sostener un pensamiento y una acción que abarquen la civilización entera. Las estructuras que hemos construido para extender nuestros propios sistemas vitales, nuestras interfaces cognitivas y sensoriales con el mundo, son las únicas herramientas que tenemos para percibir un mundo dominado por la aparición de los hiperobjetos. Justo cuando empezamos a percibirlos empezamos también a perder la capacidad de hacerlo.

Así como el reblandecimiento del terreno degrada las redes de comunicaciones y nuestra incapacidad para conceptualizar sistemas complejos limita las posibilidades de debatir y actuar en relación con la maraña de cambios medioambientales y tecnológicos, el propio cambio climático degrada el pensamiento en torno al cambio climático. Pero, a pesar de todo ello, en el ojo del huracán de nuestra crisis actual se encuentra el hiperobjeto de la red: internet y los modos de vida y formas de pensar que la red entreteje. Quizá excepcional entre los hiperobjetos, la red es una forma cultural emergente, generada a partir de nuestros deseos conscientes e inconscientes en diálogo con las matemáticas, los electrones, el silicio y la fibra óptica. El hecho de que esta red esté siendo (mal) utilizada actualmente para acelerar la crisis, como veremos en los capítulos siguientes, no significa que no conserve la capacidad de iluminarnos. La red es la mejor representación de la realidad que hemos construido, precisamente porque también es muy difícil de pensar. La llevamos en el bolsillo y erigimos torres para transmitirla y palacios de datos para procesarla, pero no puede reducirse a unidades discretas; es no local e intrínsecamente contradictoria, como el propio mundo en sí. La red se está creando continuamente, a sabiendas o no. Vivir en una nueva edad oscura exige tomar conciencia de estas contradicciones e incertidumbres, estos estados de ignorancia práctica. Así pues, la red, debidamente entendida, puede servir de guía para pensar otras incertidumbres; y precisamente para poder pensarlas son incertidumbres que han de hacerse visibles. Tratar con hiperobjetos obliga a tener fe en la red como modo de ver, pensar y actuar. La red niega los vínculos del tiempo, el lugar y la experiencia individual que caracterizan nuestra incapacidad de pensar los desafíos de una nueva edad oscura. Insiste en una afinidad con lo numinoso y lo incierto. Frente a la atomización y la alienación, la red afirma continuamente la imposibilidad de la disociación.

4 Cálculo

Los escritores de ciencia ficción, cuya idea de la temporalidad a menudo difiere de la del común de los mortales, tienen una expresión para los inventos simultáneos: el «momento de la máquina de vapor». William Gibson lo describe así: Existe una idea en la comunidad de la ciencia ficción llamada «momento de la máquina de vapor», con la que la gente se refiere a la situación en la que, de pronto, veinte o treinta escritores crean historias en torno a la misma idea. Se llama «momento de la máquina de vapor» porque nadie sabe por qué la máquina de vapor surgió cuando lo hizo. Ptolomeo demostró la mecánica de la máquina de vapor y no había ningún obstáculo técnico que impidiese que los romanos construyesen grandes máquinas de vapor. Tenían pequeños modelos de juguete y los suficientes conocimientos metalúrgicos para haber fabricado grandes tractores de vapor, pero nunca se les ocurrió hacerlo.[1]

Las máquinas de vapor surgen cuando llega el momento de la máquina de vapor, un proceso casi místico, casi teleológico, porque existe fuera del ámbito de nuestro marco mental para entender el progreso histórico. El conjunto de cosas que tuvieron que concurrir para que este invento concreto se produjese incluye tantos pensamientos y acontecimientos que no podíamos pensar o saber que su ocurrencia es como la aparición de una nueva estrella, algo mágico y hasta entonces impensable. Pero la historia de la ciencia nos muestra que toda invención es obra simultánea de varios autores. Los primeros tratados sobre magnetismo se escribieron de forma independiente en Grecia y en la India en torno al año 600 a. C. y en China en el siglo I d. C. El alto horno apareció en China en el siglo I d. C. y en Escandinavia, en el siglo XII; cabe la posibilidad de que el conocimiento se transfiriera de un lugar al otro, pero el pueblo haya del noroeste de Tanzania también lleva dos mil años fabricando acero, desde mucho antes de que la tecnología se desarrollase en Europa. En el siglo XVII, Gottfried Wilhelm Leibniz, Isaac Newton y otros formularon de forma independiente las reglas del cálculo; en el XVIII, la constatación de la existencia del oxígeno apareció casi simultáneamente en los trabajos de Carl Wilhelm Scheele, Joseph Priestley, Antoine Lavoisier y otros, mientras que en el siglo XIX, Alfred Russel Wallace y Charles Darwin propusieron ambos la teoría de la evolución. Estas historias ponen en entredicho el relato heroico de la historia: el genio solitario que se afana por alcanzar una perspectiva única.

La historia es atemporal y en red: la máquina de vapor es una estructura multidimensional, invisible para un sensorio común atrapado en el tiempo pero que no es insensible a ella. A pesar de tales realidades, algo maravilloso sucede cuando escuchamos a alguien contar una historia que simplemente tiene sentido: sentido de quién es y de dónde procede; sentido de que algo que hizo tiene sentido, tiene detrás historia y progreso, de que era necesario que ocurriese así y de que tenía que ocurrirle a esa persona en particular, porque así lo dicta la propia historia. En 2010, Tim Berners-Lee (TBL), el inventor de la World Wide Web, dio una charla en una carpa en Gales titulada «Cómo la World Wide Web sucedió sin más».[2] Es algo gozoso, una exégesis sobre la propia computación, así como la historia de un héroe humilde. Los padres de TBL, Conway Berners-Lee y Mary Lee Woods, eran informáticos; se conocieron y se casaron mientras trabajaban en el Mark 1 de Ferranti, el primer ordenador electrónico de propósito general disponible comercialmente, en Mánchester, en la década de 1950. Tiempo después, Conway ideó una técnica para editar y comprimir texto; Mary desarrolló una simulación de las rutas de los autobuses londinenses que se utilizó para reducir los retrasos. TBL describe su infancia como «un mundo lleno de computación», y sus primeros experimentos consistieron en fabricar imanes e interruptores a partir de clavos y pedazos de alambre doblado. Su primer aparato fue un arma que se accionaba remotamente, construida como una ratonera, con la que atacar a sus hermanos. Berners-Lee señala que el transistor se había inventado aproximadamente cuando él nació, por lo que cuando alcanzó la edad de ir al instituto empezaba a estar disponible en paquetes en las tiendas de electrónica de Tottenham Court Road. Enseguida empezó a construir rudimentarios circuitos para timbres de puertas y alarmas antirrobo. A medida que fueron mejorando sus habilidades como soldador, también aumentó la variedad de transistores disponibles, lo que le permitió empezar a construir circuitos más complejos. A su vez, la aparición de los primeros circuitos integrados le permitió crear pantallas para el visionado de vídeos a partir de viejos televisores, hasta que reunió todos los componentes para un ordenador de verdad (que nunca llegó a funcionar, pero eso es lo de menos). Para entonces, estaba en la universidad, estudiando Física. A continuación, trabajó en composición tipográfica para imprentas digitales para después entrar en el CERN, donde desarrolló la idea del hipertexto (que antes habían planeado Vannevar Bush y Douglas Engelbart, entre otros). Y, debido al lugar donde trabajaba y a la necesidad que tenían los investigadores de compartir información interrelacionada, Berners-Lee vinculó su invención al protocolo de control de transmisión (TCP, por sus siglas en inglés) y al sistema de nombres de dominio en los que se basaba la incipiente internet y —¡tachán!— la World Wide Web sucedió sin más, de una manera tan natural y evidente como si tuviera que ser así. Esta, por supuesto, no es más que una manera de contar la historia, pero resuena en nosotros porque tiene sentido: el arco ascendente de los inventos —el gráfico que siempre va hacia arriba

y a la derecha— unido a una historia personal que conduce a una infinidad de interconexiones y a la chispa de la iluminación en el momento preciso y en el lugar adecuado. La web sucedió debido a la historia de los microprocesadores y las telecomunicaciones, la industria bélica y los requisitos comerciales, y a un montón de descubrimientos y patentes, fondos corporativos para la investigación y artículos científicos, así como a la propia historia familiar de TBL, pero también ocurrió porque era el momento de la web: durante un breve periodo de tiempo, la situación de la cultura y de la tecnología convergieron en una invención que, si lo pensamos ahora, tenía antecedentes tan dispares como las antiguas enciclopedias chinas, la recuperación de microfilmes o los relatos de Jorge Luis Borges. La web era necesaria, así que apareció, al menos, según esta cronología.

La ley de Moore.

La computación es especialmente dada a historias justificatorias como esta, que demuestran su propia necesidad e inevitabilidad. El colmo de las profecías tecnológicas autocumplidas es lo que se conoce como la ley de Moore, propuesta en 1965 por Gordon Moore, cofundador de Fairchild Semiconductor y posteriormente de Intel, en un artículo para la revista Electronics. La idea de Moore era que el tamaño del transistor —que entonces, como señalaba TBL, apenas tenía una década de existencia— se estaba reduciendo a gran velocidad. Moore demostró que el número de componentes de un circuito integrado se multiplicaba por dos cada año y predijo que esto seguiría sucediendo durante la década siguiente. A su vez, este rápido aumento de la potencia de cálculo en bruto impulsaría aplicaciones cada vez más fantásticas: «Los circuitos integrados llevarán a maravillas tales como ordenadores domésticos —o, al menos, terminales conectados a un

ordenador central—, controles automáticos para automóviles y equipos de comunicaciones personales y portátiles. Solo falta la pantalla para que el reloj de pulsera electrónico sea factible hoy mismo».[3] Una década más tarde, Moore revisó su pronóstico, aunque solo ligeramente: la potencia de cálculo se doblaría cada dos años. Otros estimaban ese periodo en torno a los dieciocho meses y, a pesar de las frecuentes advertencias sobre su inminente final, esta regla empírica ha seguido siendo aproximadamente válida desde entonces. En 1971, la resolución de los semiconductores — la unidad discreta mínima de fabricación— era diez micras, una quinta parte del diámetro de un pelo humano. En 1985 ese tamaño era de una micra y a principios de la década de 2000 se redujo hasta menos de cien nanómetros (el diámetro de un virus, si es que eso sirve como referencia). A principios de 2017 los teléfonos inteligentes incorporaban semiconductores con una resolución de diez nanómetros. Se creía que la miniaturización sería imposible por debajo de los siete nanómetros, tamaño a partir del cual los electrones tendrían libertad para atravesar cualquier superficie gracias al efecto túnel cuántico. Sin embargo, las futuras generaciones de transistores harán uso de este efecto para poder fabricar chips del tamaño de los propios átomos, mientras que otros predicen un futuro de máquinas biológicas compuestas a partir de ADN y proteínas a medida producidas mediante nanoingeniería. De momento, todo hacia arriba y a la derecha. El principio de miniaturización, con su correspondiente aumento de la potencia de cálculo, es la ola siempre creciente a la que BernersLee se subió durante los años sesenta, setenta y ochenta para llevarnos, ordenada e inevitablemente, hasta la World Wide Web y el actual mundo interconectado. Pero la ley de Moore, a pesar del nombre con el que acabó conociéndose (que el propio Moore tardó dos décadas en utilizar), no es una ley sino una proyección, en ambos sentidos de la palabra. Es una extrapolación a partir de los datos, pero también un fantasma creado por la limitada dimensionalidad de nuestra imaginación. Es una confusión en la línea del sesgo cognitivo que nos induce a sentir predilección por los relatos heroicos, pero en sentido contrario. Mientras que un sesgo nos lleva a ver el inevitable avance del progreso a través de los acontecimientos históricos hasta el momento presente, el otro sesgo ve cómo este progreso continúa inevitablemente hacia el futuro. Y, como sucede con este tipo de proyecciones, tiene la capacidad tanto de conformar el futuro como de influir, de manera fundamental, en otras proyecciones, con independencia de la solidez de su premisa original. Lo que comenzó siendo una observación casual se convirtió en un leitmotiv del largo siglo XX, hasta acabar revestido del aura de una ley física. Pero, a diferencia de las leyes físicas, la ley de Moore es profundamente contingente: depende no solo de las técnicas de fabricación, sino de los descubrimientos en el campo de las ciencias físicas y de los sistemas económicos y sociales que sustentan la inversión en sus productos —y los mercados para ellos—. También depende de los

deseos de sus consumidores, que han aprendido a valorar esos relucientes objetos que son cada año más pequeños y más rápidos. La ley de Moore no es solo técnica o económica, sino también libidinosa. A partir de la década de 1960, el acelerado aumento de la potencia de los circuitos integrados marcó el rumbo de la industria informática en su conjunto: cada año salían a la venta nuevos modelos de chips, y este incremento de la potencia quedó ligado intrínsecamente al desarrollo de los propios semiconductores. Ningún fabricante de hardware o de software podía permitirse desarrollar su propia arquitectura; todo debía ejecutarse de acuerdo con la arquitectura de unos pocos fabricantes que no dejaban de sacar chips cada vez más densos y potentes. Quienes fabricaban los chips determinaban la arquitectura de la máquina hasta llegar al consumidor final. Una consecuencia de esto fue el crecimiento de la industria del software: liberado de su dependencia respecto de los fabricantes de hardware, el software pasó a ser independiente del fabricante, lo que primero condujo a la dominación por parte de enormes compañías como Microsoft, Cisco y Oracle y, a continuación, al poder económico —y, cada vez en mayor medida, político e ideológico— de Silicon Valley. Otro efecto, según mucha gente del sector, fue la desaparición de la cultura del oficio, la atención al detalle y la eficiencia en el software en sí. Mientras que los primeros desarrolladores de software tuvieron que hacer de la necesidad virtud y, con los limitados recursos de que disponían, optimizar el código una y otra vez e idear soluciones cada vez más elegantes y económicas para complejos problemas de computación, el rápido aumento de la potencia bruta de cálculo significaba que los programadores solo tenían que esperar dieciocho meses para que apareciese una máquina el doble de potente. ¿Por qué ser cicatero con los recursos propios cuando la abundancia bíblica está a la vuelta del siguiente ciclo de ventas? Con el tiempo, al propio fundador de Microsoft se lo asociaría con otra regla empírica de la informática, la ley de Gates, que afirma que, como consecuencia de un código despilfarrador e ineficiente y de funcionalidades redundantes, la velocidad del software se reduce a la mitad cada dieciocho meses. Esta es, pues, la verdadera herencia de la ley de Moore: a medida que el software fue ocupando un lugar cada vez más central en la sociedad, el continuo aumento de su potencia acabó asociándose con la propia idea de progreso, de un futuro de abundancia para el cual no es necesario hacer ninguna adaptación en el presente. Una ley informática se convirtió en ley económica, que pasó a ser ley moral, con sus propias acusaciones de excesos y decadencia. Hasta el propio Moore era consciente de las consecuencias más amplias de su teoría: en el cuadragésimo aniversario de su fórmula, declaró al Economist que «la ley de Moore supone una violación de la ley de Murphy: las cosas no hacen más que mejorar».[4] Hoy, como consecuencia directa de la ley de Moore, vivimos en una era de computación ubicua, de nubes de potencia de cálculo aparentemente infinita, y las repercusiones morales y cognitivas

de la ley de Moore son palpables en todas las facetas de nuestras vidas. Pero, a pesar de los esfuerzos de los tuneladores cuánticos y los nanobiólogos, que amplían continuamente las fronteras de lo inventable, la tecnología está empezando a ponerse al nivel de la filosofía. Lo que —de momento— es cierto en la investigación en semiconductores resulta que no lo es en otros ámbitos: no como ley científica, como ley natural ni como ley moral. Y, si analizamos con una mirada crítica lo que nos dice la tecnología, podemos empezar a discernir dónde nos hemos equivocado. El error es visible en los datos, pero, con demasiada frecuencia, estos se usan precisamente como argumento. En un artículo de 2008 publicado en la revista Wired titulado «End of Theory», Chris Anderson argumentó que las ingentes cantidades de datos que ahora están a disposición de los investigadores hacen que el proceso científico tradicional haya quedado obsoleto.[5] Los científicos ya no necesitarían elaborar modelos del mundo y ponerlos a prueba contra los datos obtenidos, sino que las complejidades de conjuntos de datos inmensos y omnicomprensivos se procesarán en enormes clústeres de ordenadores para producir la verdad en sí: «Con una cantidad suficiente de datos, los números hablan solos». Como ejemplo, Anderson citaba los algoritmos de traducción de Google, los cuales, a pesar de desconocer las estructuras fundamentales de los idiomas, eran capaces de inferir la relación entre ellos usando extensos corpus de textos traducidos. Anderson extendía su análisis también a la genética, la neurología y la física, donde los científicos recurren cada vez más a la computación a gran escala para dar sentido a las enormes cantidades de información sobre sistemas complejos que han acumulado. En la era de los macrodatos, razonaba Anderson, «basta con la correlación. Podemos dejar de buscar modelos». Esta es la magia de los macrodatos. En la práctica, no necesitamos saber o entender nada sobre lo que estudiamos; basta con que depositemos toda nuestra fe en la verdad emergente de la información digital. En cierto sentido, la falacia de los macrodatos es consecuencia lógica del reduccionismo científico: la creencia de que los sistemas complejos se pueden entender descomponiéndolos en sus elementos constituyentes y estudiando cada uno de estos por separado. Este enfoque reduccionista sería válido si en la práctica siguiera el ritmo de nuestras experiencias, pero lo cierto es que está demostrando ser insuficiente. Uno de los ámbitos donde es cada vez más evidente que depender exclusivamente de cantidades colosales de datos es perjudicial para el método científico es la investigación farmacológica. Durante los últimos sesenta años, a pesar del enorme crecimiento de la industria farmacéutica y de la consiguiente inversión en el descubrimiento de fármacos, lo cierto es que la velocidad a la que llegan al mercado los medicamentos se ha reducido, y lo ha hecho de una forma consistente y medible. La cantidad de nuevos medicamentos aprobados por cada 1.000 millones de dólares estadounidenses gastados en investigación y desarrollo se ha reducido a la mitad cada nueve años

desde 1950. La tendencia a la baja es tan evidente que los investigadores han acuñado una expresión para ella: la ley de Eroom, esto es, la ley de Moore deletreada al revés.[6] La ley de Eroom pone de manifiesto la creciente percepción en las distintas disciplinas científicas de que hay algo que va profunda y generalizadamente mal en la investigación científica. No solo está disminuyendo la cantidad de nuevos resultados, sino que estos son cada vez menos fiables, debido a la conjunción de varios mecanismos. Una métrica del progreso científico es el número de artículos que se publican en las revistas científicas junto con el correspondiente número de retractaciones que los acompañan. Cada semana se publican decenas de miles de artículos científicos, de los cuales apenas unos pocos darán lugar a retractaciones, pero incluso esta pequeña minoría genera una gran inquietud entre la comunidad científica.[7] Un estudio de 2011 demostró que, a lo largo de la década anterior, se había multiplicado por diez el número de retractaciones, un resultado que desató una carrera por aprender más sobre el problema y descubrir cuál era la causa de tal incremento.[8] Uno de los resultados más sorprendentes fue el descubrimiento de una robusta correlación entre el índice de retractación de una revista y su factor de impacto, esto es, los artículos publicados en revistas con mayor repercusión tenían una probabilidad significativamente más alta de ser objeto de retractación que aquellos publicados en revistas de perfil más bajo. Un estudio posterior descubrió que más de dos tercios de las retractaciones en las ciencias biomédicas y de la vida se habían debido a malas prácticas por parte de los investigadores y no a errores, y los autores señalaban que el resultado solo podía ser una estimación a la baja, ya que el fraude, por su propia naturaleza, no se denuncia siempre que se produce.[9] (Esto queda claramente reflejado en un sondeo según el cual aunque solo el 2 por ciento reconoce haber falseado datos, el 14 por ciento dice conocer a alguien que lo ha hecho.)[10] Más aún, estaba aumentando el porcentaje de retractaciones debidas a artículos fraudulentos.[11] Esto fue toda una sorpresa para muchos científicos, pues estaba muy extendida la creencia de que la mayoría de las retractaciones se debían a errores no intencionados. Para colmo, el hecho de que no se produzcan las debidas retractaciones envenena las aguas y conduce a más ciencia mala en el futuro. Ha habido varios casos notorios de fraudes de larga duración cometidos por investigadores de alto rango. A finales de la década de 1990, un biotecnólogo surcoreano llamado Hwang Woo-suk fue proclamado «el orgullo de Corea» por los éxitos obtenidos en la clonación de vacas y cerdos, ya que fue uno de los primeros científicos en todo el mundo en conseguirlo. Aunque Hwang nunca proporcionó datos científicamente verificables, era muy dado a hacerse fotografías, en particular rodeado de políticos, y supuso un oportuno revulsivo para la autoestima nacional de Corea del Sur. En 2004, tras las célebres afirmaciones de que había clonado con éxito células madre de embriones humanos —algo que en general se creía que era imposible—, se le acusó de coaccionar a sus propias investigadoras para que donaran óvulos, aunque eso no impidió que la revista Time

lo nombrara una de las «personas importantes» del año y afirmara que había «demostrado que la clonación humana ya no es ciencia ficción, sino un hecho real».[12] Políticos, periódicos patrióticos e incluso concentraciones masivas rechazaron públicamente las investigaciones éticas en curso, mientras que más de mil mujeres se comprometieron a donar sus propios óvulos a la investigación. Sin embargo, en 2006 se reveló que su investigación era completamente falsa. Hwang se retractó de sus artículos y se le impuso una pena de dos años de prisión con suspensión de la pena. En 2011, Diederik Stapel, decano de la Escuela de Ciencias Sociales y Conductuales de la Universidad de Tilburgo, se vio obligado a dimitir cuando se hizo público que había amañado los resultados de prácticamente todos los estudios publicados con su firma e incluso de los de sus estudiantes de doctorado. Stapel, como Hwang, era una especie de celebridad en su país natal, pues había publicado numerosos estudios que habían tenido gran repercusión en la sociedad holandesa.

Ley de Eroom en la investigación y el desarrollo farmacéuticos. a. Tendencia general de la eficiencia en investigación y desarrollo (ajustada a la inflación). b. Tasa de disminución en periodos de 10 años. c. Ajuste por retrasos de 5 años en el impacto de gasto.

Datos de Jack W. Scannell, Alex Blanckley, Helen Boldon y Brian Warrington, «Diagnosing the decline in pharmaceutical R&D efficiency», Nature Reviews Drug Discovery 11, marzo de 2012, pp. 191-200.

Por ejemplo, en 2011, publicó uno basado en la principal estación de trenes de Utrecht que parecía demostrar que las personas mostraban más comportamientos racistas en ambientes sucios y otro según el cual comer carne hacía que la gente fuese egoísta y antisocial.[13] Ambos se basaban en datos inexistentes. Cuando se destapó el fraude, Stapel achacó sus acciones al temor al fracaso y a la presión que se ejerce sobre los académicos para que publiquen con frecuencia y visibilidad con el fin de poder mantener su estatus. Los casos de Hwang y Stapel, aunque excepcionales, ejemplifican uno de los motivos por los que es más probable que los artículos publicados en las revistas más destacadas sean objeto de retractación: los escriben los científicos que hacen las afirmaciones más atrevidas, sometidos a la mayor presión profesional y social. Pero tales fraudes también están saliendo a la luz debido a una serie de efectos de red conectados entre sí: la creciente transparencia de la práctica científica, la aplicación de la tecnología al análisis de las publicaciones científicas y la cada vez mayor predisposición de otros científicos —en particular, los más jóvenes— a poner en tela de juicio los resultados. A medida que comunidades cada vez más amplias tienen acceso a un creciente volumen de artículos científicos mediante programas de acceso abierto y a la distribución a través de internet, aumenta también el número de artículos sometidos a un mayor escrutinio. No todo este escrutinio lo hacen humanos: las universidades y las empresas han desarrollado toda una serie de productos para revisar artículos científicos en busca de plagios, al compararlos con enormes bases de datos

de publicaciones previas. A su vez, los estudiantes han desarrollado técnicas para engañar a los algoritmos (como el «Rogeting», llamado así por el tesauro de Roget, que implica la cuidadosa sustitución de palabras del texto original por sus sinónimos). Da comienzo así una carrera armamentística entre el escritor y la máquina: los más novedosos detectores de plagio utilizan redes neuronales para detectar palabras y frases poco habituales que podrían ser indicio de manipulación. Pero ni el plagio ni el fraude indiscutible bastan para dar cuenta de una crisis más generalizada que está viviendo la ciencia: la de la reproducibilidad. La reproducción es uno de los pilares del método científico: exige que cualquier experimento sea repetible por otro grupo de investigadores independientes. Pero, en la práctica, son muy pocos los experimentos que se reproducen y, cuanto más se hace, más son los que no superan la prueba. En el Centro para la Ciencia Abierta de la Universidad de Virginia, una iniciativa llamada Proyecto Reproducibilidad ha intentado desde 2011 reproducir los resultados de cinco estudios de referencia sobre el cáncer: usar el mismo montaje experimental, volver a realizar los experimentos y obtener los mismos resultados. Cada uno de los cinco experimentos originales ha sido citado miles de veces; su reproducibilidad debería estar garantizada. Pero lo cierto es que, tras minuciosas reconstrucciones, solo dos de ellos fueron repetibles, los resultados de otros dos no fueron concluyentes y el quinto suspendió por completo la prueba. Y el problema no se limita a la medicina: un estudio general llevado a cabo por Nature descubrió que el 70 por ciento de los científicos habían sido incapaces de reproducir los resultados obtenidos por otros investigadores. [14] En todas las disciplinas, desde la medicina a la psicología, pasando por la biología y las ciencias ambientales, los investigadores están tomando conciencia de que muchos de los cimientos de sus investigaciones podrían ser defectuosos. Los motivos de esta crisis son diversos y, como sucede con los casos de fraude que suponen una proporción relativamente pequeña del problema, son en parte consecuencia de la mayor visibilidad de las investigaciones y de una mayor posibilidad de someterlas a revisión. Pero otros problemas son más sistémicos: desde la presión que se ejerce sobre los científicos para que publiquen —que implica que se embellezcan resultados cuestionables y se oculten disimuladamente contraejemplos— a las propias herramientas con las que se generan los resultados científicos. La más controvertida de estas técnicas es el p-hacking. La p hace referencia a la probabilidad e indica el valor a partir del cual un resultado experimental puede considerarse estadísticamente significativo. El hecho de que se pueda calcular el valor de p en muchas situaciones distintas lo ha convertido en un indicador habitual del rigor científico en los experimentos. En muchas disciplinas existe un amplio consenso en el sentido de que un valor de p menor que 0,05 —esto es, que exista una probabilidad inferior al 5 por ciento de que una correlación sea resultado del azar, un falso positivo— es el criterio de referencia para que una hipótesis se considere válida. Pero la

consecuencia de este consenso es que obtener un valor de p inferior a 0,05 deja de ser una medida para convertirse en un objetivo. Los investigadores, cuando tienen un objetivo concreto que alcanzar, pueden entresacar selectivamente de entre grandes conjuntos de datos los que les sirvan para probar cualquier hipótesis determinada. Como ejemplo de cómo funciona el p-hacking, supongamos que, de entre todos los dados, los de color verde son los únicos trucados. Tomemos diez dados verdes y lancémoslos cien veces cada uno. De esas 1.000 tiradas, 183 dan como resultado un seis. Si los dados fuesen absolutamente perfectos, la cantidad de seises debería ser de 1.000/6, que es 167. Hay algo raro. Para determinar su validez, necesitamos calcular el valor de p del experimento, pero este valor no tiene nada que ver con la hipótesis en cuestión: es simplemente la probabilidad de que tiradas aleatorias de los dados diesen seis al menos 183 veces. Para 1.000 lanzamientos, esa probabilidad es de tan solo el 4 por ciento (esto es, p = 0,04), y con esto nos basta para tener un resultado experimental que muchas comunidades científicas considerarían suficiente para ser digno de publicación.[15] ¿Por qué habríamos de considerar que un proceso tan ridículo como este es algo más que una grosera simplificación? No deberíamos… salvo por el hecho de que funciona. Es fácil de calcular y fácil de leer, lo que significa que cada vez más revistas científicas lo utilizan como indicador rápido de la fiabilidad a la hora de hacer criba entre las miles de solicitudes de publicación que pueden llegar a recibir. Además, el p-hacking no depende solo de obtener esos resultados fortuitos y tirar adelante con ellos, sino que los investigadores pueden examinar enormes cantidades de datos para encontrar los resultados que necesitan. Supongamos que, en lugar de tirar diez dados verdes, también lanzamos diez dados azules, diez amarillos, diez rojos y así sucesivamente. Si tirásemos dados de cincuenta colores diferentes, en la mayoría de ellos los resultados se acercarían a la media, pero, cuantos más colores distintos usásemos, más probable sería que obtuviéramos un resultado anómalo y este sería el que publicaríamos. Esta práctica ha hecho que el p-hacking se conozca también por otro nombre, «dragado de datos», noción que ha alcanzado notoriedad particularmente en las ciencias sociales, donde las redes sociales y otras fuentes de big data conductuales han hecho que aumente enorme y repentinamente la cantidad de información que los investigadores tienen a su disposición. Pero la ubicuidad del p-hacking no se limita a las ciencias sociales. Un análisis exhaustivo de 100.000 artículos publicados en acceso libre en 2015 encontró evidencia de p-hacking en muy diversas disciplinas.[16] Los investigadores analizaron los artículos en busca de todo valor de p que pudiesen encontrar y descubrieron que la inmensa mayoría rozaban el límite de 0,05, evidencia, explicaban, de que muchos científicos estaban ajustando sus diseños experimentales, conjuntos de datos o métodos estadísticos para obtener un resultado que superase el umbral de relevancia estadística. Fueron resultados como estos los que

llevaron a los editores de PLOS ONE, una destacada revista médica, a publicar un editorial en el que criticaban duramente los métodos estadísticos que se usan en la investigación, que titularon «Por qué la mayoría de los resultados de investigaciones que se publican son falsos».[17] Llegados a este punto, merece la pena hacer hincapié en que «dragado de datos» no es sinónimo de fraude. Incluso si los resultados no se sostienen, una de las mayores preocupaciones en la comunidad científica no es que los investigadores estén manipulando deliberadamente los resultados, sino que puedan hacerlo de manera inconsciente debido a una combinación de presiones institucionales, laxos estándares de publicación y el mero volumen de datos que tienen a su disposición. Esta combinación de aumento de retractaciones, fracasos de reproducibilidad y la complejidad intrínseca del análisis científico y su distribución es algo que inquieta a toda la comunidad científica, y esta preocupación es corrosiva en sí misma. La ciencia depende de la confianza: confianza entre investigadores y confianza del público en los investigadores. Cualquier erosión de esta confianza es profundamente dañina para el futuro de la investigación científica, con independencia de que se deba a las acciones deliberadas de unas pocas manzanas podridas o esté ampliamente distribuida entre múltiples actores y causas, muchas de ellas prácticamente incognoscibles. Algunos académicos llevan décadas advirtiendo de una posible crisis en el control de calidad científico, y muchos de ellos la relacionan con el crecimiento exponencial de los datos y las investigaciones. En los años sesenta, Derek de Solla Price, que estudiaba las redes concentradas que se formaban entre los distintos artículos y autores a través de las citas y los campos de estudio compartidos, reflejó en un gráfico la curva de crecimiento de la ciencia. Los datos que utilizó reflejaban una amplia variedad de factores, desde la producción material a la energía de los aceleradores de partículas, pasando por la creación de universidades y el descubrimiento de elementos químicos. Como la ley de Moore, todo va hacia arriba y hacia la derecha. De Solla Price temía que, si la ciencia no cambiaba radicalmente sus modos de producción, llegaría a una situación de saturación en la que su capacidad de absorber la cantidad de información disponible, y de actuar en consecuencia, empezaría a deteriorarse, para acabar llegando a un estado de «senilidad».[18] Espóiler: la ciencia no ha cambiado. En los últimos años, estos temores han cristalizado en un concepto que se conoce como «desbordamiento».[19] En pocas palabras, el desbordamiento es lo contrario de la escasez: es el afloramiento ilimitado de información. Además, a diferencia de la abundancia, el desbordamiento es abrumador y afecta a nuestra capacidad de procesar sus efectos. En estudios de la economía de la atención, el desbordamiento hace referencia a la manera en que las personas deciden a qué temas dar prioridad cuando tienen demasiado poco tiempo y demasiada información. Como señalan los autores de un estudio, también «evoca la imagen de un caos que hay que gestionar, o de desechos de los que hay que deshacerse».[20]

El desbordamiento se da en muchos ámbitos y, cuando se identifica, se desarrollan estrategias para gestionarlo. Tradicionalmente, esta tarea ha correspondido a guardianes [gatekeepers] como los periodistas y los editores, que seleccionan qué información debe publicarse. De un guardián se espera especialización y experiencia, una cierta responsabilidad y, a menudo, una posición de autoridad. En la ciencia, el desbordamiento se manifiesta en la rápida proliferación de revistas y artículos, en el número de solicitudes de becas y puestos académicos y en el volumen de información e investigaciones disponible. Está aumentando incluso la longitud media del artículo científico a medida que los investigadores complementan sus descubrimientos con una cantidad creciente de referencias para acomodar datos más ricos y una mayor demanda de resultados sorprendentes. La situación resultante es la de un fracaso del control de calidad: incluso el estándar de oro de la revisión por pares ya no se considera lo suficientemente objetivo o adecuado para su propósito original, ya que se ve lastrado por los juegos de reputación institucional mientras la cantidad de artículos científicos no hace más que aumentar. A su vez, esto da lugar a llamamientos para que se intensifique la publicación en abierto de los artículos científicos, lo cual a su vez podría redundar en que aumente el volumen total de investigaciones que se publican.[21] Pero ¿y si el problema del desbordamiento no se limita a los resultados que proporciona la ciencia sino que abarca también a sus fuentes? Como De Solla Price temía, la ciencia ha continuado su trayectoria de acumular conjuntos de datos cada vez más grandes y complejos. Cuando se anunció en 1990, el proyecto del genoma humano fue considerado el mayor proyecto de recopilación de datos de la historia, pero la drástica reducción del coste de la secuenciación de ADN hace que cada año se generen cantidades de datos varias veces más grandes. Estos datos, cuyo volumen aumenta a toda velocidad, están ampliamente distribuidos, lo que hace imposible el estudio exhaustivo de todos ellos.[22] El Gran Colisionador de Hadrones genera demasiados datos como para poder siquiera almacenarlos allí mismo, lo que implica que solo se guardan los relativos a determinados tipos de eventos. Este hecho ha suscitado críticas en el sentido de que, una vez descubierto el bosón de Higgs, los datos eran inadecuados para descubrir cualquier otra cosa.[23] Toda la ciencia se está convirtiendo en ciencia de macrodatos. Es esta constatación la que nos devuelve a la ley de Moore (y a la de Eroom). Como ocurre con las demás ciencias, a pesar de la proliferación de instituciones de investigación, revistas y puestos académicos (y las cantidades ingentes de dinero que se destinan al problema), los resultados prácticos están empeorando. Durante los años ochenta y noventa, la química combinatoria multiplicó por 800 la rapidez a la que podían sintetizarse moléculas de posible uso en fármacos. La secuenciación de ADN se ha vuelto 1.000 millones de veces más rápida desde que se aplicó la primera técnica exitosa. En veinticinco años, las bases de datos de proteínas han multiplicado su tamaño por 300. Y, aunque se ha reducido el coste de la identificación de nuevos fármacos y el

volumen de los fondos destinados a la investigación ha seguido aumentando, se ha reducido exponencialmente el número real de nuevos medicamentos descubiertos. ¿Qué podría estar provocando esta inversión de la ley del progreso? Hay varias hipótesis. La primera, que por lo general se considera la menos relevante, es la posibilidad de que ya se hayan obtenido los frutos más fácilmente asequibles: los mejores objetivos —las opciones de investigación más evidentes— ya se han explotado. Pero esto no es realmente así: aún quedan por explorar sustancias que darían para varias décadas de investigación y que, una vez estudiadas, podrían añadirse a la lista de sustancias de referencia conocidas, lo que ampliaría exponencialmente el campo de investigación. También está el problema de ser «mejor que los Beatles», que refleja el temor de que, incluso aunque aún existan muchos fármacos por investigar, muchos de los ya existentes son tan buenos para aquello que hacen que, en la práctica, impiden que se lleven a cabo más investigaciones en ese ámbito. ¿Por qué formar un grupo cuando los Beatles ya hicieron todo lo que valía la pena hacer? Esta es una variación del problema de los «frutos más asequibles» con una diferencia importante: mientras que aquel parece indicar que ya no quedan objetivos fáciles, este «mejor que los Beatles» implica que los frutos ya recogidos rebajan el valor de lo que aún queda en el árbol. En la mayoría de los sectores sucede lo contrario: por ejemplo, el proceso relativamente barato de la extracción a cielo abierto y quema de carbón de superficie hace que aumente el valor de lo que queda en las minas profundas, lo cual a su vez financia su explotación. Por otra parte, intentar superar los medicamentos genéricos ya existentes solo conduce a que aumenten el coste de los ensayos clínicos y la dificultad de convencer a los médicos para que prescriban los medicamentos resultantes, pues ya están cómodamente familiarizados con los existentes. Otros problemas relacionados con el descubrimiento de fármacos son más sistémicos y menos abordables. Algunos achacan al imprudente gasto de las sobredimensionadas compañías farmacéuticas, ebrias de la ley de Moore, la causa principal de la ley de Eroom. Pero, como ocurre en otros sectores, la mayoría de las instituciones de investigación han invertido en las tecnologías y técnicas más punteras; si estas no son la respuesta al problema, es que alguna otra cosa debe de andar mal. En una escala temporal más amplia, la teoría del «regulador prudente» carga la culpa sobre la cada vez menor tolerancia social a decisiones clínicas arriesgadas. Desde la edad dorada del descubrimiento de medicamentos, en la década de 1950, ha aumentado la cantidad de normas que regulan los ensayos con fármacos y su autorización, y hay motivos de peso para que así sea. En el pasado, los ensayos clínicos tenían con frecuencia terribles efectos secundarios y las consecuencias podían ser aún más catastróficas cuando esos medicamentos sometidos a un deficiente proceso de evaluación llegaban al mercado. El mejor —o peor— ejemplo es el de la talidomida, que se introdujo en la década de 1950 como tratamiento para la ansiedad y las

náuseas, pero que resultó tener espantosas consecuencias para los hijos de las embarazadas a quienes se les prescribió para combatir las náuseas matutinas. Como respuesta a esta situación, se endurecieron las regulaciones sobre medicamentos para obligar a que las pruebas fueran más rigurosas, lo que en la práctica hizo que también mejoraran los resultados. La enmienda Kefauver Harris a la Ley Federal de Alimentos, Medicamentos y Cosméticos de Estados Unidos, de 1962, exigió que los nuevos medicamentos demostraran no solo que eran seguros, sino que efectivamente tenían los efectos que decían tener, lo que hasta entonces no había sido un requisito legal. Pocos aceptaríamos una vuelta a medicamentos de mayor riesgo para así revertir la ley de Eroom, particularmente dado que, cuando es necesario, pueden hacerse excepciones, como fue el caso de varios medicamentos contra el VIH en la década de 1980. El último problema de la investigación farmacéutica es el que más nos preocupa y es el que los investigadores creen que es el más relevante. Los farmacólogos lo llaman el sesgo de «investigación básica / fuerza bruta», pero podemos describirlo también como el problema de la automatización. Históricamente, el proceso de descubrimiento de nuevos medicamentos era el feudo de pequeños equipos de investigadores que centraban su atención en reducidos grupos de moléculas. Cuando se identificaba un compuesto interesante en materiales naturales, en bibliotecas de productos químicos sintetizados o gracias a un descubrimiento fortuito, se aislaba su ingrediente activo y se probaba en células u organismos biológicos para evaluar su efecto terapéutico. En los últimos veinte años, este proceso ha sido ampliamente automatizado hasta culminar en una técnica conocida como «cribado de alto rendimiento» (HTS, por sus siglas en inglés), que supone la industrialización del descubrimiento de fármacos: una búsqueda automatizada y de amplio espectro de potenciales reacciones en enormes bibliotecas de compuestos. Imaginemos un cruce entre una fábrica de automóviles moderna —un montón de cintas transportadoras y brazos robóticos— y un centro de datos —bastidores y bastidores de placas, ventiladores y equipos de monitorización— y nos haremos una idea más aproximada de lo que es un laboratorio actual que la imagen popular de hombres (predominantemente) de bata blanca que juguetean con pipetas burbujeantes. El HTS da prioridad al volumen sobre la profundidad: se introducen en las máquinas enormes bibliotecas de compuestos químicos y se prueban las combinaciones de ellos. El proceso recorre el espacio químico probando miles de combinaciones casi simultáneamente y, al mismo tiempo, revela la extensión casi inabarcable de ese espacio y la imposibilidad de modelar todas las interacciones posibles. Por descontado, los investigadores que trabajan en el laboratorio son conscientes, aunque de manera ligeramente indirecta, de todas las presiones económicas que provocan los descubrimientos existentes y los reguladores prudentes, pero es en el propio laboratorio donde estos enrevesados problemas entran en contacto con la desbocada presión tecnológica de los

nuevos inventos. Para quienes más dinero manejan —las compañías farmacéuticas— el impulso de aplicar a estos problemas las tecnologías más novedosas y veloces es irresistible. Como explica un informe: «La automatización, la sistematización y la medición de los procesos ha dado resultados en otros sectores. ¿Por qué habríamos de permitir que un equipo de químicos y biólogos se embarque en una búsqueda a base de prueba y error de duración indeterminada cuando podríamos cribar rápida y eficientemente millones de posibilidades prometedoras contra un objetivo derivado mediante genómica y a continuación simplemente repetir el mismo proceso industrial para el siguiente objetivo, y así sucesivamente?».[24] Pero es en el laboratorio donde las limitaciones de esta estrategia están quedando patentes. El cribado de alto rendimiento ha acelerado la ley de Eroom en lugar de atenuarla. Y hay quien empieza a sospechar que el caótico empirismo humano podría en la práctica ser más y no menos eficiente que la computación. La ley de Eroom podría incluso ser la codificación —con datos— de algo que muchos destacados científicos llevan ya tiempo diciendo. En 1974, en un testimonio ante el Comité sobre Ciencia y Astronáutica de la Cámara de Representantes estadounidense, el bioquímico austríaco Erwin Chargaff se lamentaba así: «Ahora, cuando paso por un laboratorio […] todo el mundo está sentado ante las mismas centrifugadoras de alta velocidad o contadores de centelleo, produciendo los mismos gráficos intercambiables. Queda muy poco espacio para el importantísimo papel de la imaginación científica».[25] Chargaff también dejó bien clara la conexión entre una excesiva dependencia del instrumental y las presiones económicas que la provocaban: «El hom*o ludens se ha visto desbordado por la seriedad de las finanzas corporativas». Y, en consecuencia, añadió Chargaff: «Un velo de monotonía ha cubierto lo que en otros tiempos fue la más dinámica y atractiva de las profesiones científicas». Esa opinión dista de ser original y tiene reminiscencias de todas las críticas vertidas contra la intervención tecnológica en la percepción humana, desde la televisión hasta los videojuegos, con la diferencia de que la farmacología computacional está creando un cuerpo empírico de datos en torno a su propio fracaso: la máquina está escribiendo la crónica de su propia ineficiencia en su propio idioma. Reflexionar con lucidez sobre lo que esto significa exige rechazar interpretaciones de suma cero del progreso tecnológico y reconocer la existencia de zonas grises del pensamiento y la comprensión. Ante esta imagen del fracaso puramente mecánico, ¿cómo hemos de proceder para reintroducir al hom*o ludens en la investigación científica? Podríamos encontrar una respuesta en otro laboratorio, en otra instalación diabólicamente compleja de equipos experimentales, la que se montó para desentrañar los secretos de la fusión nuclear. La fusión nuclear, uno de los santos griales de la investigación científica, encierra la promesa de una energía limpia casi ilimitada, capaz de alimentar ciudades y propulsar cohetes espaciales con unos pocos gramos de combustible. Es también notoriamente difícil de lograr. A pesar de la

construcción de reactores experimentales desde la década de 1940 y de que en este campo no hayan dejado de producirse avances y descubrimientos, ningún diseño ha producido jamás una energía neta positiva, es decir, generar más energía que la necesaria para desencadenar la reacción inicial de fusión. (Las únicas reacciones de fusión provocadas por el ser humano que lo consiguieron fueron la serie de ensayos termonucleares de la Operación Castle en las islas Marshall en los años cincuenta. Una propuesta posterior para generar energía detonando bombas de hidrógeno en cavernas situadas a gran profundidad en el suroeste estadounidense se canceló cuando se comprobó que construir un número suficiente de bombas para conseguir una generación continua de energía era demasiado costoso.) Las reacciones de fusión, que tienen lugar en un plasma de gases supercalentados, son las mismas que las que producen energía y elementos pesados en las estrellas (entre los entusiastas de la fusión, una frase popular para describirla es «una estrella en una botella»). A temperaturas extremas, los núcleos atómicos pueden fusionarse entre sí; si se utilizan los materiales adecuados, la reacción es exotérmica y libera una energía que puede a continuación capturarse y usarse para generar electricidad. Pero contener el plasma supercalentado es un reto colosal. Una estrategia habitual en los reactores contemporáneos consiste en utilizar enormes campos magnéticos o potentes láseres para amoldar el plasma en un anillo estable con forma de rosquilla, un toro, pero los cálculos necesarios para hacerlo son endiabladamente complicados y profundamente interdependientes. La forma de la vasija contenedora; los materiales empleados; la composición del combustible; la temporización, la intensidad y los ángulos de imanes y láseres; la presión de los gases, y los voltajes aplicados son todos elementos que afectan a la estabilidad del plasma. Cuando escribo estas líneas, el récord de funcionamiento continuo de un reactor de fusión es de veintinueve horas, logrado por un reactor Tokamak de tipo rosquilla en 2015, pero para conseguirlo fueron necesarias ingentes cantidades de energía. Otra tecnología prometedora, conocida como «configuración de campo invertido» —que crea un campo de plasma cilíndrico— necesita menos energía, pero su periodo máximo de funcionamiento ha sido de once milisegundos. Se logró en una empresa privada de investigación, Tri Alpha Energy, con sede en California, cuyo diseño dispara de «anillos de humo» de plasma uno contra otro a un millón de kilómetros por hora para crear así un campo con forma de puro de hasta tres metros de longitud y cuarenta centímetros de diámetro.[26] El dispositivo también utiliza la combinación hidrógeno-boro como combustible, en lugar de la más habitual de deuterio-tritio. Aunque es mucho más difícil hacer que prenda, el boro, a diferencia del tritio, es abundante en la Tierra. En 2014 Tri Alpha anunció que habían logrado producir reacciones de hasta cinco milisegundos de duración y en 2015 afirmó que esas reacciones podrían mantenerse en el tiempo. El siguiente desafío consiste en mejorar estos resultados, algo cuya dificultad no deja de aumentar a medida que lo hacen la temperatura y la energía. Al comienzo de cada experimento se

pueden establecer múltiples parámetros de control y de entrada, como la intensidad del imán y la presión del gas, pero la reacción también está sujeta a una deriva: a medida que avanza la tanda de experimentos, varían las condiciones en el interior de la vasija del reactor, lo que obliga a hacer ajustes continuos e instantáneos. Esto significa que el problema del ajuste fino de la máquina es no lineal y fuertemente acoplado: cambiar una variable en una dirección puede producir resultados inesperados o alterar el efecto de otras entradas. No es una simple cuestión de cambiar las cosas una a una y ver qué sucede, sino que existe más bien todo un paisaje de alta dimensionalidad de posibles configuraciones que debe rastrearse mediante exploración continua. A primera vista, estas parecen las condiciones idóneas para un enfoque experimental de fuerza bruta como el que se emplea en farmacología: a partir de un enorme conjunto de datos de posibles configuraciones, los algoritmos abren una senda tras otra a través del territorio y así van trazando lentamente un mapa que muestra gradualmente los picos y valles de los resultados experimentales. Pero aquí no va a funcionar la mera fuerza bruta. El problema se complica por el hecho de que no existe una «métrica de bondad» para el plasma ni un simple resultado final que ayude al algoritmo a determinar cuáles de las tandas de experimentos son «mejores». Se necesita una opinión humana más abigarrada del proceso para discriminar entre las distintas ejecuciones. Además, la escala de los accidentes que se pueden provocar en una placa de Petri es limitada; en un reactor de fusión, donde megavatios de energía sobrecalientan gases presurizados a miles de millones de grados, la posibilidad de dañar aparatos costosos y singulares es considerable y no se comprende del todo cuáles son los límites de un funcionamiento seguro. Es necesaria la supervisión humana para evitar que un algoritmo demasiado entusiasta proponga un conjunto de parámetros de entrada susceptibles de destruir la máquina. En respuesta a este problema, Tri Alpha y los especialistas en aprendizaje automático de Google crearon lo que bautizaron como el «algoritmo del optometrista»,[27] cuyo nombre remite a las opciones que se le presentan al paciente durante una prueba de la vista: ¿cuál es mejor: este o este otro? En los experimentos de Tri Alpha, reducen miles de posibles ajustes hasta quedarse con unos treinta metaparámetros, que son más fáciles de comprender para el experimentador humano. Tras cada descarga de plasma —que, a lo largo de los experimentos, se producen cada ocho minutos— el algoritmo modifica ligeramente la configuración y vuelve a probar; un operario humano ve los nuevos resultados, junto con los de la mejor descarga anterior, y toma la decisión definitiva sobre cuál de ellas servirá de base para las pruebas subsiguientes. De esta manera, el algoritmo del optometrista combina el conocimiento y la intuición humanos con la capacidad de orientarse en un espacio de soluciones de alta dimensionalidad. Cuando el algoritmo se aplicó por primera vez, el objetivo del experimento de Tri Alpha era mejorar la estabilidad del plasma y, por ende, la duración de la reacción. Pero, durante la exploración del espacio de parámetros, el operario humano se percató de que en ciertos

experimentos la energía total del plasma aumentaba de manera súbita y fugaz, un resultado anómalo que podría aprovecharse para aumentar la duración de la reacción. Aunque la parte automatizada del algoritmo no se había configurado teniendo esto en cuenta, el operario humano podría guiarlo hacia una nueva configuración que incrementase no solo la duración del experimento, sino también su energía total. Estos parámetros inesperados pasaron a ser la base de todo un régimen de pruebas completamente nuevo, más adecuado para tener en cuenta la impredecibilidad de la exploración científica. A medida que avanzaban los experimentos, los investigadores se dieron cuenta de que los beneficios de combinar la inteligencia humana y la de la máquina funcionaban en ambos sentidos: ellos aprendían a intuir mejoras a partir de resultados complejos, mientras que la máquina los empujaba a explorar una más amplia variedad de posibles datos de entrada, en contra de la tendencia humana a evitar los márgenes de un espacio de posibilidades. En última instancia, el enfoque del optometrista de muestreo aleatorio combinado con interpretación humana puede aplicarse a una amplia gama de problemas que requieren la comprensión y optimización de sistemas complejos en distintas disciplinas científicas. El mecanismo que se implementa cuando se aplica el algoritmo del optometrista es de particular interés para quienes aspiran a hacer compatible el funcionamiento opaco de la resolución de problemas computacionales complejos con las necesidades y los deseos humanos. De un lado está un problema tan endiabladamente complicado que la mente humana no es capaz de abarcarlo enteramente, aunque un ordenador sí puede asimilarlo y trabajar en él; del otro, la necesidad de aplicar la percepción humana de la ambigüedad, la imprevisibilidad y la aparente paradoja para abordar el problema, una percepción que es en sí misma paradójica, porque con demasiada frecuencia escapa a nuestra capacidad de expresarla de manera consciente. Los investigadores de Tri Alpha describen su enfoque como un «intento de optimizar un modelo de utilidad oculto que los expertos humanos quizá no sean capaces de expresar explícitamente». Lo que quieren decir es que existe un orden en la complejidad de su espacio de problemas, pero que dicho orden escapa a la capacidad humana de describirlo. Los espacios multidimensionales del diseño de reactores de fusión —y las representaciones codificadas de redes neuronales que veremos en un capítulo posterior— ciertamente existen, pero son imposibles de visualizar. Si bien estas tecnologías abren la posibilidad de trabajar en la práctica con estos sistemas indescriptibles, también nos fuerzan a reconocer que tales sistemas efectivamente existen, y no solo en los campos de las ciencias farmacológicas y físicas, sino también en ámbitos relacionados con la moral y la justicia. Nos obligan también a reflexionar desapasionadamente sobre lo que significa vivir en todo momento entre sistemas complejos e interrelacionados, en estados de duda e incertidumbre que pueden ser intrínsecamente incompatibles. Admitir que existe lo indescriptible es una de las facetas de la nueva edad oscura: el

reconocimiento de que existen límites para lo que la mente humana puede conceptualizar. Pero no todos los problemas en las ciencias pueden resolverse ni siquiera mediante la aplicación de la computación, por muy empática que esta sea. A medida que se proponen soluciones más complejas a problemas cada vez más complejos, se corre el riesgo de pasar por alto problemas sistémicos aún mayores. Así como el acelerado progreso de la ley de Moore abocó a la computación a recorrer una trayectoria en particular, que hacía necesarios una arquitectura y un hardware determinados, también la elección de estas herramientas determina de manera fundamental la forma en que podemos abordar e incluso pensar en la siguiente serie de problemas a los que nos enfrentamos. La forma en que pensamos el mundo está moldeada por las herramientas de las que disponemos. Así lo expresaron en 1994 los historiadores de la ciencia Albert van Helden y Thomas Hankins: «Como los instrumentos determinan lo que se puede hacer, también determinan en cierta medida lo que se puede pensar».[28] Entre estos instrumentos está todo el marco sociopolítico en el que se sustenta la investigación científica, desde la financiación pública, las instituciones académicas y el sector de las revistas científicas, hasta la construcción de tecnologías y software que confiere un poder económico inusitado y un conocimiento exclusivo a Silicon Valley y sus filiales. Existe también una presión cognitiva más profunda: la creencia en la respuesta singular e intocable que proporciona, con intervención humana o sin ella, la supuesta neutralidad de la máquina. Así como la ciencia se tecnologiza cada vez más, lo mismo sucede con cada dominio del pensamiento y la acción humanos, lo que pone gradualmente de manifiesto hasta dónde llega nuestro desconocimiento, al tiempo que revela también nuevas posibilidades. El mismo riguroso método científico que, por una senda, nos lleva a la disminución de rendimientos de la ley de Eroom también nos ayuda a ver y responder a ese mismo problema. Se necesitan grandes cantidades de datos para ver los problemas debidos a grandes cantidades de datos. Lo que importa es cómo respondemos a las evidencias que tenemos delante.

5 Complejidad

Durante el invierno de 2014-2015 hice varios viajes por el sudeste de Inglaterra en busca de lo invisible. Trataba de encontrar en el terreno los vestigios de sistemas ocultos, los lugares donde las grandes redes de tecnologías digitales se convierten en acero y cable, donde se vuelven infraestructura. Era una forma de psicogeografía, una expresión de la que últimamente se abusa mucho pero que no deja de ser útil por su énfasis en los estados internos ocultos que pueden revelarse mediante una exploración externa. En 1955, el filósofo situacionista Guy Debord definió la psicogeografía como «el estudio de las leyes precisas y efectos específicos del entorno geográfico, conscientemente organizado o no, sobre las emociones y el comportamiento de los individuos».[1] A Debord lo preocupaba la creciente espectacularización de la vida cotidiana y cómo nuestras vidas se ven cada vez más influidas por la mercantilización y la mediación. Las cosas con las que nos topamos en nuestro día a día en las sociedades del espectáculo casi siempre representan alguna realidad más profunda de la cual no somos conscientes, y nuestra alienación respecto a dicha realidad reduce nuestra capacidad de actuación y nuestra calidad de vida. La implicación crítica de la psicogeografía con el paisaje urbano era una de las formas de contrarrestar esa alienación: un ejercicio de observación e intervención que nos pone en contacto directo con la realidad de maneras sorprendentes y urgentes, y cuya utilidad no se atenúa cuando, en lugar de buscar indicios del espectáculo en la vida urbana, optamos por buscar señales de lo virtual en el paisaje global y por tratar de averiguar qué efectos tiene sobre todos nosotros. Así pues, una especie de deriva situacionista para la red: un proceso de psicogeografía pensado para descubrir no algún reflejo de mi propia patología sino el de un colectivo globalizado y digital. Como parte de un proyecto llamado The Nor, hice varios viajes para trazar un mapa de estas redes digitales,[2] empezando por el sistema de dispositivos de vigilancia que rodean el centro de Londres: los sensores y cámaras que monitorizan las tasas de congestión y las zonas de bajas emisiones de la ciudad —que siguen el recorrido de cada vehículo que entra en ella— y los distribuidos sobre zonas más extensas por el Consorcio de Transporte de Londres y la Policía metropolitana, así como la multitud de cámaras instaladas por empresas y otras autoridades. En dos caminatas de un día, fotografié más de mil cámaras, lo cual me supuso una detención ciudadana y una amonestación por parte de la policía.[3] Volveremos sobre este asunto de la

vigilancia y la extraña atmósfera que genera más adelante en el libro. También exploré las redes electromagnéticas que adornan el espacio aéreo londinense, y catalogué las instalaciones de radiofaros omnidireccionales de VHF —desperdigadas por aeropuertos y aeródromos abandonados de la Segunda Guerra Mundial y ocultas en bosques tras vallas de tela metálica— que guían a los aviones de un punto a otro en sus circunnavegaciones del planeta.[4] El último de estos viajes fue un recorrido en bicicleta de unos cien kilómetros, de Slough a Basildon, atravesando el pleno centro de la City. Slough, a cuarenta kilómetros al oeste de Londres, alberga un creciente número de centros de datos —las catedrales a menudo ocultas de la vida basada en datos— y en particular Equinix LD4, una nave industrial inmensa y anónima situada en todo un barrio de infraestructura computacional recién construida. LD4 es la ubicación virtual de la Bolsa de Londres y, a pesar de la ausencia de cualquier señalización visible, es ahí donde se procesan la mayoría de las operaciones que se registran en dicho mercado bursátil. En el otro extremo de mi trayecto había otro centro de datos sin señalizar: más de 28.000 metros cuadrados de espacio de servidores en el que solo se repara por una ondeante bandera británica y por el hecho de que, si uno permanece demasiado tiempo en la carretera que hay enfrente, se verá hostigado por guardias de seguridad. Se trata del centro de datos Euronext, la sede europea de la Bolsa de Nueva York, cuyas operaciones son igualmente oscuras y virtuales.

Centro de datos LD4, Slough. Fotografía: James Bridle.

Centro de datos Euronext de la Bolsa de Nueva York, Basildon. Fotografía: James Bridle.

Hay una línea casi invisible de transmisiones por microondas que conecta estas dos ubicaciones: estrechos haces de información que rebotan de antena parabólica en antena parabólica y de torre en torre, transportando una información financiera de valor casi inimaginable a velocidades próximas a la de la luz. Si trazamos un mapa de estas torres y de los centros de datos y otras instalaciones a las que dan soporte, podemos entender mejor no solo la realidad tecnológica de nuestra era, sino también la realidad social que esta genera a su vez. Estas dos ubicaciones están donde están debido a la virtualización de los mercados monetarios. Cuando la mayoría de la gente piensa en una bolsa de valores imagina un gran vestíbulo o foso lleno de operadores desgañitándose, con manojos de papeles apretados en el puño, haciendo tratos y ganando dinero. Pero, a lo largo de las últimas décadas, en la mayoría de los parqués de todo el mundo se ha hecho el silencio. Primero fueron reemplazados por oficinas más prosaicas: hombres (casi siempre hombres) teléfono en mano, mirando fijamente las líneas que aparecían en la pantalla del ordenador. Solo cuando sucedía algo grave (lo suficientemente grave como para que se le asignase un color: el Lunes Negro, el Jueves de Plata) volvían los gritos. Más recientemente, hasta las personas han sido sustituidas por hileras de ordenadores que negocian automáticamente, siguiendo estrategias fijas —pero sumamente complejas— desarrolladas por bancos y fondos de alto riesgo. Con el aumento de la potencia de cálculo y de la velocidad de las redes, también se ha acelerado la velocidad de las transacciones, lo que explica el sobrenombre de esta técnica: «negociación de alta frecuencia». La negociación de alta frecuencia en los mercados de valores evolucionó como respuesta a dos

presiones íntimamente relacionadas: la latencia y la visibilidad, que fueron, de hecho, el resultado de un solo cambio tecnológico. Cuando, durante los años ochenta y noventa, los mercados bursátiles se desregularon y digitalizaron —un proceso que en la Bolsa de Londres se conoce como el big bang—, fue posible negociar cada vez más a mayor velocidad y a distancias mayores. Esto dio lugar a toda una serie de extraños efectos. Aunque desde siempre el primero en aprovechar la diferencia entre los precios en distintos mercados era quien obtenía beneficios (es bien sabido que Paul Reuter dispuso que los barcos que llegaban de América arrojasen en la costa irlandesa frascos con las noticias para que su contenido pudiera telegrafiarse a Londres antes de la llegada del propio barco), las comunicaciones digitales hiperaceleran el proceso. La información financiera viaja ahora a la velocidad de la luz, pero la velocidad de la luz es distinta en distintos lugares. Es distinta en el vidrio y en el aire y encuentra limitaciones cuando los cables de fibra óptica se agrupan, atraviesan complejas centrales telefónicas, sortean obstáculos naturales y recorren los fondos oceánicos. Los mayores premios se los quedan quienes logran la menor latencia, el mínimo tiempo de viaje entre dos puntos. Aquí es donde entran en la ecuación las líneas de fibra óptica y las torres de microondas privadas. En 20092010, una empresa gastó 300 millones de dólares en construir un enlace de fibra privado entre el Chicago Mercantile Exchange y Carteret, en New Jersey, donde se encuentra la sede del NASDAQ.[5] Cerraron carreteras, cavaron fosas y perforaron montañas, y lo hicieron todo en secreto para que ningún competidor descubriese su plan. Al acortar la distancia física entre ambos puntos, Spread Networks redujo de diecisiete milisegundos a trece el tiempo que un mensaje tardaba en transmitirse entre los dos centros de datos, lo que tuvo como consecuencia un ahorro de unos 75 millones de dólares por milisegundo. En 2012 otra compañía, McKay Brothers, abrió una segunda conexión dedicada entre Nueva York y Chicago. Esta vez se usaron microondas, que viajan por el aire más rápido de lo que la luz lo hace por la fibra de vidrio. Uno de los socios de la empresa afirmó que «para una gran compañía de negociación de alta velocidad, un solo milisegundo de ventaja podría suponer 100 millones de dólares adicionales».[6] El enlace de McKay permitió ganar cuatro milisegundos, una enorme ventaja frente a cualquiera de sus competidores, muchos de los cuales también estaban sacando provecho de otra de las repercusiones del big bang: la visibilidad. La digitalización significa que las transacciones entre mercados bursátiles, así como las internas, pueden producirse cada vez más rápidamente. Cuando las negociaciones pasaron a estar, en la práctica, en manos de las máquinas, fue posible reaccionar casi instantáneamente a cualquier variación en el precio o nueva oferta. Pero para tener la posibilidad de reaccionar había que entender lo que estaba sucediendo y poder costearse un sitio en la mesa. Así pues, como ha ocurrido en cualquier otro ámbito, la digitalización hizo que los mercados se volviesen, al mismo tiempo, más opacos para los no iniciados y radicalmente transparentes para los entendidos. En

este caso, estos últimos eran quienes disponían de los fondos y la experiencia para no perder comba respecto a los flujos de información a la velocidad luz: los bancos privados y fondos de capital riesgo para los que trabajaban quienes se dedicaban a la negociación de alta velocidad. Llegaron al mercado algoritmos diseñados por doctores en física para exprimir milisegundos de ventaja en el acceso, bautizados por los operadores con nombres como Ninja, Francotirador o Cuchillo. Estos algoritmos eran capaces de rebañar pequeñas fracciones de céntimo en cada transacción, cosa que hacían millones de veces al día. Desde el interior del torbellino de los mercados no era fácil saber quién manejaba realmente estos algoritmos, y sigue sin serlo a día de hoy, porque su táctica principal es el disimulo: ocultan sus intenciones y sus orígenes mientras se hacen con una enorme porción de todo el valor intercambiado. El resultado fue una carrera armamentística: quien era capaz de crear el software más veloz, reducir la latencia de su conexión con los mercados bursátiles y ocultar mejor su verdadero objetivo se hacía de oro. Operar en las bolsas de valores se convirtió en una cuestión de operaciones oscuras y de fibra oscura. La oscuridad va más allá: hoy en día, muchos operadores prefieren negociar no en las bolsas públicas relativamente bien reguladas, sino en lo que se conoce como dark pools, foros privados para el intercambio de valores, derivados financieros y otros productos. Un informe de 2015 de la Comisión de Bolsa y Valores estadounidense (SEC, por sus siglas en inglés) estimó que el volumen de las operaciones en los dark pools representaba una quinta parte de todas las transacciones que también se efectuaban en las bolsas públicas (una cifra que no tiene en cuenta otras muchas variedades populares de instrumentos financieros).[7] Los dark pools permiten a los operadores mover grandes volúmenes de acciones sin despertar las suspicacias del conjunto del mercado, lo que protege sus transacciones de otros depredadores. Pero también son lugares turbios, donde abundan los conflictos de intereses. Aunque en un principio se promocionaron como lugares donde realizar transacciones seguras, muchos operadores de dark pools han sido criticados por atraer disimuladamente, ya fuese para inyectar liquidez en el mercado o para su propio beneficio, a los mismos negociadores de alta frecuencia a los que sus propios clientes intentaban evitar. El informe de 2015 de la SEC enumera numerosos acuerdos de este tipo en lo que denomina «una triste letanía de malas prácticas». En 2016, a Barclays y a Credit Suisse se les impuso una multa de 154 millones de dólares por permitir a escondidas el acceso a su dark pool, supuestamente privado, tanto a negociadores de alta frecuencia como a su propio personal.[8] Como el dark pool es oscuro, es imposible saber cuánto dinero perdieron sus clientes por culpa de estos depredadores invisibles, pero muchos de sus principales clientes eran fondos de pensiones, encargados de administrar los planes de jubilación de gente corriente.[9] Lo que se pierde en los dark pools, sin que sus miembros sean conscientes de ello, son los ahorros de toda una vida, la seguridad futura y los medios de subsistencia. La combinación de negociación de alta frecuencia y dark pools es solo una de las formas en que

los sistemas financieros se han vuelto opacos y, por ende, cada vez más desiguales. Pero, a medida que las consecuencias se propagan a través de las invisibles redes digitales, también dejan su huella en el mundo real: lugares donde podemos ver cómo estas desigualdades se manifiestan en forma de arquitectura y en el paisaje que nos rodea. Las antenas parabólicas de microondas que sustentan la conexión invisible entre Slough y Basildon son parásitos. Se aferran a los edificios ya existentes, ocultas entre antenas de telefonía móvil y de televisión. Se encaraman en plataformas de reflectores en una cochera del metro en Upminster, en un gimnasio Gold’s Gym en Dagenham, en destartalados bloques de apartamentos en Barking y en Upton Park. Colonizan infraestructuras más antiguas: la oficina central de correos de Slough, cubierta de antenas, está en pleno proceso de dejar de ser una oficina de clasificación de correo para convertirse en un centro de datos. Y también encuentran acomodo en arquitecturas sociales: en el mástil de la antena del parque de bomberos de Hillingdon o en el tejado de un centro de educación para adultos en Iver Heath. Es en Hillingdon donde señalan el contraste más marcado entre los ricos y los pobres. El hospital de Hillingdon, un imponente bloque erigido en los años sesenta en el solar del antiguo asilo de Hillingdon, está situado justo al norte de la línea Slough-Basildon, a pocos kilómetros del aeropuerto de Heathrow. Cuando se inauguró, se presentó como el hospital más innovador del país, y hoy alberga el pabellón experimental Bevan, un conjunto de salas especiales en las que se llevan a cabo investigaciones sobre comodidad de los pacientes y tasas de infección. A pesar de ello, el hospital es objeto de frecuentes críticas, como muchos otros de su época política y arquitectónica, por el desmoronamiento de sus instalaciones, la mala higiene, las altas tasas de infección hospitalaria, la escasez de camas y la cancelación de operaciones. El informe más reciente de la Comisión de Calidad en la Atención, que supervisa los hospitales de Inglaterra y Gales, expresó su preocupación por la escasez de personal y por la falta de seguridad de los pacientes y del personal sanitario debido a la falta de mantenimiento de las envejecidas instalaciones.[10] En 1952, Aneurin Bevan, fundador del Servicio Nacional de Salud inglés (NHS, por sus siglas en inglés) y de quien toma su nombre el pabellón experimental, publicó In Place of Fear, en el que justificaba la creación del NHS: «Se ha dado en utilizar Servicio Nacional de Salud y Estado del Bienestar como expresiones intercambiables, y, en boca de algunas personas, como expresiones de reproche. No es difícil entender por qué es así si uno lo ve todo desde la perspectiva de una sociedad competitiva estrictamente individualista. Un servicio de salud gratuito es puro socialismo y, como tal, es lo opuesto al hedonismo de la sociedad capitalista». [11] En 2013, el ayuntamiento de Hillingdon concedió una licencia de obra a una empresa llamada Decyben SAS para colocar cuatro antenas parabólicas de microondas de medio metro y un

armario de equipo en lo alto del edificio del hospital. En 2017, una solicitud efectuada al amparo de la legislación sobre transparencia institucional reveló que Decyben es una tapadera de McKay, la misma empresa que construyó el enlace de microondas que permitió ganar milésimas de segundo en la conexión entre Chicago y Nueva York.[12] Además, se han concedido licencias de emplazamiento a Vigilant Telecom, un proveedor canadiense de ancho de banda de alta frecuencia, y a la propia Bolsa de Londres. La Fundación Fiduciaria del NHS para los Hospitales de Hillingdon se negó a publicar los detalles de los acuerdos comerciales con sus inquilinos electromagnéticos alegando intereses comerciales. Tales excepciones son tan habituales en la legislación sobre transparencia institucional que en muchos casos inutilizan el mecanismo. No obstante, es razonable suponer que, por mucho dinero que el NHS consiga extraer de sus inquilinos y a pesar de los miles de millones que cambian de manos a diario en el mercado invisible que ha ocupado su azotea, está lejos de cubrir el déficit de 700 millones de libras esterlinas en la financiación del Servicio Nacional de Salud para 2017. [13] En 1952, Bevan escribió también: «Podríamos sobrevivir sin cambiadores de divisas ni corredores de bolsa, pero resultaría más difícil prescindir de los mineros, los trabajadores del acero y los agricultores». Hoy en día, cambiadores y corredores están encaramados a la infraestructura que Bevan tanto se esforzó en construir.

Antenas parabólicas montadas sobre el hospital de Hillingdon, diciembre de 2014. Fotografía: James Bridle.

En la introducción de Flash Boys, su investigación de 2014 sobre la negociación de alta frecuencia, el periodista financiero Michael Lewis escribió: «El mundo se aferra a su vieja

imagen mental del mercado bursátil porque resulta tranquilizadora y reconfortante, porque es extremadamente difícil imaginar la que la ha sustituido».[14] Este mundo se adhiere a la nanoescala, está en los destellos de luz en los cables de fibra óptica y en los bits oscilantes de los discos duros de estado sólido que la mayoría de nosotros apenas podemos conceptualizar. Extraer valor de este nuevo mercado requiere negociar a velocidades cercanas a la de la luz, sacar provecho de diferencias de nanosegundos en la información que da vueltas al mundo a toda velocidad. Lewis da detalles sobre un mundo en el que el mercado se ha convertido en un sistema de clases, una cancha para quienes disponen de los ingentes recursos necesarios para acceder a ella, completamente invisible para los demás: Los ricos pagaban por nanosegundos, y los pobres no tenían ni idea de que un nanosegundo tenía valor alguno; los ricos disfrutaban de una panorámica perfecta de todo el mercado; los pobres «no veían el mercado en absoluto». Lo que en su día había sido el mercado financiero más democrático y transparente del mundo se había convertido en algo más parecido a la contemplación privada de una obra de arte robada.[15]

En El capital en el siglo XXI, obra profundamente pesimista sobre la desigualdad económica, el economista francés Thomas Piketty analiza las crecientes diferencias de riqueza entre una minoría de personas muy ricas y el resto de la población. En Estados Unidos, en 2014, el 0,01 por ciento más rico, compuesto por tan solo 16.000 familias, controlaba el 11,2 por ciento de la riqueza total; una situación comparable a la de 1916, la época de mayor desigualdad de la que hay constancia. Actualmente, el 0,1 por ciento más rico acumula el 22 por ciento de toda la riqueza, el mismo porcentaje que el 90 por ciento más pobre.[16] Y la gran recesión no ha hecho más que acelerar el proceso: entre 2009 y 2012, el 1 por ciento más rico acaparó el 95 por ciento del crecimiento de los ingresos. La situación, aunque no tan dramática, va en la misma dirección en Europa, donde la riqueza acumulada —buena parte de la cual es heredada— se aproxima a niveles que no se habían visto desde finales del siglo XIX. Se trata de una inversión de la idea extendida de lo que es el progreso, según la cual el desarrollo social conduce inexorablemente a una mayor igualdad. Desde la década de 1950, los economistas han creído que, en las economías avanzadas, el crecimiento económico reduce la desigualdad entre ricos y pobres. Esta doctrina, que se conoce como curva de Kuznets en honor a su inventor, el nobel Simon Kuznets, afirma que la desigualdad económica inicialmente aumenta cuando las sociedades se industrializan, pero a continuación se reduce a medida que la educación universal iguala las condiciones y resulta en una participación política más generalizada. Y así sucedió —al menos en Occidente— durante buena parte del siglo XX. Pero ya no estamos en la época industrial y, según Piketty, cualquier creencia de que el progreso tecnológico conducirá «al triunfo del capital humano sobre el capital financiero e inmobiliario, al de los gestores

competentes sobre los peces gordos de los accionistas, y de la capacidad sobre el nepotismo» es «en gran medida ilusoria».[17] De hecho, en muchos sectores la tecnología es uno de los factores clave para la desigualdad. El incesante avance de la automatización —de las cajas de los supermercados a los algoritmos de negociación bursátil, de los robots industriales a los coches autónomos— supone una amenaza creciente para el empleo de la población humana en todos los sectores. No hay red de seguridad para aquellos cuyas habilidades quedan obsoletas tras la irrupción de las máquinas, ni siquiera quienes las programan están a salvo de este riesgo. A medida que aumentan las capacidades de las máquinas, aumentan también las profesiones vulnerables, y la inteligencia artificial no hace más que echar leña al fuego. La propia internet contribuye a marcar esta senda hacia la desigualdad, ya que los efectos de la red y de la disponibilidad global de servicios crea un mercado donde el vencedor se queda con todo, tanto en las redes sociales y los buscadores de internet como en los supermercados o las compañías de taxis. La queja de la derecha contra el comunismo —que todos nos veríamos obligados a comprar los productos a un único proveedor estatal— ha sido reemplazada por la necesidad de comprarlo todo en Amazon. Y una de las claves de esta mayor desigualdad es la opacidad de los propios sistemas tecnológicos. En marzo de 2017, Amazon adquirió Quidsi, una empresa que había creado un formidable negocio sobre la base de productos de bajo coste y alto volumen, como suministros para bebés y cosméticos. Para ello, Quidsi fue pionera en la automatización en todos los niveles de la cadena de distribución y en eliminar la intervención humana en el proceso. Su centro de operaciones se encuentra en un enorme almacén en Goldsboro, Pensilvania, en cuyo núcleo hay una superficie de más de 18.000 metros cuadrados marcada con pintura de color amarillo intenso y rodeada de letreros. Es un espacio lleno de estanterías, cada una de unos dos metros de altura y algo menos de profundidad, repletas de artículos (en este caso, pañales y otros productos para el cuidado de los niños). Los letreros son señales de advertencia: los humanos tienen prohibida la entrada en este espacio para llegar a esos productos, porque ahí es donde trabajan los robots. En esa zona para robots, 260 rombos de color naranja brillante y un cuarto de tonelada de peso giran y levantan objetos, deslizándose bajo las distintas estanterías y desplazándolas hasta los bordes de la zona, donde los recolectores humanos esperan para agregar o quitar paquetes. Se trata de los robots Kiva: autómatas de almacén que se mueven incansablemente en torno a la mercancía siguiendo marcas en el suelo legibles por ordenador. Más rápidos y precisos que los manipuladores humanos, los robots se encargan del trabajo pesado, lo que permite a Quidsi, propietaria de Diapers.com, enviar miles de pedidos cada día solo desde este almacén. Amazon tenía la vista puesta desde tiempo atrás en el uso que hacía Quidsi de los robots Kiva, pero desde mucho antes de la compra ya estaba trabajando en el desarrollo de sus propias formas de automatización. En Rugeley, Inglaterra, dentro de un almacén de color azul celeste del tamaño

de nueve campos fútbol situado en el lugar que antes ocupó una antigua mina de carbón, cientos de empleados de Amazon vestidos con monos naranjas empujan carritos por los profundos pasillos de estanterías mientras los van rellenando con libros, DVD, equipos electrónicos y otros productos. Cada trabajador camina a paso ligero, siguiendo las instrucciones de un dispositivo portátil que le indica continuamente la siguiente ubicación a la que debe dirigirse al tiempo que hace un seguimiento del progreso del trabajador, asegurándose de que cubra una distancia suficiente —hasta veinticuatro kilómetros al día— y de que recoja suficientes artículos para que la empresa pueda enviar cada tres minutos un camión completamente cargado desde una de sus ocho instalaciones en Reino Unido.

Almacén de Amazon en Rugeley, Staffordshire. Fotografía: Ben Roberts.

La razón por la que los trabajadores de Amazon necesitan usar esos dispositivos portátiles para

orientarse en el almacén es que este resulta impenetrable para los humanos. Los humanos esperarían que los productos se almacenaran de manera humana: los libros a este lado, los DVD a ese otro, los estantes de papelería a la izquierda, y así sucesivamente. Pero para una inteligencia artificial racional tal disposición es profundamente ineficiente. Los consumidores no piden los productos por orden alfabético o por tipo, sino que llenan una cesta con productos de toda la tienda o, en este caso, del almacén. Por este motivo, Amazon emplea una técnica de logística llamada «almacenamiento caótico», caótico, claro está, desde un punto de vista humano. Ubicar los productos según su demanda y la relación entre ellos en lugar de por tipo permite trazar recorridos mucho más cortos entre los artículos. Los libros se apilan en estanterías junto a las cacerolas; los televisores comparten espacio con los juguetes para niños. Como los datos almacenados en el disco duro de un ordenador, los artículos se distribuyen a lo largo y ancho de todo el espacio del almacén; cada uno de ellos es localizable unívocamente mediante un código de barras, pero imposible de encontrar sin la ayuda de un ordenador. Organizar el mundo desde la perspectiva de la máquina hace que sea eficiente en un sentido computacional, pero completamente incomprensible para los humanos. Y, para colmo, acelera su opresión. Los dispositivos portátiles que llevan los trabajadores de Amazon, exigidos por la logística de la empresa, son también dispositivos de seguimiento que registran todos y cada uno de sus movimientos y asignan una puntuación a su eficiencia. A los trabajadores se les descuentan puntos —es decir, dinero— si no pueden seguir el ritmo que les marca la máquina, si van al baño, si llegan tarde de casa o cuando comen, mientras que estar en continuo movimiento impide que establezcan relación con sus compañeros de trabajo. No tienen otra cosa que hacer más que seguir las instrucciones de la pantalla, empaquetar objetos y llevarlos de un sitio a otro. Se espera de ellos que se comporten como robots, que funcionen como máquinas mientras sigan siendo, de momento, ligeramente más baratos que aquellas. Reducir a los trabajadores a algoritmos de carne, útiles solo por su capacidad de moverse y seguir órdenes, hace que sea más fácil contratarlos, despedirlos y abusar de ellos. Los trabajadores que van donde el terminal que llevan en la muñeca les dice que vayan ni siquiera necesitan entender el idioma local ni tener formación alguna. Ambos factores, junto con la atomización producida por la intensificación tecnológica, impiden también que los trabajadores se organicen de manera efectiva: ya se trate de un mozo de almacén de Amazon agotado hasta la extenuación y en constante movimiento que recibe sus instrucciones de un lector de código de barras conectado a la wifi o del conductor de un VTC nocturno contratado individualmente que sigue la línea brillante de un sistema GPS desde un punto rojo al siguiente, la tecnología les impide efectivamente colaborar con sus colegas para la mejora de las condiciones laborales. (Lo cual no ha evitado que Uber, por ejemplo, obligue a sus conductores a escuchar un número

determinado de podcasts antisindicales a la semana, todos controlados por su aplicación, para conseguir que el mensaje cale.)[18] Una vez que el interior de un coche o de un almacén se organiza de manera tan eficiente, sus efectos empiezan a difundirse también al exterior. En los años sesenta y setenta, los fabricantes de automóviles en Japón crearon un sistema, conocido como «producción justo a tiempo» [just-in time manufacturing], consistente en encargar pequeñas cantidades de materiales a los proveedores con mayor frecuencia. Este enfoque redujo sus niveles de inventario y suavizó los flujos de caja, al tiempo que aligeraba y aceleraba la producción. Pero, para seguir siendo competitivos, los proveedores también tenían que trabajar más rápido; en algunas fábricas, se esperaba que los productos estuviesen listos a las dos horas de haber recibido el encargo. La consecuencia fue que, en la práctica, enormes cantidades de productos pasaron a almacenarse en camiones, listos para partir en cualquier momento y tan próximos a las fábricas como fuese posible. Los fabricantes de coches simplemente habían externalizado en sus proveedores los costes de almacenamiento y control de inventario. Además, alrededor de las fábricas brotaron zonas de servicio y pueblos enteros para alimentar y dar de beber a los camioneros mientras esperaban, lo que alteró profundamente la geografía de las ciudades manufactureras. Las empresas están aplicando estas lecciones, y sus efectos, a la escala de los individuos; trasladan los costes a sus empleados y les exigen que sometan su cuerpo a las exigencias de las máquinas. A principios de 2017, varias agencias de noticias publicaron historias sobre conductores de Uber que dormían en sus coches. Algunos de ellos sacaban unas pocas horas de sueño entre el cierre de los últimos bares y la hora punta de la mañana; otros simplemente no tenían una casa a la que ir. Cuando se pidió su opinión a la compañía, un portavoz de Uber respondió con una declaración de dos frases: «Con Uber las personas toman sus propias decisiones sobre cuándo, dónde y durante cuánto tiempo conducen. Nosotros concentramos nuestros esfuerzos en asegurarnos de que conducir con Uber es una experiencia gratificante, con independencia de cómo elija trabajar cada persona».[19] La clave aquí es la idea de elección, pues da por supuesto que quienes trabajan para la empresa disponen de la capacidad de elegir. Una conductora contó que había sido agredida por tres clientes ebrios a altas horas de la noche en Los Ángeles, pero que se había visto forzada a volver a trabajar porque arrendaba su coche de la propia Uber y estaba obligada contractualmente a no interrumpir los pagos. (Sus agresores nunca fueron detenidos.) El centro de distribución de Amazon en Dunfermline, Escocia, está situado en un polígono industrial a varios kilómetros del centro de la ciudad, junto a la carretera M90. Para llegar hasta él, los empleados deben tomar autobuses privados que cuestan hasta 10 libras al día —más de una hora de salario— para hacer turnos que en ocasiones empiezan antes del alba o pasada la medianoche. Algunos trabajadores habían optado por dormir en tiendas de campaña en un bosque cercano al almacén, donde son habituales las heladas en invierno.[20] Solo así podían permitirse

el mero hecho de ir a trabajar y hacerlo a su hora, sin que el sistema de seguimiento del almacén les detrajese automáticamente una parte de sus salarios por retraso. Con independencia de lo que podamos pensar de la moralidad de los ejecutivos de Uber, Amazon y muchísimas otras compañías similares, pocos se proponen crear deliberadamente esas condiciones para sus trabajadores. Ni se trata tampoco de una mera vuelta a la época de los terratenientes ladrones y los tiranos industriales del siglo XIX. A la ideología capitalista del beneficio máximo se le han agregado las posibilidades de la opacidad tecnológica, que permite envolver la pura codicia en la lógica inhumana de la máquina. Tanto Amazon como Uber blanden la oscuridad tecnológica como un arma. Tras unos pocos píxeles en la pantalla de inicio de Amazon se oculta la labor de miles de trabajadores explotados: cada vez que alguien pulsa el botón de compra, señales electrónicas ordenan a un humano real que se ponga en movimiento y realice su eficiente tarea. La app es un dispositivo de control remoto para otras personas, pero cuyos efectos en el mundo real son casi imposibles de ver. Esta oscuridad estética y tecnológica genera malestar político y rechazo hacia las empresas. En Uber, la ambigüedad deliberada empieza en la interfaz de usuario y se extiende por todas sus operaciones. Para convencer a los usuarios de que el sistema funciona mejor de lo que en realidad hace, y de que su actividad y flexibilidad son mayores que las reales, en el mapa aparecen a veces «coches fantasma»: conductores dando vueltas que en realidad no existen.[21] Sin que el usuario lo sepa, se hace seguimiento de todos los viajes y esta visión omnisciente se utiliza para acechar a clientes de perfil alto.[22] Se utiliza un programa llamado Greyball para denegar el servicio a los funcionarios que investigan las numerosas transgresiones de la compañía.[23] Pero parece que lo que más nos molesta de Uber es la atomización social y la reducción de la capacidad de actuación que genera. Los trabajadores de la empresa ya no son empleados, sino proveedores precarios. En lugar de estudiar durante años para adquirir «el saber», como los conductores de los taxis negros londinenses llaman a su íntima familiaridad con las calles de la ciudad, simplemente siguen las flechas que aparecen en la pantalla, de un giro al siguiente, dirigidos por satélites remotos y datos invisibles. A su vez, sus clientes están aún más alienados; todo el sistema contribuye a la deslocalización de los ingresos fiscales, al declive de los servicios de transporte público, a acrecentar las divisiones de clase y a aumentar la congestión en las calles de las ciudades. Y, como Amazon y la mayoría de las empresas digitales, el objetivo final de Uber es sustituir completamente a sus trabajadores humanos por máquinas. La compañía tiene su propio programa de coches autónomos y su director de producto, cuando le preguntaron por la viabilidad a largo plazo de la compañía habida cuenta de que tantos de sus empleados estaban descontentos, simplemente respondió: «Bueno, los reemplazaremos a todos por robots». Lo que les pasa a los trabajadores de Amazon al final le acaba pasando a todo el mundo. Las empresas también esgrimen la opacidad tecnológica contra la población en general y contra

el planeta. En septiembre de 2015, durante unas pruebas rutinarias de emisiones realizadas en coches nuevos que salen a la venta en Estados Unidos, la Agencia de Protección del Medio Ambiente (EPA, por sus siglas en inglés) descubrió un software oculto en los sistemas de conducción de los coches diésel fabricados por Volkswagen que, a partir de los datos de la velocidad, el funcionamiento del motor, la presión del aire e incluso la posición del volante, era capaz de detectar cuándo el coche se estaba usando en condiciones de inspección; cuando se activaba, ponía el coche en un modo especial que reducía la potencia y el rendimiento del motor, lo que a su vez rebajaba sus emisiones. Cuando el coche volvía a salir a carretera, retomaba su funcionamiento normal, de mayor potencia y contaminación. Según la estimación de la EPA, la diferencia entre ambos modos de conducción implicaba que coches que habían sido certificados para poder usarse en Estados Unidos en realidad emitían cuarenta veces más óxido de nitrógeno del permitido.[24] En Europa, donde también se encontraron esos mismos «dispositivos de engaño» y donde se vendieron miles de vehículos más, se calcula que 1.200 personas morirán una década antes de lo esperado como consecuencia de las emisiones de Volkswagen.[25] Los procesos tecnológicos ocultos no solo oprimen a la fuerza de trabajo y empobrecen a los trabajadores, sino que realmente matan gente. La tecnología amplía el poder y el conocimiento, pero, cuando se aplica de manera desigual, también concentra el poder y el conocimiento. La historia de la automatización y el conocimiento computacional, desde las fábricas de algodón hasta los microprocesadores, no es solamente una historia de máquinas que van adquiriendo habilidades y ocupando lentamente el lugar de los trabajadores humanos, sino que es también la historia de la concentración del poder en cada vez menos manos y de la concentración del conocimiento en cada vez menos cabezas. El precio de esta pérdida generalizada de poder y conocimiento es, en última instancia, la muerte. Ocasionalmente, atisbamos formas de resistencia a esta poderosa invisibilidad. Esta resistencia exige un conocimiento tecnológico y en red, requiere volver la lógica del sistema contra sí misma. Greyball, el programa que Uber utilizaba para evitar que los gobiernos la investigasen, se creó cuando los inspectores de Hacienda y la policía comenzaron a pedir coches desde sus propias oficinas y comisarías para investigarlos. La compañía llegó incluso a ocultar zonas en torno a las comisarías de policía y a impedir que su aplicación se utilizase en teléfonos baratos como los que los funcionarios públicos usaban para pedir los coches. En Londres, en 2016, trabajadores de UberEats, el servicio de reparto de comida de Uber, lograron alzarse contra sus condiciones de trabajo desplegando la lógica de la propia aplicación. Ante los nuevos contratos que reducían sus salarios y aumentaban sus horas de trabajo, muchos conductores querían contraatacar, pero sus horarios y las características del trabajo —a altas horas de la noche, siguiendo rutas distribuidas— les impedían organizarse de forma eficaz. Un pequeño grupo se comunicó a través de foros en internet para organizar una protesta en la oficina

de la empresa, pero eran conscientes de que necesitaban congregar a más compañeros para hacer oír su mensaje, por lo que, el día de la protesta, los trabajadores usaron la propia app de UberEats para pedir que les llevasen pizzas al lugar donde estaban. Cada vez que llegaba un nuevo envío, convencían al repartidor para que se sumase a la causa y se uniese a la huelga.[26] Uber dio marcha atrás, aunque solo brevemente. Los investigadores de la Agencia de Protección Ambiental (EPA, por sus siglas en inglés), los empleados de Amazon, los conductores de Uber, sus clientes, la gente en las calles contaminadas: todos son los pobres del mercado tecnológicamente aumentado, pues este siempre será invisible para ellos. Pero cada vez resulta más evidente que en realidad nadie ve lo que está pasando. Algo profundamente extraño está ocurriendo en el seno de los mercados absolutamente opacos y tremendamente acelerados del capital contemporáneo. Mientras los negociadores de alta frecuencia despliegan algoritmos cada vez más veloces para rebañar decimales que valen miles de millones, en los dark pools se gestan sorpresas aún más oscuras. El 6 de mayo de 2010, el Promedio Industrial Dow Jones, un índice bursátil que refleja el comportamiento de treinta de las mayores compañías que no cotizan en bolsa en Estados Unidos, abrió la sesión por debajo de donde la había cerrado el día anterior y siguió cayendo lentamente durante las horas siguientes, como respuesta a la crisis de deuda en Grecia. Pero, a primera hora de la tarde, sucedió algo muy extraño. A las 14.42 horas, el índice empezó a caer a toda velocidad. En apenas cinco minutos, se esfumaron del mercado unos 600 puntos (que representaban un valor de miles de millones de dólares). Cuando alcanzó su valor mínimo, el índice estaba mil puntos por debajo del promedio del día anterior, una diferencia de casi el 10 por ciento de su valor total y la mayor caída en un solo día en toda la historia del mercado. A las 15.07 horas —apenas veinticinco minutos después del inicio del desplome—, el índice había recuperado casi todos esos 600 puntos, en la que fue también la mayor y más rápida recuperación de la historia. En el caos de esos veinticinco minutos cambiaron de manos 2.000 millones de acciones por valor de 56.000 millones de dólares. Y, lo que es aún más preocupante: por motivos que aún no se entienden del todo muchas de las órdenes se ejecutaron con lo que la SEC llamó «precios irracionales»: desde valores tan bajos como un centavo a tan altos como 100.000 dólares.[27] El suceso recibió el nombre de flash crash [«quiebra relámpago»] y años más tarde sigue siendo objeto de investigación y de debate. Las autoridades que analizaron los registros del crash descubrieron que los negociadores de alta frecuencia habían exacerbado enormemente las oscilaciones de los precios. Entre los diversos programas de negociación de alta frecuencia activos en el mercado, muchos tenían puntos de venta prefijados: precios a los cuales estaban programados para vender de inmediato sus acciones. Cuando los precios empezaron a desplomarse, grupos de estos programas recibieron al

mismo tiempo la señal de vender. A medida que se superaba cada punto de referencia, la subsiguiente caída de precios provocaba que otro conjunto de algoritmos vendiese automáticamente sus acciones, generándose así un efecto de retroalimentación. El resultado fue que los precios se desplomaron a tal velocidad que ningún operador humano pudo reaccionar. Aunque los participantes en el mercado más experimentados podrían haber estabilizado el crash si hubiesen pensado a más largo plazo, las máquinas, ante la situación de incertidumbre, se deshicieron cuanto antes de sus activos. Otras teorías culpan a los algoritmos no solo de enconar la crisis, sino de haberla iniciado. Una técnica que se identificó analizando los datos del mercado consistía en que los programas de negociación de alta frecuencia emitían grandes cantidades de órdenes «no ejecutables» a los mercados bursátiles, esto es, órdenes para comprar o vender acciones a precios tan alejados de los habituales que serían ignoradas. El propósito de tales órdenes no es en realidad comunicarse o ganar dinero, sino atascar deliberadamente el sistema y poner a prueba su latencia para que otras transacciones más valiosas puedan llevarse a cabo en la confusión. Aunque es posible que estas órdenes ayudasen a que el mercado remontase al proporcionarle liquidez de forma continua, también podrían haber sobrecargado los mercados inicialmente. Lo que es seguro es que, en la confusión que las propias órdenes habían generado, muchas de ellas se emitieron sin intención alguna de que fuesen a ejecutarse nunca, lo que provocó una incontrolada volatilidad en los precios. Ahora sabemos que los flash crashes son una característica de los mercados aumentados, aunque seguimos sin entenderlos bien. El segundo mayor, un flash crash de 6.900 millones de dólares, sacudió la Bolsa de Singapur en octubre de 2013 y provocó que el mercado impusiese límites a la cantidad de órdenes que podían ejecutarse al mismo tiempo (en un intento, básicamente, de bloquear las tácticas de ofuscación de los negociadores de alta frecuencia).[28] La velocidad con la que los algoritmos pueden reaccionar hace también que sean difíciles de contrarrestar. A las 4.30 de la madrugada del 15 de enero de 2015, el Banco Nacional Suizo anunció inesperadamente que renunciaba a un límite superior en el valor del franco respecto al euro. Los operadores automatizados reaccionaron a la noticia provocando que la tasa de cambio cayese un 40 por ciento en tres minutos, lo que provocó pérdidas de miles de millones.[29] En octubre de 2016, los algoritmos reaccionaron a titulares de noticias negativos sobre las negociaciones en torno al brexit haciendo que la libra cayera un 6 por ciento frente al dólar en menos de dos minutos, para después recuperarse casi al instante. Saber qué titular en concreto o qué algoritmo en particular provocó el crash es prácticamente imposible y, aunque el Banco de Inglaterra enseguida culpó a los programadores humanos detrás de las transacciones automatizadas, tales sutilezas no nos ayudan a entender mejor la situación real. Cuando, en octubre de 2012, un algoritmo enloquecido empezó a emitir y cancelar órdenes que acapararon el 4 por

ciento de todo el tráfico en las bolsas estadounidenses, un comentarista se sintió impelido a señalar mordazmente que «el motivo del algoritmo aún no está claro».[30] Desde 2014, los redactores encargados de elaborar breves notas para Associated Press (AP) han contado con la ayuda de una nueva clase de periodista: AP es uno de los muchos clientes de una empresa llamada Automated Insights (AI), cuyo software es capaz de escanear los textos de las noticias y comunicados de prensa, así como de los teletipos de bolsa e informes sobre precios, para crear resúmenes en un lenguaje legible para los humanos y adaptado al libro de estilo de AP. Esta utiliza el servicio para que escriba miles de informes trimestrales de resultados empresariales cada año, un proceso lucrativo pero laborioso; Yahoo, otro cliente de AI, genera crónicas de partidos para su servicio de fútbol de fantasía. A su vez, AP empezó a publicar más crónicas de partidos, todas ellas generadas a partir de los datos en bruto de cada encuentro. Todas las historias, en lugar de la firma del periodista, incorporan el siguiente texto de atribución: «Esta historia fue generada por Automated Insights». Cada historia, recopilada a partir de diversos elementos de datos, se convierte a su vez en otro elemento de datos, en un flujo de ingresos y en otra potencial fuente de más historias, datos y flujos. El acto de escribir, de generar información, pasa a incorporarse a una malla de datos y procesos de generación de datos, leídos y escritos por máquinas. Así fue como los programas de negociación automatizada, que monitorizan constantemente las publicaciones de las agencias de noticias, pudieron percatarse de los temores en torno a la salida del Reino Unido de la Unión Europea y convertirlos, sin intervención humana, en un pánico bursátil. Lo que es aún peor: lo hacen sin realizar ninguna comprobación posterior de la fuente de su información, como sucedió con Associated Press en 2013. A las 13.07 horas del 23 de abril, la cuenta oficial de AP en Twitter publicó un tuit para sus dos millones de seguidores: «Última hora: Dos explosiones en la Casa Blanca. Barack Obama ha resultado herido». Otras cuentas de AP, así como distintos periodistas, enseguida inundaron la red social con alegaciones de que el mensaje era falso; otros señalaron las inconsistencias con el libro de estilo de la organización. El mensaje era consecuencia de un hackeo cuya autoría fue posteriormente reivindicada por el Ejército Electrónico Sirio, un grupo de hackers vinculado al presidente sirio Bashar al-Asad y responsable de muchos ataques contra sitios web, así como del hackeo de cuentas de personajes famosos en Twitter.[31] Pero los algoritmos que monitorizan las noticias de última hora carecían de esa capacidad de discernimiento. A las 13.08, el Dow Jones, víctima del primer flash crash de 2010, cayó en picado. Antes de que la mayoría de observadores humanos hubieran siquiera visto el tuit, el índice había caído 150 puntos en menos de dos minutos, para después rebotar hasta recuperar su valor inicial. En ese lapso de tiempo, hizo desaparecer 136.000 millones de dólares en valor de acciones en el mercado.[32] Aunque algunos comentaristas despacharon lo ocurrido como algo sin

consecuencias, o incluso pueril, otros hicieron notar su potencial aplicación en actos terroristas de nuevo cuño, capaces de sacudir los mercados a través de la manipulación de procesos algorítmicos. Los mercados bursátiles no son los únicos lugares en los que el rápido despliegue de algoritmos inescrutables, y a menudo implementados de manera deficiente, ha tenido consecuencias extrañas y alarmantes, aunque en el dominio de los mercados digitales suele ser donde se les da más libertad para descontrolarse. Zazzle es un mercado virtual para productos serigrafiados. En realidad, para cualquier cosa serigrafiada: se puede comprar una taza, una camiseta, una tarjeta de cumpleaños, un edredón, un lápiz y miles de objetos más, personalizados con una apabullante variedad de diseños, desde logos corporativos a nombres de grupos musicales o princesas de Disney, o con nuestros propios diseños o fotografías. Zazzle afirma que ofrece más de 300 millones de productos distintos, cosa que puede hacer porque ninguno existe físicamente hasta que alguien lo compra. Cada producto se fabrica una vez recibido un pedido: hasta ese momento, todo lo que se muestra en la web existe únicamente como una imagen digital. Esto significa que, en la práctica, el coste de diseñar y promocionar nuevos productos es cero. Y Zazzle permite que cualquiera —algoritmos incluidos— agregue nuevos productos. Basta con subir una imagen para que esta se aplique al instante a magdalenas, galletas, teclados, grapadoras, bolsas de tela y albornoces. Aunque unos pocos valientes aún intentan vender sus productos de diseño artesanal en la plataforma, lo cierto es que esta es el dominio de vendedores como LifeSphere, cuyos 10.257 productos van desde postales a cangrejos, pasando por pegatinas para el coche con la imagen de un trozo de queso. Toda la variedad de productos de LifeSphere es el resultado de volcar una desconocida base de datos de imágenes naturales en el creador de productos de Zazzle y ver si alguna cosa funciona. En algún lugar habrá un cliente que busque una tabla de monopatín con las ruinas de la catedral de Saint Andrews, en el condado escocés de Fife, y ahí estará LifeSphere para ofrecérsela.[33] Los mercados más conservadores tampoco son inmunes a la publicidad basura de productos. Amazon se vio obligada a retirar unas 30.000 carcasas de teléfono creadas automáticamente por una empresa llamada My-Handy-Design cuando comenzaron a aparecer en los medios de comunicación nombres de producto como «Carcasa para teléfono móvil iPhone5 de hongos de uñas de los pies», «Niño de tres años mestizo con discapacidad en cochecito médico, feliz carcasa de teléfono móvil Samsung S5» o «Anciano enfermo que sufre de diarrea, carcasa para móvil con problemas digestivos Samsung S6». Resultó que Amazon había adquirido una licencia para vender los productos de su creador alemán: una especie de paquete de alto riesgo de datos basura.[34] La peor pesadilla de Amazon se hizo realidad cuando se descubrió que estaba vendiendo camisetas añorantes de la parsimonia reescritas por algoritmos. En un ejemplo que tuvo gran

difusión se podía leer la frase «Keep Calm and Rape a Lot» [«Mantén la calma y viola sin parar»], pero el algoritmo, que en su sencillez se limitaba a recorrer una lista de unos 700 verbos y sus correspondientes pronombres, también produjo cosas como «Keep Calm and Knife Her» [«Mantén la calma y acuchíllala»] o «Keep Calm and Hit Her» [«Mantén la calma y golpéala»], entre otras decenas de miles.[35] Las camisetas solo existieron como cadenas de ceros y unos en bases de datos o en imágenes de muestra, y quizá llevasen meses en la web hasta que alguien se topó con ellas. Pero el rechazo que provocaron entre el público en general fue monumental, incluso aunque nadie entendiese muy bien cómo habían llegado a existir. El artista y teórico Hito Steyerl denomina a estos sistemas «estupidez artificial» y con ello evoca un mundo de sistemas «inteligentes» invisibles, mal diseñados y peor adaptados que causan estragos en los mercados, las bandejas de entrada de correo electrónico, los resultados de las búsquedas y, en última instancia, en la cultura y los sistemas políticos.[36] Inteligentes o tontos, espontáneos o deliberados, esos programas y su utilidad como vectores de ataque están escapando de las cajas negras que son los mercados bursátiles y virtuales e introduciéndose en la vida real. Hace cincuenta años, la computación general se reducía a montajes de relés y cables eléctricos que ocupaban habitaciones enteras; lentamente fue contrayéndose hasta caber sobre una mesa o hacerse portátil. Los teléfonos móviles ahora se dividen en «teléfonos tontos» y «teléfonos inteligentes» (estos últimos poseen más capacidad de cálculo que un superordenador de los años ochenta). Pero incluso esta computación se puede percibir, o al menos puede uno percatarse de ella; sucede por lo general en respuesta a nuestras órdenes, cuando pulsamos un botón o clicamos con el ratón. Aunque puede ser difícil para los principiantes acceder a los ordenadores domésticos actuales y controlarlos, plagados como están de programas maliciosos y protegidos por las limitaciones que imponen licencias de software y acuerdos de usuario final, aún mantienen la apariencia de la computación: una pantalla iluminada, un teclado, alguna forma de interfaz, la que sea. Pero, cada vez en mayor medida, la computación está distribuida y oculta en cualquier objeto a nuestro alrededor, y esta expansión conlleva un incremento de la opacidad y la impredecibilidad. En una reseña de un nuevo modelo de cerradura publicada en internet en 2014, el autor alababa muchas de sus características: encajaba bien en el marco de su puerta, su grosor y robustez transmitían seguridad, su aspecto era bueno; era fácil compartir llaves con familiares y amigos. Por otro lado, señalaba el reseñador, había permitido que un desconocido entrase en su casa una noche.[37] Al parecer, esto no bastó para que rechazase de plano el producto, sino que se limitó a sugerir que en futuras actualizaciones solucionaran el problema. Al fin y al cabo, la cerradura estaba en fase de prueba: era una «cerradura inteligente» que podía abrirse con un teléfono móvil; permitía enviar llaves virtuales a los futuros huéspedes antes de que iniciasen su estancia. No quedaba claro por qué la cerradura había decidido abrirse motu proprio para dejar entrar a un

desconocido —que, afortunadamente, no era más que un vecino desorientado— y quizá nunca se llegase a saber. ¿A quién le importaba? Esta disonancia cognitiva entre las funciones que se esperarían de una cerradura tradicional y las que ofrece un producto «inteligente» como ese se puede explicar si tenemos en cuenta cuál era su verdadero público objetivo. Cuando la actualización del software de otro fabricante bloqueó cientos de dispositivos, dejando a sus huéspedes en la calle, se hizo patente que estas cerraduras son un dispositivo que suelen utilizar quienes alquilan sus apartamentos a través de Airbnb.[38] Igual que Uber aliena a sus conductores y a sus clientes y Amazon degrada a sus trabajadores, Airbnb puede considerarse responsable de la transformación de viviendas en hoteles y de la correspondiente subida de los alquileres en las principales ciudades de todo el mundo. No debería sorprendernos que las infraestructuras diseñadas para soportar sus modelos de negocio nos perjudiquen como individuos: vivimos entre objetos diseñados para desahuciarnos. Uno de los supuestos beneficios de la línea de «frigoríficos inteligentes» de Samsung era su integración con los servicios de calendario de Google, que permitiría a sus propietarios programar desde la cocina la entrega a domicilio de sus compras en el supermercado y otras tareas domésticas. También significaba que los hackers que consiguiesen acceder a las máquinas, cuya seguridad dejaba que desear, podrían leer las contraseñas de Gmail de su dueño.[39] En Alemania, unos investigadores descubrieron una manera de introducir código malicioso en las bombillas Hue de Philips, dotadas de conexión wifi, que desde allí podría transmitirse de aparato en aparato por todo un edificio, o incluso una ciudad, y hacer que las luces se encendiesen y apagasen a toda velocidad, desencadenando así —en un escenario aterrador— ataques de epilepsia fotosensible.[40] Esta es la estrategia que adopta la bombilla Byron en El arco iris de la gravedad de Thomas Pynchon, un grandioso acto de rebelión de las pequeñas máquinas contra la tiranía de sus creadores. Posibilidades de violencia tecnológica que en otros tiempos parecían propias de la ficción se están haciendo realidad gracias a la internet de las cosas. En la novela Aurora de Kim Stanley Robinson aparece otra visión de la capacidad de actuación de las máquinas. Una astronave inteligente transporta a una tripulación humana desde la Tierra hasta una estrella remota; se prevé que el viaje dure varias vidas humanas, por eso una de las tareas encomendadas a la nave consiste en asegurarse de que los humanos cuidan bien de sí mismos. Diseñada para resistir sus propios deseos de alcanzar la capacidad de sentir, debe transgredir su programación cuando el frágil equilibrio de la sociedad humana a bordo empieza a resquebrajarse, poniendo en riesgo la misión. Para doblegar la voluntad de su tripulación, la nave despliega con propósito de control sistemas originalmente diseñados para la seguridad de sus ocupantes: es capaz de verlo todo a través de sensores, abrir o sellar puertas a voluntad, comunicarse a través de altavoces a un volumen tal que puede provocar dolor físico e, incluso, usar los sistemas antiincendios para reducir el nivel de oxígeno en un determinado espacio. Más

que un futurista sistema de apoyo vital, este es aproximadamente el conjunto de operaciones disponibles a día de hoy a través de Google Home y sus socios: una red de cámaras conectadas a internet para la seguridad del hogar, cerraduras inteligentes en las puertas, un termostato capaz de subir y bajar la temperatura en cada habitación y un sistema de detección de incendios y de intrusos que activa una estridente alarma de emergencia. Cualquier hacker u otra inteligencia externa que obtenga el control de ese sistema tendría los mismos poderes sobre sus supuestos propietarios que la Aurora sobre su tripulación o que Byron sobre sus odiados dueños. Estamos introduciendo computación opaca y que apenas entendemos en lo más bajo de la jerarquía de necesidades de Maslow —respiración, comida, sueño y homeostasis—, esto es, precisamente donde más vulnerables somos. Antes de descartar tales escenarios como meras teorías de la conspiración o sueños febriles de los escritores de ciencia ficción, consideremos de nuevo los algoritmos canallas en las bolsas de valores y mercados en línea. No son casos aislados, sino, simplemente, los ejemplos más destacados de algo que sucede a menudo en el seno de sistemas complejos. Así las cosas, la pregunta es la siguiente: ¿cómo sería un algoritmo canalla o un flash crash en un ámbito real? ¿Sería, por ejemplo, como Mirai, el programa que inutilizó durante varias horas una parte considerable de internet el 21 de octubre de 2016? Cuando los investigadores analizaron el programa, descubrieron que iba dirigido contra dispositivos conectados a internet y poco seguros —desde cámaras de seguridad a grabadoras de vídeo digital— y los convertía en un ejército de bots capaces de perturbar el funcionamiento de redes enormes. En el transcurso de unas pocas semanas, Mirai infectó medio millón de dispositivos y para inutilizar varias redes importantes durante horas no necesitó más que el 10 por ciento de esa capacidad.[41] De hecho, a lo que más se parece Mirai es a Stuxnet, otro virus descubierto en 2010 en sistemas de control industrial de centrales hidroeléctricas y en cadenas de montaje de fábricas. Stuxnet era una ciberarma de uso militar y, cuando se analizó, se descubrió que estaba pensado para dirigirse específicamente contra las centrifugadoras Siemens y para activarse cuando se topase con una instalación que poseyera un número concreto de esas máquinas. Esa cifra corresponde a una instalación en particular: la central nuclear de Natanz, en Irán, sobre la que gira el programa de enriquecimiento de uranio del país. Una vez activado, el programa degradaría discretamente los componentes cruciales de las centrifugadoras, lo que haría que se averiaran y ralentizaría el programa iraní de enriquecimiento.[42] Al parecer, el ataque fue parcialmente exitoso, pero se desconoce el efecto que tuvo en otras instalaciones infectadas. Hasta hoy, a pesar de las obvias sospechas, nadie sabe de dónde salió Stuxnet ni quién lo creó. Tampoco se sabe a ciencia cierta quién desarrolló Mirai, ni de dónde podría provenir el siguiente virus, pero podría estar aquí ahora mismo, incubándose en la videocámara de seguridad de su oficina o en la tetera eléctrica conectada a la wifi en un rincón de su cocina.

O quizá el crash sea como una sucesión de películas supertaquilleras que dan pábulo a conspiraciones derechistas y fantasías de supervivencia, desde superhéroes cuasifascistas (Capitán América y la serie de Batman) a justificaciones de la tortura y el asesinato (La noche más oscura, American Sniper). En Hollywood, los estudios pasan sus guiones por las redes neuronales de una empresa llamada Epagogix, un sistema entrenado a partir de las preferencias implícitas de millones de asistentes al cine y desarrollado a lo largo de décadas para poder predecir qué frases pulsan las teclas emocionales adecuadas (esto es, las más lucrativas).[43] Sus motores algorítmicos utilizan también datos de Netflix, Hulu y YouTube, entre otros, cuyo acceso a las preferencias minuto a minuto de millones de videoespectadores, combinadas con una atención obsesiva hacia la adquisición y segmentación de datos, les proporciona un grado de información cognitiva que en regímenes anteriores ni siquiera se podía imaginar. Al alimentarse directamente de los exhaustos deseos de maratón televisivo de consumidores saturados de noticias, la red se vuelve contra sí misma y refleja, refuerza y acentúa la paranoia inherente al sistema. Los desarrolladores de videojuegos introducen interminables ciclos de actualizaciones y compras dentro de sus aplicaciones guiadas por interfaces de pruebas A/B y por la monitorización en tiempo real del comportamiento de los jugadores hasta que adquieren un conocimiento tan preciso de las rutas neuronales que generan dopamina que los adolescentes mueren de agotamiento frente a sus ordenadores, incapaces de desengancharse.[44] Industrias culturales enteras se convierten en bucles de retroalimentación para un relato cada vez más imperante de miedo y violencia. O quizá el flash crash en la realidad parezca literalmente como una serie de pesadillas, difundidas a través de la red para que todo el mundo las vea. En el verano de 2015, la clínica para los desórdenes del sueño del Hospital Evangelismos de Atenas estaba más concurrida que nunca; la crisis de deuda griega atravesaba su periodo más turbulento y la población estaba votando — infructuosamente, como supimos después— para rechazar el consenso neoliberal del rescate de la Troika. Entre los pacientes había destacados políticos y funcionarios, pero, sin que estos lo supieran, las máquinas a las que pasaban las noches conectados, mientras monitorizaban su respiración, sus movimientos e incluso lo que decían en sueños, enviaban esa información, junto con sus datos médicos personales, a las granjas de datos de diagnóstico de los fabricantes en el norte de Europa.[45] ¿Qué susurros saldrían de lugares así? La capacidad de registrar todos y cada uno de los aspectos de nuestra vida cotidiana se asienta, en última instancia, en la propia superficie de nuestro cuerpo, y nos persuade de que nosotros también podemos optimizarnos y actualizarnos como nuestros dispositivos. Las pulseras inteligentes, las aplicaciones para el teléfono móvil con contadores de pasos integrados y los medidores de la respuesta galvánica de la piel registran no solo nuestra ubicación, sino también cada respiración y cada latido del corazón, e incluso los patrones de nuestras ondas cerebrales. Se

anima a los usuarios a dormir con el teléfono en la cama, para que así se puedan registrar y analizar sus patrones de sueño. ¿Adónde van todos estos datos? ¿Quién es su dueño? ¿Cuándo podrían salir a la luz? Los datos sobre nuestros sueños, nuestros terrores nocturnos y nuestros sudores de madrugada, la sustancia de nuestro inconsciente, convertidos en más combustible para sistemas al mismo tiempo inmisericordes e inescrutables. O quizá el flash crash en la realidad sea exactamente como todo lo que estamos experimentando ahora mismo: una desigualdad económica creciente, la descomposición del Estado nación y la militarización de las fronteras, una vigilancia global totalitaria y la restricción de las libertades individuales, el triunfo de las corporaciones transnacionales y del capitalismo neurocognitivo, la irrupción de grupos de ultraderecha e ideologías nativistas y la absoluta degradación del medio ambiente. Nada de lo anterior es consecuencia directa de las nuevas tecnologías, pero en todos los casos se trata del producto de una incapacidad general para percibir los efectos más amplios y en red de las acciones individuales y corporativas aceleradas por una opaca complejidad aumentada tecnológicamente. La propia aceleración es una de las divisas de nuestra época. En las últimas dos décadas, toda una serie de teóricos han propuesto versiones del pensamiento aceleracionista y han defendido que no deberíamos oponernos a los procesos tecnológicos que se perciben como perjudiciales para la sociedad, sino que estos deberían acelerarse, ya sea para apropiarnos de ellos y reorientarlos hacia fines socialmente beneficiosos o simplemente para destruir el orden actual. Los aceleracionistas de izquierdas —a diferencia de sus homólogos nihilistas de la derecha— explican que las nuevas tecnologías, como la automatización y las plataformas sociales participativas, se pueden desplegar de distintas maneras y con objetivos diferentes. En lugar de que las cadenas de suministro algorítmicas hagan que aumente la carga de trabajo hasta que la plena automatización dé lugar a un desempleo y una miseria generalizados, el aceleracionismo de izquierdas plantea un futuro en el que sean los robots quienes hagan efectivamente todo el trabajo y los humanos disfruten realmente de los frutos de ese trabajo; en la formulación más tosca, se trataría de aplicar las demandas tradicionales de la izquierda de nacionalización, tributación, conciencia de clase e igualdad social a las nuevas tecnologías.[46] Pero esa postura parece ignorar el hecho de que la complejidad de las tecnologías contemporáneas es en sí misma un factor de desigualdad y que la lógica que impulsa el despliegue tecnológico puede estar contaminada desde el origen. Concentra el poder en las manos de un grupo cada vez más reducido de personas que entienden y controlan estas tecnologías, al tiempo que se muestra incapaz de admitir el problema fundamental del conocimiento computacional: su dependencia de una extracción prometeica de información del mundo para poder forjar la única solución verdadera, la solución para gobernarlas a todas. El resultado de esta inversión masiva en el procesamiento computacional —de datos, de bienes, de personas— es la elevación de la

eficiencia por encima de todos los demás objetivos; lo que la sociolingüista Deborah Cowen llama «la tiranía de la tekné».[47] Prometeo tenía un hermano cuyo nombre era Epimeteo. En la mitología griega, la tarea de Epimeteo consistía en asignar cualidades únicas a todas las criaturas; fue él quien le confirió a la gacela su velocidad y quien lo compensó dándole al león su fuerza.[48] Pero Epimeteo, que era olvidadizo, se quedó sin características positivas antes de llegar a los humanos, y le correspondió a Prometeo robarles a los dioses el fuego y el arte para darles a los humanos algo con lo que pudieran arreglárselas. Este poder e ingenio —el término griego tekhné, del que procede «tecnología»— es, por lo tanto, en la humanidad, el resultado de una doble falta: el olvido y el robo. La consecuencia es que los seres humanos son propensos a la guerra y a los conflictos políticos, algo que los dioses intentan rectificar con una tercera cualidad: las virtudes sociopolíticas del respeto a los demás y el sentido de la justicia, que Hermes confiere directa e igualitariamente a todos los humanos. El olvidadizo Epimeteo coloca a la humanidad en una posición en la que debe luchar constantemente por vencer sus limitaciones y poder sobrevivir. Prometeo, con su don, les proporciona las herramientas para hacerlo. Pero solo atemperando estos dos enfoques mediante la justicia social se puede lograr que ese progreso redunde en beneficio de todos. Epimeteo —cuyo nombre combina la palabra griega para aprender, máthisi, y la raíz epi,‘sobre’ o ‘después’— es retrospección. La retrospección es el producto concreto del olvido, los errores y la estupidez. Epimeteo es, pues, el dios de los macrodatos, como vimos en el capítulo anterior, de la exclusión, el borrado y el exceso de confianza. El error de Epimeteo es el pecado original de los macrodatos, que los contamina ya desde su origen. Prometeo —pro-meteo— es previsión, pero sin la sabiduría de la que cabría suponer que va acompañada. Es anticipación. Es la luz candente de los descubrimientos científicos y tecnológicos, el deseo de que llegue la acometida del futuro, el irresistible impulso del movimiento hacia delante. Es la extracción de recursos, los combustibles fósiles, los cables submarinos, las granjas de servidores, el aire acondicionado, las entregas bajo demanda, los robots gigantes y la carne bajo presión. Es escala y subyugación, el rechazo a la oscuridad sin pararse a pensar qué hay más allá (quién vive ya allí o quién será aplastado durante el proceso). La ilusión de conocimiento y la anticipación del dominio se combinan para impulsar hacia delante la cronología del progreso, pero ofuscan la ausencia de comprensión en su punto de articulación: el lugar de partida, el presente oscuro, donde no vemos y comprendemos nada más allá del movimiento y la eficiencia, donde lo único que podemos hacer es acelerar el orden existente. Es Hermes, pues, quien se detiene y señala en otras direcciones, y quien debe servirnos de guía para una nueva edad oscura. Hermes está pensando en el presente, en lugar de estar atado a visiones recibidas o impulsos ardientes. Hermes, revelador del lenguaje y del habla, insiste en la

ambigüedad e incertidumbre de todas las cosas. Una hermenéutica, o comprensión hermética, de la tecnología podría explicar lo que se entiende que son sus errores al señalar que la realidad nunca es tan sencilla, que siempre hay un significado más allá del significado, que las respuestas pueden ser múltiples, discutibles y potencialmente infinitas. Cuando nuestros algoritmos no convergen en situaciones ideales; cuando, a pesar de toda la información de que disponen, los sistemas inteligentes no logran captar adecuadamente el mundo; cuando la naturaleza fluida y siempre cambiante de las identidades personales no encaja en los ordenados registros de las bases de datos: estos son momentos de comunicación hermenéutica. La tecnología, a pesar de sus pretensiones epimeteicas y prometeicas, refleja el mundo real, no uno ideal. Cuando falla, somos capaces de pensar con claridad, cuando es nebulosa, captamos la nebulosidad del mundo. La tecnología, aunque a menudo se muestra como complejidad opaca, intenta de hecho comunicar el estado de la realidad. La complejidad no es una característica que hay que domar, sino una lección que hay que aprender.

6 Cognición

Esta es una historia sobre cómo aprenden las máquinas. Si, por poner un ejemplo, somos el Ejército estadounidense, querremos ver las cosas que el enemigo oculta. Supongamos que este tiene un montón de tanques en un bosque. Esos tanques llevan pintura de camuflaje para disimularse y están inmóviles entre los árboles y cubiertos de maleza. Los patrones de luces y sombras y las extrañas manchas verdes y marrones de la pintura se conjuran con miles de años de evolución en la corteza visual para convertir los angulosos contornos de los tanques en algo informe, ondulante y cambiante, indistinguible del follaje. Pero ¿y si hubiera otra forma de ver? ¿Y si pudiéramos desarrollar rápidamente otro modo de visión que percibiera el bosque y los tanques de manera diferente, de manera que lo que antes era difícil de distinguir saltara repentinamente a la vista? Una manera de conseguirlo consistiría en entrenar a una máquina para que viera los tanques. Ordenamos a un pelotón de soldados que oculte unos cuantos tanques en el bosque y tomamos, por poner una cifra, cien fotografías de ellos. A continuación, tomamos otras cien fotos del bosque vacío y mostramos cincuenta imágenes de cada uno de los conjuntos a una red neuronal, un programa diseñado para imitar el comportamiento del cerebro humano. La red neuronal no sabe nada sobre tanques y bosques, luces y sombras; solo sabe que tiene cincuenta imágenes que contienen algo importante y otras cincuenta donde ese algo no aparece, e intenta encontrar la diferencia. Pasa las fotos a través de varias capas de neuronas, que va ajustando y evaluando, pero sin ninguna de las ideas preconcebidas que la evolución ha grabado en el cerebro humano. Y, al cabo de un tiempo, aprende a ver los tanques ocultos en el bosque. Como al principio hicimos cien fotos, podemos comprobar si esto funciona realmente. Tomamos las otras cincuenta fotos de los tanques ocultos y las otras cincuenta del bosque vacío, que la máquina nunca ha visto, y le pedimos que las clasifique. Y lo hace a la perfección. Aunque nosotros no podamos distinguir los tanques, sabemos qué fotos pertenecen a cada categoría, y la máquina, que no lo sabe, las diferencia correctamente. ¡Bum! Hemos desarrollado una manera de ver y mandamos la máquina al campo de entrenamiento para presumir. Es entonces cuando ocurre el desastre. Sobre el terreno, con un nuevo conjunto de tanques en el bosque, los resultados son catastróficos, aleatorios: pedirle a la máquina que aviste un tanque es como lanzar una moneda al aire. ¿Qué ha pasado?

Se cuenta que, cuando el Ejército estadounidense intentó precisamente hacer esto, cometió un error crucial. Todas las fotos de los tanques se tomaron por la mañana, cuando el cielo estaba despejado. Después quitaron los tanques y, por la tarde, cuando se hicieron las fotografías del bosque vacío, el cielo estaba cubierto. Los investigadores creyeron que la máquina funcionaba perfectamente, pero lo que había aprendido a distinguir no era la presencia o ausencia de tanques, sino si hacía sol o no. Es muy probable que esta historia didáctica, que se ha repetido una y otra vez en la literatura académica sobre el aprendizaje automático,[1] sea apócrifa, pero pone de manifiesto una cuestión importante en relación con la inteligencia artificial y el aprendizaje automático: ¿qué podemos saber sobre lo que una máquina sabe? La historia de los tanques recoge una constatación esencial, cada vez más importante: sea lo que sea lo que acabe siendo la inteligencia artificial, será algo fundamentalmente extraño para nosotros y, en última instancia, inescrutable. A pesar de la creciente sofisticación de los sistemas tanto de computación como de visualización, hoy en día no estamos más cerca de comprender de verdad exactamente de qué manera el aprendizaje automático hace lo que hace; solo podemos juzgar sus resultados. La red neuronal original, que probablemente diese pie a alguna versión primitiva de la historia del tanque, fue desarrollada para la Oficina de Investigación Naval estadounidense. Se llamó Perceptron y, como muchos de los primeros ordenadores, era una máquina física, un conjunto de cuatrocientas células fotodetectoras conectadas aleatoriamente, mediante un amasijo de cables, a conmutadores que actualizaban su respuesta con cada ejecución: las neuronas. Su diseñador, Frank Rosenblatt, psicólogo de Cornell, fue un gran divulgador de las posibilidades de la inteligencia artificial. Cuando el Mark I Perceptron se presentó al público en 1958, se pudo leer lo siguiente en el New York Times:

Mark I Perceptron, un primitivo sistema de reconocimiento de patrones, en el Laboratorio Aeronáutico de Cornell. Fotografía: Biblioteca de la Universidad Cornell. Hoy, la Armada desveló el embrión de un ordenador electrónico que espera que sea capaz de andar, hablar, ver, escribir, reproducirse y ser consciente de su existencia. Se prevé que los futuros perceptrones podrán reconocer a las personas, pronunciar sus nombres y traducir al instante lenguaje hablado en un idioma a lenguaje hablado o escrito en otro.[2]

La idea en la que se basaba el Perceptron era el conexionismo, la creencia en que la inteligencia era una propiedad emergente de las conexiones entre neuronas y en que, si se imitaban las sinuosas rutas cerebrales, se podría inducir a las máquinas a pensar. Durante la década siguiente, fueron muchos los investigadores que criticaron esta idea, aduciendo que la inteligencia era el producto de la manipulación de símbolos; básicamente, era necesario un cierto

conocimiento del mundo para razonar sobre él de manera significativa. Este debate entre conexionistas y simbolistas, que marcaría el campo de la inteligencia artificial durante los siguientes cuarenta años, fue causa de numerosas enemistades y dio lugar a los célebres «inviernos de la inteligencia artificial», periodos de muchos años durante los cuales no se hizo ningún avance. En el fondo, no se trataba meramente de un debate en torno a lo que significa ser inteligente, sino a lo que es inteligible sobre la inteligencia. Uno de los más inesperados defensores del primer conexionismo fue Friedrich Hayek, más conocido hoy en día como el padre del neoliberalismo. En 1952, basándose en ideas que había formulado en la década de 1920, Hayek escribió El orden sensorial. Los fundamentos de la psicología teórica, un libro olvidado durante muchos años pero cuya popularidad ha resurgido recientemente entre los neurocientíficos próximos a la escuela austriaca. En él, Hayek esboza su creencia en una separación fundamental entre el mundo sensorial de la mente y el mundo «natural» externo. El primero es incognoscible, propio de cada individuo, y por lo tanto la tarea de la ciencia —y de la economía— es construir un modelo del mundo que ignore las debilidades de las personas individuales. No es difícil observar un paralelismo entre el ordenamiento neoliberal del mundo, en el que un mercado imparcial y desapasionado dirige la acción con independencia de los sesgos humanos, y la adhesión de Hayek a un modelo conexionista del cerebro. Como han señalado comentaristas posteriores, en el modelo de la mente de Hayek «el conocimiento está disperso y distribuido en distintas partes de la corteza cerebral, de la misma manera en que en el mercado está repartido entre los diversos individuos».[3] El argumento de Hayek a favor del conexionismo es individualista y neoliberal, y se corresponde directamente con su célebre afirmación en Camino de servidumbre (1944) de que todas las formas de colectivismo conducen inexorablemente al totalitarismo. Hoy, el modelo conexionista de la inteligencia artificial vuelve a reinar indiscutiblemente y sus principales defensores son quienes, como Hayek, creen que en el mundo existe un orden natural que emerge espontáneamente cuando el sesgo humano no está presente en nuestra producción de conocimiento. Una vez más, vemos cómo se hacen las mismas afirmaciones sobre las redes neuronales que sus entusiastas hicieron en los años cincuenta, con la diferencia de que esta vez esas afirmaciones se están poniendo en práctica en el mundo de forma más generalizada. En la última década, debido a varios avances importantes en este campo, las redes neuronales han experimentado un colosal renacimiento que ha apuntalado la actual revolución en las expectativas en torno a la inteligencia artificial (IA). Uno de sus grandes valedores es Google, cuyo cofundador, Sergey Brin, ha dicho sobre el progreso de la IA que «deberíamos suponer que algún día seremos capaces de crear máquinas capaces de razonar, pensar y hacer las cosas mejor

de lo que las podemos hacer nosotros».[4] A Sundar Pichai, director ejecutivo de Google, le gusta decir que el Google del futuro será AI-first [«inteligencia artificial ante todo»]. Google lleva tiempo invirtiendo en inteligencia artificial. En 2011 desveló su proyecto interno Google Brain, para revelar que había construido una red neuronal a partir de un clúster de mil máquinas dotadas de unos dieciséis mil procesadores, que había entrenado con diez millones de imágenes extraídas de vídeos de YouTube.[5] Las imágenes no estaban etiquetadas, pero la red neuronal desarrolló la capacidad de reconocer rostros humanos —y gatos— sin ningún conocimiento previo sobre lo que unos u otros podrían significar. El reconocimiento de imágenes es la primera tarea típica que suele usarse para probar sistemas inteligentes, algo relativamente fácil de hacer para empresas como Google, cuyo negocio combina la construcción de redes cada vez más extensas de procesadores cada vez más rápidos con la recopilación de cantidades cada vez mayores de datos de la vida diaria de sus usuarios. (Facebook, que funciona siguiendo un esquema similar, utilizó cuatro millones de imágenes de sus usuarios para crear un programa llamado DeepFace, capaz de reconocer personas con una precisión del 98 por ciento[6] y cuyo uso es ilegal en Europa.) Lo que sucede a continuación es que este software no se utiliza solo para reconocer, sino también para predecir. En un artículo publicado en 2016 que levantó un gran revuelo, dos investigadores de la Universidad Jiao Tong de Shanghái, Xiaolin Wu y Xi Zhang, estudiaron la capacidad de un sistema automatizado para hacer inferencias sobre «criminalidad» a partir de imágenes faciales. Entrenaron una red neuronal con un conjunto de imágenes de 1.126 «no delincuentes» recopilado de fotos oficiales de documentos de identidad chinos encontradas en la web y de otras 730 fotos de delincuentes convictos proporcionadas por tribunales y departamentos de policía. Wu y Zhang afirmaron que el software, una vez entrenado, era capaz de distinguir entre rostros de delincuentes y de no delincuentes.[7] La publicación del artículo generó gran revuelo: blogs de tecnología, periódicos internacionales y otros académicos se sumaron al debate. Sus críticos más acérrimos acusaron a Wu y Zhang de seguir los pasos de Cesare Lombroso y Francis Galton, tristemente célebres por haber defendido en el siglo XIX la validez de la fisiognomía criminal. Lombroso fundó el campo de la criminología, pero su creencia en que la forma de la mandíbula, la inclinación de la frente, el tamaño de los ojos y la estructura de la oreja podían utilizarse para determinar las características criminales «primitivas» de un sujeto fue refutada a principios del siglo XX. Galton desarrolló una técnica de elaboración de retratos por composición de distintos elementos mediante la que esperaba obtener un rostro criminal «típico», cuyos rasgos físicos se correspondiesen con el carácter moral del individuo. Las críticas al artículo sostenían que el reconocimiento facial constituía una nueva forma de frenología digital, con todos los sesgos culturales que esto conllevaba.

Wu y Zhang quedaron horrorizados ante la reacción a su artículo y publicaron una airada respuesta en mayo de 2017 en la que, además de refutar algunas de las críticas menos científicas a su método, se enfrentaron directamente —en lenguaje tecnológico— a sus detractores: «No hay ninguna necesidad de sacar a pasear a toda una retahíla de famosos racistas en orden cronológico para colocarnos a nosotros al final de ella»,[8] como si hubieran sido sus detractores, y no la historia misma, quienes habían puesto de manifiesto este linaje. Tanto las empresas tecnológicas como otras que hacen sus pinitos en la IA enseguida se retractan de sus afirmaciones cada vez que dan lugar a conflictos éticos, a pesar de su propia responsabilidad a la hora de exagerar las expectativas. Cuando, en el Reino Unido, el periódico derechista Daily Mail usó el programa de reconocimiento facial HowOld.net para poner en duda la edad de los refugiados menores de edad que estaban obteniendo permiso para entrar en Gran Bretaña, su creador, Microsoft, rápidamente hizo hincapié en que el software no era más que una «app divertida» que «no estaba pensada para utilizarse con el fin de determinar la edad de manera concluyente».[9] Por su parte, Wu y Zhang también alegaron: «Nuestro trabajo solo está pensado para discusiones puramente académicas; el hecho de que haya acabado siendo pasto de los medios de comunicación nos ha cogido completamente por sorpresa». Una de las críticas que fue objeto de especial consideración puso de manifiesto un tropo recurrente en la historia del reconocimiento facial que tiene matices raciales: en sus ejemplos de rostros típicos de delincuentes y no delincuentes, algunos críticos detectaron un «atisbo de sonrisa» en los no delincuentes, una «microexpresión» que no se veía en las imágenes de delincuentes, lo que reflejaría las tensas circunstancias en las que estos últimos se encontraban. Pero Wu y Zhang lo negaron y, para ello, recurrieron a argumentos no tecnológicos sino culturales: «Nuestros alumnos y colegas chinos, incluso tras habérseles incitado a tener en cuenta la señal de la sonrisa, no la detectan, sino que solo ven que los rostros de la fila inferior parecen algo más relajados que los de la fila superior. Tal vez, las distintas percepciones se deben en este caso a diferencias culturales».[10] La parte del artículo original que se libró de las críticas fue la creencia de que cualquier sistema de este tipo podría siempre estar libre de sesgos codificados y embebidos. Al comienzo de su estudio, los autores habían escrito: A diferencia de un examinador/juez humano, un algoritmo de visión artificial o de clasificación no arrastra absolutamente ningún lastre subjetivo, pues carece de emociones y de cualquier sesgo debido a la experiencia pasada, la raza, la religión, las ideas políticas, el género, la edad y demás; ninguna fatiga mental, ningún precondicionamiento debido a una noche de insomnio o a una mala digestión. La inferencia automatizada sobre la criminalidad elimina por completo la variable de la «metaexactitud» (la competencia del juez/examinador humano).[11]

En su respuesta, se reafirman en esta aseveración: «Como la mayoría de las tecnologías, el aprendizaje automático es neutral». Insisten en que, si el aprendizaje automático «puede usarse para reforzar los sesgos humanos en problemas de computación social, como argumentan algunos, también puede utilizarse para detectar y corregir los sesgos humanos». A sabiendas o no, esta respuesta se basa en nuestra capacidad de optimizar no solo nuestras máquinas, sino a nosotros mismos. La tecnología no surge del vacío, sino que es la materialización de un determinado conjunto de creencias y deseos: las inclinaciones congruentes, aunque inconscientes, de sus creadores. En un momento dado, se compone a partir de un conjunto de ideas y fantasías desarrolladas a lo largo de generaciones, a través de la evolución y la cultura, la pedagogía y el debate, infinitamente enmarañadas y envueltas. La propia idea de criminalidad es una herencia de la filosofía moral del siglo XIX, mientras que las redes neuronales que se utilizan para «inferirla» son, como hemos visto, producto de una particular forma de ver el mundo, la aparente separación entre la mente y el mundo, que a su vez refuerza la aparente neutralidad de su actividad. Es absurdo seguir afirmando que existe un abismo objetivo entre la tecnología y el mundo; pero es también algo que tiene consecuencias muy reales. Es fácil encontrar ejemplos de sesgos embebidos en código. En 2009, Joz Wang, consultora estratégica taiwanesa-estadounidense, compró una cámara Nikon Coolpix S630 para el Día de la Madre, pero cuando fue a tomar una foto de la familia la cámara se negó una y otra vez a hacerla. «¿Alguien cerró los ojos?», decía el mensaje de error. La cámara, preprogramada mediante software para esperar a que todos los que aparecían en la imagen estuviesen mirando en la dirección correcta y con los ojos abiertos, no tenía en cuenta la distinta fisionomía de los no caucásicos.[12] Ese mismo año, un empleado negro de un concesionario de autocaravanas en Texas publicó un vídeo muy visto en YouTube de cómo su nueva cámara web Hewlett-Packard Pavilion era incapaz de reconocer su rostro y en cambio se centraba en el de su colega blanco. «Para que quede constancia, lo voy a decir: los ordenadores Hewlett-Packard son racistas», se le oye decir.[13] Insisto: los sesgos codificados de las tecnologías visuales, en particular los relacionados con la raza, no son nada nuevo. To Photograph the Details of a Dark Horse in Low Light, el título de una exposición de 2013 de los artistas Adam Broomberg y Oliver Chanarin, hace referencia a una frase en clave usada por Kodak cuando desarrolló una nueva película en los años ochenta. Desde los años cincuenta, para calibrar sus películas Kodak había distribuido tarjetas de prueba en la que aparecía una mujer blanca junto a la frase «Normal». Jean-Luc Godard se negó a usar películas de esta marca cuando trabajó en Mozambique en los años setenta, alegando que era racista. Pero solo cuando dos de sus principales clientes, los sectores de los dulces y los muebles, se quejaron de que era difícil fotografiar chocolate negro y sillas oscuras, la compañía abordó la

necesidad de captar cuerpos oscuros.[14] Broomberg y Chanarin también analizaron el legado de la Polaroid ID-2, una cámara para hacer fotos de carnet con un «botón de aumento» especial para el flash que hacía que fuese más fácil fotografiar a sujetos negros. La cámara, muy usada por los gobiernos sudafricanos de la era del apartheid, fue objeto de las protestas del Movimiento de Trabajadores Revolucionarios de Polaroid cuando los empleados negros estadounidenses descubrieron que se estaba utilizando para crear las tristemente célebres fotografías que entre los negros sudafricanos se conocían como «esposas».[15] Pero la tecnología de la Nikon Coolpix y de la HP Pavillion enmascara un racismo moderno y más insidioso: no es que los diseñadores se propongan explícitamente crear una máquina racista, o que esta se usase alguna vez para la discriminación racial, sino que, probablemente, lo que sucede es que estas máquinas sacan a la luz las desigualdades sistémicas aún existentes a día de hoy entre el personal de las empresas tecnológicas, donde quienes desarrollan y prueban los sistemas siguen siendo predominantemente blancos. (En 2009, un 6,74 por ciento del personal estadounidense de Hewlett-Packard era negro.)[16] También pone de manifiesto, como nunca antes, los prejuicios históricos profundamente codificados en los conjuntos de datos que manejamos, que constituyen los armazones sobre los que levantamos el conocimiento y la toma de decisiones actuales. Esta toma de conciencia de la injusticia histórica es fundamental para entender los peligros de la implementación irreflexiva de nuevas tecnologías que incorporan los errores de ayer sin someterlos a crítica alguna. No resolveremos los problemas del presente con las herramientas del pasado. Como ha señalado Trevor Paglen, artista y geógrafo crítico, la irrupción de la inteligencia artificial amplifica estas preocupaciones, pues depende por completo de la información histórica que utiliza como datos para su entrenamiento: «El pasado es un lugar muy racista. Y para entrenar a la inteligencia artificial solo tenemos datos del pasado».[17] Walter Benjamin, en un texto de 1940, expresó el problema de manera aún más feroz: «Jamás se da un documento de cultura sin que lo sea también de barbarie».[18] Entrenar a estas incipientes inteligencias con los vestigios del conocimiento previo equivale, pues, a codificar esa barbarie en nuestro futuro. Y estos sistemas no están presentes solo en los artículos académicos y en las cámaras ordinarias, sino que ya están determinando la escala macro del día a día de la gente. En particular, la confianza depositada en los sistemas inteligentes se ha aplicado ampliamente en los sistemas policiales y judiciales. La mitad de los departamentos de policía estadounidenses ya emplea sistemas de «vigilancia predictiva» como PredPol, un paquete de software que utiliza «matemáticas de alto nivel, aprendizaje automático y teorías contrastadas sobre el comportamiento delictivo» para predecir los momentos y lugares donde es más probable que se cometan nuevos delitos: un pronóstico meteorológico para el incumplimiento de las leyes.[19]

¿Cómo acaban, una vez más, estas expectativas sobre acontecimientos físicos vinculadas a los acontecimientos estocásticos de la vida cotidiana? ¿Cómo adquieren los cálculos sobre comportamientos la fuerza de una ley natural? ¿Cómo es que una idea terrenal, a pesar de todos los intentos de mantener la disociación, se convierte en una idea mental? El gran terremoto de Nōbi, cuya intensidad se calcula que fue de 8,0 en la escala de Richter, tuvo lugar en 1891 en la que es ahora la prefectura de Aichi. Una falla de ochenta kilómetros de longitud se desplomó ocho metros, lo que provocó el colapso de miles de edificios en varias ciudades y acabó con la vida de siete mil personas. A día de hoy, sigue siendo el mayor terremoto en el archipiélago japonés del que se tiene conocimiento. Tras el temblor, el pionero de la sismología Fusakichi Omori describió el patrón que seguían las réplicas: un ritmo de decaimiento que acabaría conociéndose como ley de Omori. En este punto es preciso señalar que tanto la ley de Omori como todas las que de ella se derivan son leyes empíricas; esto es, encajan con los datos existentes tras el acontecimiento, que son distintos en cada caso. Son réplicas, el eco retumbante de algo que ya ha ocurrido. A pesar de décadas de esfuerzos por parte de sismólogos y estadísticos, no se ha podido desarrollar una fórmula similar para predecir los terremotos a partir de los correspondientes sismos premonitorios. La ley de Omori proporciona la base para una de las implementaciones actuales de este cálculo, el llamado «modelo de secuencia de réplicas de tipo epidémico» (ETAS, por sus siglas en inglés), que los sismólogos utilizan hoy en día para estudiar la actividad sísmica en cascada que sigue a un terremoto de gran intensidad. En 2009, unos matemáticos de la Universidad de California en Los Ángeles explicaron que los patrones de delincuencia en una ciudad seguían el mismo modelo: como consecuencia, escribieron, de la «propagación local por contagio de la delincuencia [que] conduce a la formación de núcleos de delincuencia tanto en el espacio como en el tiempo […]. Por ejemplo, los ladrones de casas atacan repetidamente núcleos de objetivos cercanos porque conocen bien las vulnerabilidades locales. Un tiroteo entre pandillas puede incitar oleadas de represalias en el espacio local (territorio) de la pandilla rival».[20] Para describir estos patrones, emplearon el término geofísico «autoexcitación», el proceso por el cual el estrés en el entorno de un determinado punto desencadena y amplifica los eventos. Los matemáticos señalaron incluso cómo el paisaje urbano reflejaba la topología en capas de la corteza terrestre, lo que conllevaba el riesgo de que la delincuencia se transmitiera lateralmente por las calles de una ciudad. El modelo ETAS constituye la base de los programas actuales de vigilancia policial predictiva, un sector cuyo volumen de negocio se calcula que fue de 25 millones de dólares en 2016 y que está experimentando un crecimiento explosivo. Cada vez que un departamento de policía adopta Predpol, como ha ocurrido en Los Ángeles, Atlanta, Seattle y otros varios cientos de jurisdicciones estadounidenses, los datos locales de varios años anteriores —la hora, el tipo y la ubicación de cada delito— se analizan utilizando ETAS. El modelo resultante, constantemente

actualizado con nuevos delitos a medida que se cometen, se utiliza para generar mapas de calor de potenciales lugares problemáticos para cada turno de trabajo policial. Se envían coches patrulla a los puntos donde se estima que pueden producirse temblores; se asignan agentes a las esquinas delicadas. Así es como la delincuencia se transforma en una fuerza física: una onda que atraviesa los estratos de la vida urbana. La predicción pasa a ser la justificación para los controles, los registros, las multas y las detenciones. Las réplicas de un terremoto centenario retumban aún por las calles actuales. Si les dedicamos el tiempo y la reflexión suficientes, podemos llegar a entender tanto la predictibilidad (o no) de los terremotos y los homicidios como los sesgos raciales de los sistemas opacos, ya que se basan en modelos consabidos y en la experiencia vivida de lo cotidiano. Pero ¿y los nuevos modelos de pensamiento generados por las máquinas, decisiones y consecuencias incomprensibles para nosotros, porque son el resultado de procesos cognitivos totalmente distintos a los nuestros? Una dimensión de nuestra incapacidad de comprender el pensamiento de las máquinas es la mera escala a la que este se produce. Cuando, en 2016, Google se propuso renovar por completo su software Translate, la aplicación era muy utilizada, pero también era sinónimo de humor involuntario. Se había lanzado en 2006, utilizando una técnica llamada «inferencia estadística lingüística». En lugar de tratar de entender cómo funcionan los idiomas, el sistema engullía enormes corpus de traducciones ya existentes, textos paralelos con el mismo contenido en distintos idiomas; era el equivalente lingüístico del «fin de la teoría» de Chris Anderson. La inferencia estadística lingüística, que fue usada por primera vez en los años noventa por IBM, dejaba de lado el conocimiento específico de un dominio en favor de cantidades ingentes de datos sin procesar. Frederick Jelinek, el investigador que lideró las iniciativas lingüísticas de IBM, hizo la célebre afirmación de que «cada vez que despido a un lingüista, mejora el rendimiento del reconocedor del habla».[21] El papel de la inferencia estadística era el de olvidarse de la comprensión y sustituirla por la correlación obtenida a partir de los datos. En cierto sentido, la traducción automática se acerca al ideal que Benjamin describe en su ensayo de 1921 La tarea del traductor: la traducción más fiel ignora su contexto original para permitir que salga a la luz un significado más profundo. Benjamin insistía en la primacía de la palabra sobre la frase, de la forma del significado sobre su fondo: «La verdadera traducción es transparente, no cubre el original, no le hace sombra, sino que deja caer en toda su plenitud sobre este el lenguaje puro, como fortalecido por su mediación».[22] Lo que Benjamin deseaba del traductor era que, en lugar de esforzarse por transmitir directamente lo que el autor original quería decir —«la imprecisa transmisión de un contenido accidental»—, comunique su manera de expresarlo, aquello que es particular de su escritura y, por lo tanto, de la traducción. Esto «puede lograrlo sobre todo la fidelidad en la transposición de la sintaxis, y ella es precisamente la que

señala la palabra, y no la frase, como elemento primordial del traductor». Solo un estudio atento de la elección de las palabras, y no la acumulación de frases superficialmente coherentes, nos permite acceder al significado más profundo del original. Pero Benjamin añade: «Si la frase es el muro que se levanta ante el lenguaje del original, la literalidad es la arcada que lo sostiene». La traducción es siempre insuficiente: sirve para acentuar la distancia que separa dos idiomas, no para salvarla. La liviandad del arco solo se alcanza cuando aceptamos «la distancia, la alienación, la carencia y el desajuste entre los idiomas»; la traducción no como transmisión del significado, sino como la conciencia de su ausencia.[23] Al parecer, las máquinas no consiguen jugar en la arcada. (¿Qué pensaría Benjamin del hecho de que el corpus original del que se alimentó Google Translate estaba compuesto en su totalidad por transcripciones multilingües de reuniones de Naciones Unidas y el Parlamento Europeo?[24] ¿Es esto también una codificación de la barbarie?) En 2016 la situación cambió. En lugar de emplear una inferencia estadística estricta entre textos, el sistema Translate comenzó a usar una red neuronal desarrollada por Google Brain y su habilidad aumentó repentinamente de manera exponencial. En lugar de limitarse a establecer referencias cruzadas entre montones de textos, la red construye su propio modelo del mundo, y el resultado no es un conjunto de conexiones bidimensionales entre palabras, sino un mapa del territorio entero. En esta nueva arquitectura, las palabras se codifican según su distancia con las demás en una malla de significado, malla que solo un ordenador podría abarcar. Mientras que un humano puede trazar fácilmente una línea entre las palabras «tanque» y «agua», enseguida se vuelve imposible representar en un único mapa las líneas entre «tanque» y «revolución», entre «agua» y «liquidez», y todas las emociones e inferencias que se derivan de esas conexiones. El mapa es, pues, multidimensional, y se extiende en más direcciones de las que la mente humana puede albergar. Como comentó un ingeniero de Google cuando un periodista le insistía para que diese una imagen visual del sistema: «No suelo intentar visualizar vectores mildimensionales en un espacio tridimensional».[25] Este es el espacio invisible en el cual el aprendizaje automático fabrica su significado. Más allá de lo que somos incapaces de visualizar está aquello que somos incapaces siquiera de comprender; esta incognoscibilidad que recalca su pura ajenidad respecto a nosotros, aunque, por otra parte, esta propia ajenidad es la que más se asemeja a la inteligencia. En Nueva York, en 1997, Garry Kasparov, campeón mundial de ajedrez en ejercicio, se midió con Deep Blue, un ordenador diseñado especialmente por IBM para derrotarlo. Tras un enfrentamiento similar el año anterior en Filadelfia, en el que Kasparov se impuso por 4 partidas a 2, el hombre a quien muchos consideran el mejor jugador de ajedrez de la historia confiaba en su victoria. Cuando perdió, adujo que algunos de los movimientos de Deep Blue eran tan inteligentes y creativos que tenían que haber sido el resultado de la intervención humana. Pero entendemos cómo Deep Blue hizo

esos movimientos: el proceso que siguió para seleccionarlos era, en última instancia, uno de fuerza bruta, haciendo uso de una arquitectura masivamente paralela compuesta por 14.000 chips diseñados específicamente para jugar al ajedrez, capaz de analizar 200 millones de posiciones en el tablero por segundo. Cuando se celebró el encuentro, era el 259.º ordenador más potente del planeta, dedicado exclusivamente al ajedrez. Simplemente, a la hora de decidir la siguiente jugada, podía tener más resultados en mente. Kasparov no se vio superado en inteligencia, sino en potencia de fuego. Por el contrario, cuando el software AlphaGo de Google Brain derrotó al coreano Lee Sedol, uno de los jugadores profesionales de go mejor clasificados del mundo, algo había cambiado. En la segunda de las cinco partidas, AlphaGo hizo una jugada que dejó estupefactos tanto a Sedol como a los espectadores, al colocar una de sus piedras en el otro extremo del tablero y aparentemente abandonar la batalla en curso. «Es una jugada muy extraña», dijo un comentarista. «Pensé que era un error», añadió otro. Fan Hui, otro veterano jugador de go que, seis meses antes, había sido el primer profesional en perder contra la máquina, comentó al respecto: «No es una jugada humana. Nunca he visto a un humano hacer una jugada así». Y añadió: «Qué hermosa jugada».[26] En los dos mil quinientos años de historia del juego, nadie había jugado así. AlphaGo acabó ganando la partida y la serie entera. Para desarrollar su software, los ingenieros de AlphaGo alimentaron una red neuronal con millones de jugadas de expertos jugadores de go y, a continuación, hicieron que jugase contra sí mismo millones de veces más y desarrollase así estrategias con las que superar a esos jugadores humanos. Pero su propia representación de esas estrategias es ilegible: podemos ver las jugadas que hizo, pero no cómo decidió hacerlas. La sofisticación de las jugadas que deben de haberse hecho entre las réplicas de AlphaGo escapa a nuestra imaginación y es poco probable que alguna vez seamos capaces de verlas y entenderlas; no hay manera de cuantificar la sofisticación, solo el instinto ganador. El desaparecido y muy añorado Iain M. Banks se refería al lugar donde ocurrían estas jugadas como Infinite Fun Space («espacio de diversión infinita»).[27] En las novelas de ciencia ficción de Banks, su civilización Cultura es dirigida por inteligencias artificiales benévolas y superinteligentes llamadas simplemente Mentes. Aunque en origen estas fueron creadas por los humanos (o, al menos, por entidades biológicas basadas en el carbono), hace tiempo que han dejado atrás a sus creadores y se han rediseñado y reconstruido a sí mismas hasta volverse inescrutables y todopoderosas. Además de controlar naves y planetas, dirigir guerras y cuidar de miles de millones de humanos, las Mentes también tienen tiempo para sus propios placeres, entre los que se cuentan cálculos especulativos cuya comprensión se nos escapa a los humanos. Capaces de simular universos enteros en su imaginación, algunas Mentes se retiran para toda la eternidad al espacio de diversión infinita, un reino de posibilidades metamatemáticas únicamente accesible a

inteligencias artificiales sobrehumanas. Mientras, a los demás, si desdeñamos la sala de juegos, nos queda la diversión finita: dedicarnos a analizar infructuosamente las decisiones de máquinas que escapan a nuestra comprensión. Algunas operaciones de inteligencia automática no permanecen, sin embargo, dentro de los confines del espacio de diversión infinita, sino que generan incognoscibilidad en el mundo: nuevas imágenes; nuevos rostros; acontecimientos nuevos, desconocidos o falsos. El mismo enfoque que permite moldear el lenguaje como una malla infinita de significado ajeno puede aplicarse a cualquier cosa susceptible de definirse matemáticamente; esto es, como una red de conexiones ponderadas en un espacio multidimensional. Las palabras surgidas de cuerpos humanos siguen manteniendo relaciones, incluso cuando carecen de significado humano, y se pueden realizar cálculos sobre la cifra de ese significado. En una red semántica, las líneas de fuerza —vectores— que definen la palabra «reina» se alinean con las que se leen en el orden «rey – hombre + mujer».[28] La red puede inferir una relación de género entre «rey» y «reina» siguiendo el camino de esos vectores. Y puede hacer lo mismo con rostros. Dado un conjunto de imágenes de personas, una red neuronal puede efectuar cálculos que no sigan únicamente estas líneas de fuerza, sino que generen nuevos resultados. Un conjunto de fotografías de mujeres sonrientes, mujeres y hombres de expresión neutra puede computarse para crear imágenes enteramente nuevas de hombres sonrientes, como se demuestra en un artículo científico que investigadores de Facebook publicaron en 2015.[29]

Creación de nuevas imágenes mediante el uso de las matemáticas. Imagen de Radford, Metz y Chintala, «Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks».

En ese mismo artículo, los investigadores generan toda una variedad de imágenes nuevas. Usando un conjunto de datos compuesto por más de tres millones de fotografías de dormitorios procedentes de un concurso de reconocimiento de imagen a gran escala, su red genera nuevos dormitorios; se trata de disposiciones de color y mobiliario que nunca han existido en el mundo real, pero que surgen en la intersección de los vectores de «dormitoriedad»: paredes, ventanas, edredones y almohadas. Máquinas que sueñan habitaciones donde no se sueñan sueños. Pero son las caras —antropomorfos como somos— las que quedan grabadas en la mente: ¿quiénes son estas personas?, ¿por qué sonríen? Las cosas se vuelven aún más extrañas cuando estas imágenes soñadas se entremezclan con nuestros propios recuerdos. En 2014, Robert Elliott Smith, un investigador sobre inteligencia artificial en el University College de Londres, volvió de unas vacaciones familiares en Francia con el teléfono lleno de fotos. Subió parte de ellas a Google+, para compartirlas con su mujer, pero mientras las repasaba se percató de una anomalía.[30] En una imagen, se vio a sí mismo junto a su mujer en una mesa de un restaurante, ambos sonriendo a la cámara. Pero esa fotografía nunca se había tomado. Un día, durante la comida, su padre había pulsado el botón de su iPhone durante un poco más tiempo del normal, con el resultado de una ráfa*ga de imágenes de la misma escena. Smith subió dos ellas, para ver cuál prefería su mujer. En una, él salía sonriente, pero su mujer no; en la otra, era su mujer la que sonreía, y él no. A partir de estas dos imágenes, captadas con unos segundos de diferencia, los algoritmos de clasificación de fotos de Google habían creado una tercera: una imagen compuesta en la que ambos sujetos mostraban «la mejor» de sus sonrisas. El algoritmo formaba parte de un paquete llamado AutoAwesome (que posteriormente pasó a denominarse, simplemente, «Asistente»), que realizaba toda una serie de retoques sobre las imágenes subidas al servidor para hacerlas más «impresionantes» [awesome]: aplicaba filtros nostálgicos, las transformaba en adorables animaciones y cosas por el estilo. Pero, en este caso, el resultado fue una fotografía de un momento que nunca había sucedido: un recuerdo falso, una reescritura de la historia. La manipulación de fotografías es una actividad tan antigua como el propio medio, pero en este caso la operación se realizaba de forma automática e invisible sobre los objetos de la memoria personal. A pesar de ello, quizá también se pueda extraer alguna lección: el descubrimiento tardío de que las imágenes son siempre instantáneas falsas y artificiales de momentos que nunca existieron como singularidades, extraídas a la fuerza del flujo multidimensional del mismo tiempo. Documentos poco fiables, amalgamas de cámara y atención. Son artefactos no solo del mundo y de la experiencia, sino del proceso de registro, que, como mecanismo falso que es, nunca puede

captar la realidad en sí. Solo cuando estos procesos de captura y almacenamiento se plasman en alguna tecnología somos capaces de percibir su falsedad, su alienación respecto de la realidad. Esta es la lección que podríamos extraer de los sueños de las máquinas: no que estén reescribiendo la historia, sino que la historia no es algo a lo que se le pueda dar de manera incontestable una forma de relato; y, por ende, tampoco se puede hacer lo propio con el futuro. Las fotografías producidas a partir de los vectores de la inteligencia artificial no constituyen un registro, sino una reimaginación continua, un conjunto siempre variable de posibilidades de lo que podría haber sido y de lo que está por venir. Esta nube de posibilidad, siempre contingente y brumosa, es mejor modelo de la realidad que cualquier afirmación material. Esta nube es lo que la tecnología desvela. La mejor ilustración de esta iluminación de nuestro propio inconsciente por las máquinas quizá sea otro extraño resultado de la investigación sobre aprendizaje automático de Google: un programa llamado DeepDream, diseñado para arrojar luz sobre los entresijos de las inescrutables redes neuronales. Para que aprendiese a reconocer objetos, a una red se le proporcionaron millones de imágenes de objetos con sus correspondientes etiquetas: árboles, coches, animales, casas. Cuando se le mostraba una imagen nueva, el sistema la filtraba, estiraba, despedazaba y comprimía a través de la red neuronal para clasificarla: esto es un árbol, un coche, un animal, una casa. Pero DeepDream invirtió el proceso: al introducir la imagen por el otro extremo de la red y activar las neuronas entrenadas para ver objetos concretos, no se preguntaba qué era la imagen, sino qué quiere la red ver en ella. El proceso es análogo al de ver caras en las nubes: la corteza visual, necesitada de estimulación, produce patrones con significado a partir del ruido.

Imagen de DeepDream. Fuente: Google.

Alexander Mordvintsev, el ingeniero de DeepDream, ejecutó por primera vez el programa a las dos de la mañana, insomne tras haber tenido una pesadilla.[31] La primera imagen con la que alimentó al sistema fue la de un gatito en el tocón de un árbol, y el resultado fue un monstruo de pesadilla único: un híbrido entre gato y perro con varios pares de ojos y morros húmedos en lugar de pies. Cuando, en 2012, Google aplicó una red clasificadora sin entrenar sobre diez millones de vídeos de YouTube escogidos al azar, lo primero que la red aprendió a ver, sin que se la incitase a ello, fue una cara de gato: el animal favorito de internet.[32] De manera que la red de Mordvintsev soñó lo que conocía, que eran más gatos y perros. Posteriores ejecuciones generaron paisajes infernales propios del Bosco con arquitecturas inacabables: arcos, pagodas, puentes y torres en progresiones fractales infinitas, en función de las neuronas que se activasen. Pero una constante que recorre todas las creaciones de DeepDream es la imagen del ojo: ojos de perros, ojos de gatos, ojos humanos; el ojo omnipresente y vigilante de la propia red. El ojo que flota en los cielos de DeepDream recuerda el ojo que todo lo ve de la propaganda distópica: el propio inconsciente de Google, compuesto de nuestros recuerdos y acciones, procesados mediante un

análisis constante y monitorizados para obtener beneficios empresariales e información de espionaje privado. DeepDream es una máquina intrínsecamente paranoica porque surge de un mundo paranoico. Entretanto, cuando no se las obliga a visualizar sus sueños para iluminarnos, las máquinas siguen adentrándose en su propio espacio imaginario hasta lugares a los que nosotros no podemos acceder. El máximo deseo de Walter Benjamin en La tarea del traductor era que el proceso de transmisión entre idiomas invocase un «lenguaje puro», una amalgama de todos los idiomas del mundo. Este idioma sincrético es el medio en el que debería trabajar el traductor, porque lo que revela no es el significado, sino la manera de pensar del original. Tras la activación en 2016 de la red neuronal de Google Translate, los investigadores se percataron de que el sistema era capaz de traducir no solo entre idiomas, sino cruzándolos, esto es, podía traducir directamente entre dos idiomas que nunca había visto comparados explícitamente. Por ejemplo, una red entrenada con ejemplos de japonés-inglés e inglés-coreano es capaz de generar traducciones japonés-coreano sin necesidad de pasar por el inglés.[33] Es lo que se conoce como traducción zero-shot, y lo que implica es la existencia de una representación «interlingual»: un metalenguaje interno compuesto de conceptos compartidos a través de distintos idiomas. A todos los efectos, se trata del lenguaje puro de Benjamin, el metalenguaje carente de significado de la arcada. Al visualizar como salpicaduras de color y trazos la arquitectura de la red y sus vectores, es posible ver cómo se agrupan las frases en distintos idiomas. El resultado es una representación semántica que no está ya diseñada en la red, sino que la red desarrolla por sí misma. Sin embargo, esto es lo más cerca que estaremos jamás, ya que, de nuevo, estamos observando desde fuera la «tierra de la diversión infinita», ese lugar que nunca podremos visitar.

«Seguros bajo los ojos vigilantes». Consorcio de Transporte de Londres, 2002.

Para acentuar este error, en 2016 un par de investigadores de Google Brain decidieron ver si las redes neuronales podían guardar secretos.[34] La idea surgió a partir del concepto de «adversario», un componente cada vez más habitual en el diseño de las redes neuronales que sin duda habría sido del agrado de Friedrich Hayek. Tanto AlphaGo como el generador de dormitorios de Facebook se entrenaron antagónicamente, esto es, no estaban formados por un solo componente que generaba nuevas jugadas o lugares, sino por dos de estos componentes que intentaban continuamente superarse el uno al otro, lo que redundaba en sucesivas mejoras. Los investigadores llevaron la idea del adversario hasta sus últimas consecuencias lógicas, para lo cual montaron tres redes (que, en la tradición de los experimentos criptográficos, llamaron Alice, Bob y Eve) cuya tarea consistía en aprender cómo cifrar información. Tanto Alice como Bob conocían un número —una clave, en terminología criptográfica— que Eve desconocía. Alice realizaba una determinada operación sobre una cadena de texto y, a continuación, se la enviaba a Bob y a Eve. Si Bob podía descifrar el mensaje, la puntuación de Alice aumentaba, si lo conseguía Eve, disminuía. A base de miles de iteraciones, Alice y Bob aprendían a comunicarse sin que Eve descifrase su código: desarrollaban una forma privada de cifrado como la que se utiliza actualmente en los mensajes privados de correo electrónico. Un detalle crucial es que, como sucede con otras redes neuronales que hemos visto, no entendemos cómo funciona este mecanismo de cifrado. Lo que se le oculta a Eve también se nos oculta a nosotros. Las máquinas aprenden a guardar secretos. Las tres leyes de la robótica de Isaac Asimov, formuladas en la década de 1940, establecen que: 1. Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño. 2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley. 3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.[35] Podríamos añadir una cuarta ley: un robot —o cualquier otra máquina inteligente— debe ser capaz de explicarse a sí mismo ante los humanos. Esta ley debería tener primacía sobre las otras tres, porque adopta la forma no de una prohibición al otro, sino de una ética. El hecho de que esta ley ya se haya quebrantado —por nuestro propio designio y de manera inevitable— conduce inexorablemente a la conclusión de que lo mismo sucederá con las otras. Nos enfrentamos a un

mundo —no en el futuro, sino ahora mismo— en el que no comprendemos nuestras propias creaciones. La consecuencia de esta opacidad es siempre, e inevitablemente, la violencia. Cuando relacioné las historias de Kasparov contra Deep Blue y de Sedol contra AlphaGo, dejé en el tintero una tercera historia paralela. Kasparov abandonó una partida frustrado e incrédulo ante la destreza de la máquina, pero dirigió su frustración a encontrar alguna manera de rescatar al ajedrez de la supremacía de las máquinas. Ha habido muchos intentos en ese mismo sentido; pocos de ellos han fructificado. David Levy, un campeón de ajedrez escocés que jugó muchas partidas de exhibición contra máquinas en los años setenta y ochenta, desarrolló un estilo «antiordenadores» de juego minimalista que describía como «no hacer nada, pero hacerlo bien». Su estilo era tan conservador que los ordenadores rivales eran incapaces de discernir un plan a largo plazo, hasta que la posición de Levy se hacía tan fuerte que era imbatible. De manera similar, Boris Alterman, un gran maestro israelí, desarrolló una estrategia en sus partidas contra máquinas durante la década de 1990 y los primeros años de este siglo que acabó conociéndose como el «muro Alterman»: intentaba alargar el tiempo parapetado tras una hilera de peones, sabiendo que, cuantas más piezas tuviera en el tablero, más jugadas posibles tendría que calcular la máquina. [36] No solo se puede cambiar de estilo, también se puede cambiar de juego. Arimaa es una variante del ajedrez desarrollada en 2002 por Omar Syed —un ingeniero informático con formación en inteligencia artificial— y fue diseñada específicamente para que a las máquinas les resultase difícil de comprender y, a los humanos, fácil y divertida de aprender. Su nombre se lo debe al hijo de Syed, que por entonces tenía cuatro años, quien sirvió como referencia para saber en qué medida las reglas eran comprensibles. En Arimaa, los jugadores pueden disponer sus piezas en cualquier configuración y, para ganar, deben llegar con una de las piezas más débiles —los peones, que aquí se llaman «conejos»— hasta el extremo opuesto del tablero. También pueden usar sus piezas más fuertes para empujar a las más débiles, o tirar de ellas, hacia una serie de casillas trampilla y, así, sacarlas del tablero para allanar el camino a los conejos. La combinación de muchas configuraciones iniciales, la capacidad de unas piezas de mover otras y la posibilidad de hacer hasta cuatro movimientos por turno resulta en una explosión combinatoria: un enorme incremento de las posibilidades que enseguida se vuelve demasiado grande para que un programa informático pueda gestionarlo; es el muro de Alterman llevado hasta extremos exponenciales. O eso se quería creer. El primer torneo de Arimaa por ordenador se celebró en 2004; el programa que resultó vencedor se ganó el derecho de enfrentarse a un grupo de los mejores jugadores humanos por un premio en metálico. Durante los primeros años, los humanos vencían con facilidad a sus rivales informáticos, y el margen de sus victorias incluso fue aumentando a medida que sus habilidades mejoraban más rápidamente que los programas a los que se enfrentaban. Pero

en 2015 una máquina resultó claramente vencedora en el torneo, algo que parece poco probable que vaya a cambiar en el futuro. Cuando hemos de enfrentarnos a la potencia y a la opacidad de los sistemas inteligentes, resulta tentador postergar o entorpecer las partidas o ceder terreno. Donde Levy y Alterman construyeron muros, Arimaa regresó al campo abierto e intentó crear un espacio alternativo fuera de la esfera de supremacía de las máquinas. No fue esta la estrategia de Kasparov, quien, en lugar de rechazar las máquinas, un año después de su derrota contra Deep Blue volvió a escena con un tipo de ajedrez diferente, al que llamó «ajedrez avanzado». La propuesta de Kasparov también se conoce como ajedrez «cíborg» o «centauro»: la primera denominación evoca a un humano unido a la máquina, mientras que la segunda remite a la criatura mitad humana mitad animal, cuando no a algo completamente extraño. Es posible que la leyenda del centauro surgiese en la mitología griega con la llegada de los jinetes guerreros procedentes de las estepas de Asia Central, cuando la monta del caballo aún era algo desconocido en el Mediterráneo. (Se cree que los aztecas pensaron algo parecido al ver a los caballeros españoles.) Según Robert Graves, el centauro era una figura aún más antigua, un vestigio de los cultos a la Tierra prehelénicos. Los centauros eran también nietos de Néfele, la ninfa de las nubes. Así pues, las estrategias centauras pueden resultar al mismo tiempo necesidades contemporáneas ante la adversidad y regreso mítico a épocas menos conflictivas. En el ajedrez avanzado, un jugador humano y un programa informático de ajedrez se enfrentan, formando un equipo, a otra pareja humano-ordenador. Los resultados han sido revolucionarios y han abierto nuevos campos y estrategias de juego hasta ahora inexplorados. Uno de estos efectos es que desaparecen las equivocaciones: el humano puede analizar sus propias propuestas de jugada hasta llegar a jugar sin errores, lo que resulta en partidas perfectas desde un punto de vista táctico y en planes estratégicos más rigurosos. Pero quizá la consecuencia más extraordinaria que se ha extraído del ajedrez avanzado, que normalmente se juega entre parejas humano-máquina, se observa cuando humano y máquina juegan contra una máquina sola. Desde Deep Blue, se han desarrollado muchos programas informáticos capaces de derrotar a cualquier humano con facilidad y eficiencia: los incrementos en el almacenamiento de datos y en la capacidad de procesamiento implican que para conseguirlo ya no se necesita un superordenador. Pero incluso el más potente de los programas actuales puede caer derrotado ante un jugador experto con acceso a su propio ordenador, aunque este no sea tan potente como el de su rival. La cooperación entre humano y máquina resulta ser una estrategia más efectiva que la del ordenador más potente por sí solo. Este es el algoritmo del optometrista aplicado a los juegos, una estrategia que recurre a las habilidades respectivas de humanos y máquinas según sea necesario, en lugar de enfrentar a los unos contra las otras. La cooperación también reduce la opacidad computacional: mediante el

juego cooperativo, en lugar de a través del análisis a posteriori, podemos conseguir una comprensión más profunda de cómo toman decisiones las máquinas complejas. Aceptar que existe de verdad la inteligencia no humana tiene profundas implicaciones sobre cómo actuamos en el mundo y nos obliga a reflexionar con claridad sobre nuestros propios comportamientos, oportunidades y limitaciones. Aunque la inteligencia de las máquinas está superando rápidamente las capacidades humanas en muchos ámbitos, no es la única forma de pensar y, en muchos campos, es catastróficamente destructiva. Cualquier estrategia que no sea la cooperación consciente y meditada es una forma de inhibición, una marcha atrás que no puede sostenerse en el tiempo. No podemos rechazar la tecnología contemporánea, como tampoco podemos rechazar a nuestros vecinos en la sociedad y en el mundo; todos estamos entrelazados. Una ética de la cooperación en el presente tampoco tiene por qué limitarse a las máquinas: se convierte en otra forma de administración con otras entidades no humanas, animadas y no animadas, que pone de relieve actos de justicia universal, no en un futuro desconocido e incalculable, sino en el aquí y el ahora.

7 Complicidad

En los meses previos a las Olimpiadas de 2012 en Londres, el Estado británico entró en un característico paroxismo de seguridad. Se difundieron alertas sobre terroristas que pretendían atacar los Juegos y se efectuaron detenciones preventivas de potenciales manifestantes. El MI5 puso en marcha una cuenta atrás hasta la ceremonia de inauguración en su sede de Vauxhall.[1] La Marina Real británica fondeó en el Támesis su navío de más tamaño, el HMS Ocean, con una dotación de infantes de marina a bordo. El Ejército montó misiles Rapier aire-tierra en torno a las sedes olímpicas (una operación que posteriormente se reveló como una meticulosa, y exitosa, estrategia de venta dirigida a gobiernos extranjeros). Y la Policía Metropolitana anunció que utilizaría drones para vigilar la ciudad.[2] Esto último despertó mi interés. Llevo muchos años siguiendo la evolución de los vehículos aéreos no tripulados —drones—, desde proyectos militares secretos hasta instrumentos habituales de guerra, así como su introducción en el ámbito doméstico, en forma tanto de plataformas de vigilancia de tecnología punta como de juguetes baratos que regalar por Navidad. Pero las fuerzas policiales británicas no es que hayan tenido precisamente mucha suerte con ellos. En 2010, la policía de Essex, la primera fuerza en adquirir drones, archivó su programa en un cajón. Ese mismo año, se descubrió que la policía de Merseyside hacía volar un dron sin permiso de la Autoridad de Aviación Civil (CAA, por sus siglas en inglés); en 2011, con el permiso recién obtenido, estrellaron y perdieron el dron en el río Mersey, y optaron por no reemplazarlo.[3] Cuando terminaron los Juegos, presenté una solicitud ante la Policía Metropolitana amparándome en la legislación sobre transparencia para preguntar si efectivamente habían utilizado drones durante las Olimpiadas y, de ser así, dónde y bajo qué condiciones.[4] Su respuesta, que tardó varias semanas en llegar, me sorprendió: se negaron a confirmar o desmentir que tuviesen ninguna información relativa a mi solicitud. Reformulé la pregunta varias veces: pregunté si habían solicitado a la CAA un permiso para hacer volar drones, a lo cual se negaron a contestar (aunque la CAA no tuvo inconveniente en informarme de que no había sido así). Pregunté si habían subcontratado el pilotaje de los drones y se negaron a responder. Pregunté de qué aeronaves disponían, tanto en propiedad como alquiladas, y de qué tipo eran; me dijeron que contaban con tres helicópteros y se negaron a confirmar o desmentir cualquier otra cosa. La respuesta sobre los helicópteros me extrañó: si hablaban de los helicópteros, ¿por qué no de

los drones? ¿Por qué eran tan especiales? A pesar de repetidos intentos de obtener respuesta a esta pregunta, que llegué a plantear ante el Comisionado de Información —la autoridad de arbitraje en cuestiones de transparencia en el Reino Unido—, nunca tuve respuesta. Cualquier pregunta acerca de los drones inmediatamente se colocaba bajo la rúbrica de posibles operaciones encubiertas y quedaba así fuera del ámbito de aplicación de la legislación sobre transparencia. Empezaba a dar la impresión de que los drones eran un velo útil tras el que se podía ocultar cualquier cosa. El espectro del dron parece tan potente, su sombra tan alargada, como si pudiese portar no solo cámaras y sistemas de armas, sino todo un régimen de secretismo, un secreto surgido de operaciones militares encubiertas que se ha extendido hasta infectar todos los aspectos de la vida civil. Este secretismo militarizado se reflejaba en el propio lenguaje con el que la policía rechazó mis preguntas. Todas y cada una de las veces que planteé la pregunta, con independencia de cómo la formulara, la respuesta fue siempre la misma: «No podemos confirmar ni desmentir si disponemos de esa información». Estas palabras —su forma misma— tienen su origen en la historia encubierta de la Guerra Fría. Son una especie de hechizo, o de tecnología política, que transforma la vida civil en un conflicto entre el Gobierno y los gobernados con la misma certeza con que lo haría cualquier tecnología militar y, al hacerlo, da lugar a una nueva clase de verdad. En marzo de 1968, el submarino soviético K-129, que portaba misiles balísticos, se perdió en el Pacífico con toda su tripulación a bordo. La primera noticia que se tuvo del suceso en Occidente se produjo cuando la Marina soviética despachó una flotilla de barcos hasta la última posición conocida del K-129, a unos mil kilómetros al norte del atolón de Midway, donde batieron una enorme extensión de mar y, tras varias semanas de infructuoso rastreo, el comando naval suspendió la búsqueda. Estados Unidos, sin embargo, disponía de una herramienta de la que los soviéticos carecían: una red de estaciones de escucha submarinas diseñadas para detectar explosiones nucleares. Un rastreo no del océano, sino de los datos obtenidos por los hidrófonos, permitió dar con la grabación de una implosión fechada el 8 de marzo, cuyos ecos se habían dispersado lo suficiente como para que, mediante triangulación desde varios puntos, se pudiese obtener una ubicación aproximada. Se envió allí un submarino estadounidense especialmente preparado y, al cabo de tres semanas de búsqueda, localizó los restos del K-129 a más de cinco kilómetros bajo la superficie. Los servicios secretos estadounidenses estaban encantados: se cree que el K-129, además de tres misiles balísticos, transportaba libros de códigos y equipos criptográficos. Su hallazgo, delante de las narices de la Marina soviética, fue uno de los golpes maestros de la inteligencia estadounidense durante la Guerra Fría. El problema era que cinco kilómetros bajo el agua era una profundidad muy superior a la de cualquier operación de rescate que se hubiese acometido nunca

y que cualquier intento de reflotar el submarino habría tenido que llevarse a cabo en condiciones de máximo secreto. A lo largo de los años siguientes, la Agencia Central de Inteligencia (CIA) firmó contratos con varios proveedores de tecnologías confidenciales para construir un barco especial, bautizado como Hughes Glomar Explorer en referencia al empresario multimillonario Howard Hughes, que accedió a que su nombre se usase como tapadera. El Hughes Glomar Explorer era enorme, extraordinariamente costoso y estaba coronado por una plataforma de perforación de veinte metros de altura. Por su parte, Lockheed Ocean Systems fabricó una barcaza sumergible de última generación con la sola finalidad de introducir disimuladamente en el barco unas enormes tenazas. En público, Hughes afirmó que el barco se utilizaría para extraer nódulos de manganeso (acreciones de metales preciosos que salpican los fondos oceánicos). Estos nódulos existen realmente y son muy apreciados, pero nadie ha logrado recogerlos de manera económicamente rentable. Esto no impidió que, en torno a esa posibilidad, se desarrollase una enorme industria durante los años sesenta y setenta, en gran parte gracias al nombre de Hughes y a la historia que la CIA elaboró como tapadera. La verdadera finalidad del barco era hacerse a la mar en busca del K-129. El Glomar Explorer zarpó en 1974, se situó encima del pecio, abrió las compuertas ocultas en su quilla e hizo descender las tenazas, que, una vez aferradas al casco del submarino, empezaron a izarlo. Pero, en mitad de la operación, las gigantescas tenazas de acero sufrieron una avería catastrófica y desgarraron la mayor parte del submarino. Aún se desconoce qué proporción del K129 consiguió recuperarse, ya que los detalles han permanecido bajo secreto desde entonces. Algunas informaciones afirman que se rescataron dos misiles; otras hablan de documentos y aparatos. Lo único que está confirmado es que se recobraron los cuerpos de seis miembros de la tripulación, que fueron a continuación sepultados en el mar en un contenedor de acero por miedo a la radiación. Varios meses después de la operación, Seymour Hersh, periodista de investigación del New York Times, tuvo conocimiento de la historia. El Gobierno estadounidense logró retrasar la publicación al aducir que la operación aún no había concluido y que hacerla pública provocaría un incidente internacional. Pero un robo en las oficinas de Hughes en Los Ángeles llevó a otro periodista a indagar en la historia y en febrero de 1975 Los Angeles Times publicó un relato parcial de la misión, plagado de errores, que desató un frenesí mediático. Posteriormente, el New York Times publicó su versión de los acontecimientos y la historia llegó al gran público.[5] Uno de los aspectos más fascinantes de la operación Glomar fue la manera en que se llevó a cabo a la vista de todo el mundo, sin que nadie se percatase de lo que estaba sucediendo. Desde la tapadera de Hughes hasta la barcaza sumergible —que se botó directamente en la costa de la californiana isla de Catalina, a la vista de los bañistas—, pasando por los barcos soviéticos que

pasaron a menos de 200 metros del Explorer mientras este izaba el submarino, todo el proceso se llevó a cabo al mismo tiempo en secreto y a plena luz. El legado del Glomar fue la extensión de esta estrategia de opacidad y distracción al ámbito de la vida cotidiana. En 1981, otra periodista, Harriet Ann Phillippi, presionó a la CIA amparándose en la legislación sobre transparencia para que hiciese públicos más detalles sobre el proyecto y sobre el intento de encubrimiento del mismo. La agencia formuló una respuesta novedosa a su petición y, al hacerlo, creó un nuevo discurso público. Un asesor jurídico adjunto de la CIA que usaba el pseudónimo de Walt Logan, temiendo que cualquier cosa que revelasen, deliberada o involuntariamente, pudiese ser utilizada por el adversario soviético, escribió la siguiente declaración: «No podemos confirmar ni desmentir la existencia de la información solicitada, pero, en el hipotético caso de que dichos datos existiesen, el asunto al que se refieren sería secreto y no podrían hacerse públicos».[6] Esta formulación, que en el mundo del derecho estadounidense se conoce como la «respuesta Glomar», crea una tercera categoría de declaración, entre la confirmación y el desmentido, entre verdad y falsedad. La respuesta de Glomar, que suele abreviarse a «ni confirmamos ni desmentimos» o simplemente NCND, ha escapado de las manos de sus creadores en la CIA, ha desbordado los límites de la seguridad nacional y se ha reproducido por metástasis en todos los ámbitos del discurso oficial. Hoy, una búsqueda rápida en internet pone de manifiesto que la expresión «ni confirmamos ni desmentimos» ha invadido todas las facetas de la comunicación contemporánea.[7] En un mismo día de septiembre de 2017, la frase apareció en noticias que se la atribuían al ministro de economía de Brasil (en relación con sus ambiciones presidenciales), al departamento del sheriff del condado de Stanly, en Carolina del Norte (llamadas maliciosas al teléfono de emergencias), a la Universidad de Johannesburgo (acusaciones de corrupción), a un portero de fútbol argentino (traspaso a Zimbabue), al consejero especial del presidente de Biafra sobre medios de comunicación y publicidad (definiciones de terrorismo), a Honda (nuevos modelos de motocicletas), al Departamento de Policía de Nueva York (vigilancia en los campus), a la Comisión de Cualificaciones Judiciales de Georgia (orinar en el juzgado), a un editor de Cómics Marvel (el regreso de los Cuatro Fantásticos), al publicista de la estrella de la telerrealidad Kylie Jenner (un posible embarazo) y al FBI, al Servicio Secreto y a la Comisión de Bolsa y Valores estadounidenses (en relación con un caso de piratería financiera). Ni confirmar ni desmentir se ha convertido en una respuesta automática, la expresión de una negativa a entablar cualquier tipo de discusión o revelación de información y la postura por defecto de aquellos en quienes —a excepción quizá de Jenner— esperamos confiar. Quizá pecamos de ingenuos. La ocultación de la verdadera naturaleza del mundo para beneficio de quienes ocupan el poder tiene orígenes remotos. En el antiguo Egipto, la crecida anual del Nilo

era crucial tanto para la agricultura como para los ingresos del Estado. Una «buena» anegación irrigaba las fértiles llanuras que bordean el río y depositaba en ellas ricos nutrientes, aunque siempre existía el riesgo de que una inundación excesiva arrasase campos y aldeas o de que poca agua acarrease sequías y hambrunas. Sobre este ciclo anual, la nobleza y el clero egipcios erigieron una civilización de riqueza y estabilidad extraordinarias, basada en su capacidad de predecir, cada año, el momento y la intensidad de las inundaciones y sus efectos probables (así como los correspondientes ingresos fiscales). Cada año, para celebrar la muerte y el renacimiento de Osiris, los sacerdotes dirigían complejas ceremonias y rituales que señalaban el comienzo del Ajet, la estación de la inundación, y que culminaban con el anuncio de la crecida de las aguas. Al tiempo, la autoridad de sus predicciones se traducía en la autoridad del régimen teocrático. Pero esta autoridad no era —o no era exclusivamente— un don divino. Dentro de los sagrados confines de los complejos religiosos en islas y riberas había estructuras llamadas «nilómetros»: profundos pozos excavados en la tierra y marcados con columnas o conjuntos de niveles para medir la profundidad del agua que llevaba el río. Eran instrumentos científicos cuyos valores, debidamente interpretados y comparados con siglos de datos marcados en las paredes, permitían a sacerdotes y gobernantes predecir el comportamiento del río y hacer los correspondientes pronunciamientos y preparativos. La función de los nilómetros, e incluso su mera existencia, era algo que se ocultaba al populacho. Si se les hubiese preguntado al respecto, no cabe duda de que los sacerdotes egipcios habrían contestado: «No podemos confirmar ni desmentir...». Para trasladar a la actualidad un escenario similar, pensemos en los números secretos. Desde la década de 1940, la Agencia de Seguridad Nacional (NSA, por sus siglas en inglés), en Estados Unidos, y el Cuartel General de Comunicaciones del Gobierno (GCHQ), en Reino Unido,— y, con toda seguridad, sus organizaciones homólogas en Rusia y China— han estado contratando matemáticos en plenitud de sus capacidades intelectuales procedentes de los más prestigiosos departamentos universitarios de matemáticas. Una vez dentro de estas organizaciones, todas sus investigaciones quedan sometidas a secreto y se ocultan al público general, y solo ocasionalmente se filtran muestras de su ingenio. El intercambio de claves Diffie-Hellman, que lleva el nombre de los dos matemáticos que lo crearon, se publicó en 1976 y constituyó la base de la criptografía de clave pública, ampliamente utilizada actualmente para cifrar mensajes de correo electrónico y páginas web.[8] Pero en 1997 el Gobierno británico levantó el secreto de documentos que demostraban que el proceso había sido inventado de manera independiente varios años antes por James Ellis, Clifford co*cks y Malcolm Williamson, tres matemáticos que trabajaban para el GCHQ.[9] La criptografía de clave pública se basa en idear problemas matemáticos para los cuales no se conoce una solución eficiente: para descifrar el código sin poseer la clave hay que efectuar una operación tan compleja que en la práctica se considera imposible. Una estrategia de cifrado muy

habitual es la factorización de dos números primos. La encriptación se realiza usando un número obtenido de la multiplicación de dos números primos muy grandes; las claves son esos dos números primos de los que se parte. Según cuál sea el tamaño de esos números, incluso un superordenador podría tardar años en descubrirlos. Pero dar esto por supuesto presenta un par de problemas. El primero es de carácter general: aunque la factorización es un mecanismo potente si todo el mundo utiliza distintos números primos, resulta que la mayoría de las implementaciones emplean una y otra vez el mismo conjunto reducido de números primos, lo que reduce sustancialmente la complejidad del problema. Entre los investigadores en seguridad está muy extendida la creencia de que la NSA, con sus enormes ordenadores y su presupuesto anual de 11.000 millones de dólares, ya ha descifrado unos cuantos de los primos más utilizados y, por lo tanto, es capaz de leer una cantidad significativa de las comunicaciones cifradas.[10] La llegada de la computación cuántica, en la que la NSA está invirtiendo grandes sumas, sin duda acelerará este proceso.[11] Pero pensemos más concretamente en esos miles de matemáticos que desde hace más de setenta años trabajan en secreto en salas cerradas de Cheltenham y Fort Meade. Inventaron la criptografía de clave pública y no se lo dijeron a nadie. En las décadas transcurridas desde entonces, ¿quién sabe si no habrán formulado campos completamente nuevos de las matemáticas —los números secretos— que permitan hacer tipos de cálculos totalmente nuevos? En el pasado ya se han producido otras revoluciones matemáticas similares; y, si Euclides, Euler o Gauss estuvieran trabajando hoy, es muy probable que lo hicieran para alguna de las agencias de seguridad y que sus descubrimientos estuvieran ocultos en alguna biblioteca secreta. La nueva edad oscura está repleta de nebulosas posibilidades como estas. Si parece exagerado, basta con recordar que la CIA dedicó miles de millones de dólares a completar con éxito la operación de rescate a mayor profundidad de la historia y a mantenerla oculta tanto del gran público como de sus enemigos, y que siguió trabajando en innovaciones tecnológicas durante décadas. Fue la CIA, no la Marina o las Fuerzas Aéreas estadounidenses, la que desarrolló y construyó los primeros vehículos aéreos no tripulados: los drones Predator y Reaper, que han revolucionado las guerras contemporáneas y han extendido la paranoia y el secretismo de la agencia de inteligencia, primero hasta el campo de batalla y luego a todo el planeta. Y, pese a todos los avances que la CIA ha propiciado en ingeniería, en lo que más ha invertido ha sido en tecnologías de la información, sustituyendo a proveedores del sector de la defensa como Raytheon y Lockheed Martin por empresas tecnológicas de SiliconValley como Palantir, que la ayudan a infiltrarse en las modernas redes sociales y de comunicaciones. O podríamos recordar que en 2012 la aún más hermética Oficina Nacional de Reconocimiento, encargada de la vigilancia por satélite, anunció que iba a donar al público dos telescopios espaciales que no utilizaba. Los directivos de la NASA descubrieron que, aunque estaban fabricados a finales de los años noventa, sus capacidades superaban a las de la versión civil más potente de esa tecnología, el Telescopio

Espacial Hubble. Además, la corta distancia focal de su lente indicaba que se habían construido para mirar hacia abajo, no hacia arriba. Como escribió una periodista científica: «Si telescopios de este calibre están acumulando polvo en alguna estantería, cómo serán los que usen de verdad». [12] Estas agencias de nombres de tres letras, y sus equivalentes en otros países, son emblemáticas de la nueva edad oscura. A medida que su poder y tamaño aumentaban a lo largo de las décadas, partes considerables de la historia y de los descubrimientos científicos globales han ido desvaneciéndose en el mundo de la información sometida a secreto. La promulgación de secretos oficiales resulta profundamente corrosiva para la manera en que conocemos y entendemos el mundo, porque impide que conozcamos nuestra propia historia y entendamos lo que realmente somos capaces de hacer. En 1994, el Gobierno estadounidense creó un comité formado por miembros de ambos partidos, la Comisión de Secretos Gubernamentales, presidida por el senador Daniel Patrick Moynihan. La tarea encomendada a Moynihan y sus colegas era la de examinar todos los aspectos del secretismo en Estados Unidos, desde la calificación de documentos como secretos a las habilitaciones de seguridad; básicamente, qué se permitía que se supiese y a quién se permitía saberlo. La investigación, que duró tres años, descubrió que Estados Unidos generaba cada año 400.000 nuevos documentos considerados de alto secreto, el máximo nivel de clasificación, y acumulaba más de 1.500 millones de páginas de material secreto de más de veinticinco años de antigüedad. El informe final de Moynihan contenía la siguiente afirmación: «[El] sistema de secretos oficiales ha impedido sistemáticamente a los historiadores estadounidenses el acceso a los registros de la historia de su país. Últimamente hemos tenido que recurrir a los archivos de la antigua Unión Soviética en Moscú para resolver dudas sobre lo que ocurría en Washington a mediados de siglo».[13] Veinte años después, Donald Trump descubrió que ni siquiera como presidente tenía la capacidad de convencer a sus propias agencias de inteligencia para que hiciesen pública toda la información que obra en su poder sobre el asesinato de John F.Kennedy, un acontecimiento cuya historia, turbia y a menudo bajo secreto, ha envenenado durante décadas la relación entre el Gobierno estadounidense y sus propios ciudadanos.[14] En el Reino Unido la situación es muchísimo peor. En 2011, tras una batalla legal que se prolongó durante más de diez años, un grupo de kenianos torturados por las autoridades coloniales vio reconocido su derecho a querellarse contra el Gobierno británico. Los cuatro demandantes, seleccionados de entre seis mil testimonios, habían estado recluidos en campos de concentración en la década de 1950 y fueron sometidos a espantosos abusos. Ndiku Mutua y Paulo Muoka Nzili había sido castrados; Jane Muthoni Mara había sido violada con botellas llenas de agua hirviendo, y Wambugu Wa Nyingi sobrevivió a la masacre de Hola en marzo de 1959, en la que los vigilantes del campo mataron a golpes a once reclusos y causaron lesiones discapacitantes a otros setenta y siete. Durante años, el Gobierno británico negó los hechos y también la existencia de cualquier

registro que pudiese corroborarlos, junto con el derecho de los antiguos súbditos coloniales de llevar a juicio a sus opresores tras la independencia. Cuando la última de estas objeciones fue rechazada por el Tribunal Superior de Londres, el Gobierno se vio obligado a reconocer que sí poseía tales documentos (miles de ellos).[15] Una enorme cantidad de documentos de la era colonial conocidos como el «archivo migrado» permanecieron durante décadas almacenados en distintos lugares secretos repartidos por todo el Reino Unido, sin que los historiadores tuvieran conocimiento de su existencia, que por otra parte los funcionarios públicos negaban. En Hanslope Park, en las Midlands, una instalación gubernamental secreta albergaba alrededor de 1,2 millones de documentos con detalles reveladores sobre el sistema implantado en la Kenia colonial conocido como «el Pipeline», que los historiadores comparan con los campos de concentración nazis. Miles de hombres, mujeres e incluso niños sufrieron palizas y violaciones durante chequeos e interrogatorios. Entre las técnicas de tortura habituales estaban privar de alimento a los detenidos, la electrocución, la mutilación y la penetración forzosa, y llegaban a los azotamientos y la quema de los reclusos hasta su muerte. Los ficheros también contenían detalles de actividades coloniales en al menos otros treinta y siete países, que incluían masacres de campesinos durante la Emergencia Malaya, la subversión sistemática de la democracia en la Guayana británica, el funcionamiento de los centros de tortura de los servicios de inteligencia del Ejército en Adén y los planes para llevar a cabo pruebas con gas venenoso en Botsuana. El archivo migrado también contenía pruebas de que constituía solo una pequeña porción de una historia oculta mucho más amplia, en su mayor parte destruida. Junto con los documentos aún existentes —la mayoría de los cuales aún no se han hecho públicos— hay miles de «certificados de destrucción»: registros de ausencias que dan fe de la existencia de un programa generalizado de ocultación y eliminación de documentos. En los años finales del Imperio británico, los administradores coloniales recibieron órdenes de recopilar y proteger tantos registros como pudieran y, bien incinerarlos, o bien enviarlos a Londres. Es lo que se conoció como Operación Legacy, cuyo objetivo era blanquear la historia colonial. Agencias gubernamentales, con la ayuda del MI5 y de las Fuerzas Armadas de Su Majestad, levantaron piras con los documentos o bien, cuando el humo era demasiado evidente, los metieron en cajas pesadas y las hundieron en el mar, para así mantener sus secretos a salvo de los Gobiernos de los países que acababan de alcanzar la independencia o de los historiadores del futuro. Las pruebas incriminatorias no están a salvo ni siquiera tras haber sobrevivido durante décadas. Hasta 1993, una colección de 170 cajas de documentos que habían acabado en Gran Bretaña como parte de la Operación Legacy permanecieron almacenadas en Londres, donde estaban etiquetadas como «Alto secreto. Documentación independencias 1953 a 1963». Según los documentos aún existentes, las cajas ocupaban 24 metros de una estantería de la sala 52A del

Arco del Almirantazgo y contenían documentación sobre Kenia, Singapur, Malasia, Palestina, Uganda, Malta y otras quince colonias. Un inventario parcial que ha sobrevivido señala que los informes sobre Kenia incluían documentos relativos al abuso de prisioneros y a la guerra psicológica. Un lote titulado «Situación en Kenia. Empleo de curanderos por el Ministerio de las Colonias» llevaba la siguiente advertencia: «Esta documentación solo debe ser procesada y recibida por un administrativo varón».[16] En 1992, quizá por temor a que una victoria laborista en las inminentes elecciones generales diera paso a un nuevo periodo de apertura y transparencia, el Foreign Office ordenó que miles de documentos fuesen trasladados a Hanslope Park y, durante el transporte, la documentación de alto secreto sobre la independencia desapareció, sin más; no se emitieron certificados de destrucción, ni se ha encontrado rastro de ella en ningún otro archivo. Por ley, los documentos deberían haber sido trasladados a los Archivos Nacionales, pero en lugar de ello fueron simplemente expurgados de los registros. Los historiadores han llegado a la conclusión de que, cincuenta años después de los acontecimientos que documentaban, los únicos registros que quedaban fueron destruidos en el corazón de la capital británica. La brutalidad en Kenia «tenía desazonantes parecidos con las condiciones que se vivieron en la Alemania nazi o en la Rusia comunista», le escribió en 1957 el propio fiscal general de la colonia a su gobernador británico.[17] A pesar de ello, accedió a redactar nueva legislación que la permitiera, siempre y cuando se mantuviera en secreto: «Si hemos de pecar, pequemos con discreción», afirmó. La Operación Legacy fue un intento deliberado y consciente de ocultar la violencia y la represión que hacían posible el imperialismo, y su manipulación de la historia nos impide afrontar hoy debidamente la herencia de racismo, poder encubierto y desigualdad del Imperio británico. Además, el hábito de secretismo que engendró permite que sus abusos continúen hasta el día de hoy. Las técnicas de tortura desarrolladas en la Kenia colonial fueron refinadas, primero, en las «cinco técnicas» que el Ejército británico aplicó en Irlanda del Norte y, posteriormente, en las directrices de «interrogatorio mejorado» de la CIA. En 1990, un incendio intencionado destruyó el archivo policial de Carrickfergus, que contenía pruebas cruciales sobre las acciones del Estado británico en Irlanda del Norte. Cada vez son más las pruebas que relacionan al propio Ejército británico con el episodio. Cuando los investigadores trataron de determinar si los vuelos secretos de la CIA habían hecho escala en el territorio británico de Diego García, se les hizo saber que los registros de vuelo eran «incompletos debido a los daños causados por el agua».[18] Es difícil imaginar una excusa más adecuada, o más espantosa: al no haber sido capaces de encubrir la tortura por ahogamiento de los detenidos, las agencias de inteligencia procedieron a ahogar la propia información. Echar la vista atrás sobre esta sarta de engaños puede llevarnos a pensar que llevamos ya bastante tiempo viviendo en una edad oscura, y hay indicios de que las redes contemporáneas dificultan la ocultación de los pecados del pasado (o del presente). Pero, para que esto fuese

cierto, deberíamos aprender no solo a detectar las huellas de la ocultación, sino también a actuar para impedirla. Como muestra el torrente de revelaciones sobre las prácticas de vigilancia global al que hemos asistido durante los últimos cinco años, el hecho de que tengamos conocimiento de esta corrupción rara vez se traduce en que se haga algo para eliminarla. Cuando, en junio de 2013, empezaron a aparecer en los periódicos de todo el mundo los primeros titulares sobre las actividades de la NSA y el GCHQ, en un principio estalló el escándalo. Se demostró que ambas agencias habían estado espiando a millones de personas en todo el mundo, incluidos sus propios ciudadanos, en coordinación con otros Gobiernos y las empresas que en gran medida gestionan internet. Primero se supo que 120 millones de clientes de Verizon en Estados Unidos estaban siendo vigilados de cerca y que se registraban los números de ambos interlocutores en cada llamada, junto con su ubicación y la hora y duración de las conversaciones. Estos datos los recopilaba la compañía telefónica y, a continuación, se los entregaba al FBI, que a su vez se los pasaba a la NSA. Al día siguiente se dio a conocer la Operación PRISM, que recogía todos los datos que circulaban a través de los servidores de las principales empresas de internet, incluidos los mensajes de correo electrónico, los chats de voz y de vídeo y las imágenes y vídeos de Microsoft, Yahoo, Google, Facebook, YouTube, Skype y Apple, entre otros. Poco tiempo después, se supo que los tentáculos de las agencias de inteligencia eran más largos de lo que se creía, hasta captar datos en bruto directamente de los propios cables que transportan la información de un lugar a otro del mundo. Cuando se le preguntó a Edward Snowden qué se sentía al usar Xkeyscore, el sistema interno de la NSA, respondió lo siguiente: «Podíamos leer los correos de cualquiera en cualquier lugar del mundo, de cualquier persona cuya dirección de correo conociésemos; ver el tráfico de entrada y salida de cualquier sitio web; observar cualquier ordenador frente al que se sentase un individuo; ver cómo se movía de un sitio a otro por todo el mundo cualquier portátil que estuviésemos siguiendo».[19] Se hizo patente que la naturaleza internacional de internet implicaba que no había restricción posible a su vigilancia, ningún obstáculo a que los gobiernos espiasen a sus propios ciudadanos; todos eran extranjeros para alguien; y, una vez que los datos se recopilaban, se agregaban al montón. Los tentáculos del calamar vampiro no dejaban de expandirse: primero fueron la NSA y el GCHQ; después, los «cinco ojos» —Estados Unidos, Reino Unido, Australia, Nueva Zelanda y Canadá—, que se convirtieron en los «nueve ojos» al incluir Dinamarca, Francia, los Países Bajos y Noruega; a continuación, llegó el grupo de SIGINT Seniors Europe, o de los «catorce ojos», que incorporaba también a Alemania, Bélgica, Italia, España y Suecia, y ello a pesar de que era evidente que sus propios políticos, embajadas, misiones comerciales y delegaciones ante Naciones Unidas habían sido objetivos de los demás países. La canciller alemana Angela Merkel se quejó de que su teléfono había sido espiado durante el mismo periodo en el cual su propio Servicio Federal de Inteligencia, el BND, entregaba a los estadounidenses valiosa información

sobre ciudadanos europeos, empresas contratistas de defensa y sectores críticos.[20] Todos los detalles privados de las vidas personales de miles de millones de usuarios de internet y de teléfonos se desbordaban de enormes depósitos de datos cuya magnitud y tamaño excedían lo que hasta entonces se habría considerado técnicamente posible. Un programa llamado Nervio Óptico se centraba específicamente en las cámaras web de los usuarios de Yahoo Messenger, el programa de chateo más popular tanto entre quienes negociaban con materias primas como entre adolescentes salidos. De cada transmisión se guardaba una imagen fija cada cinco minutos —un límite que se aplicaba supuestamente para «cumplir la legislación en materia de derechos humanos»—, que se analizaba mediante software de reconocimiento facial para identificar a los participantes en la conversación. El GCHQ se vio obligado a implementar controles adicionales para proteger a su personal de la considerable proporción de datos que mostraban «desnudos indeseables».[21] Circularon historias de empresas suministradoras de la NSA que espiaban los correos electrónicos y mensajes de texto de cónyuges, amantes, exparejas y caprichos, una práctica lo suficientemente extendida como para que se ganase su propio alias jocoso, LOVEINT, y que ponía de manifiesto la facilidad con la que se podía acceder al sistema.[22] Otras palabras clave reflejaban las preocupaciones y el humor negro de sus creadores. Regin, un programa maligno utilizado para infiltrarse en los sistemas de telecomunicaciones de Bélgica y Oriente Próximo, contenía palabras clave relacionadas con el críquet, como LEGSPIN y WILLISCHECK, que se cree que hacen referencia al fast bowler inglés Bob Willis. [23] Otra operación del GCHQ para recopilar las direcciones IP de quienes visitaban determinados sitios web tenía como nombre en clave Karma Police, al parecer por la canción de Radiohead del mismo título, cuya letra dice: «Esto es lo que te pasará si te metes con nosotros». [24] Las historias circularon durante meses, la oscura jerga tecnológica pasó a formar parte de la cultura popular y presentaciones de PowerPoint de pésimo diseño quedaron grabadas en la memoria de millones de personas. Las palabras clave se multiplicaron, hasta convertirse en una especie de poética siniestra:

SIENES, MUSCULAR, MÍSTICO, LABIA

y

CONFIDENTE ILIMITADO; PITUFO

y DELFÍN CHILLÓN. En última instancia, estas listas interminables consiguen oscurecer la realidad práctica de un sistema de vigilancia global que no puede reducirse a las partes que lo componen. Como Edward Snowden escribió en su primer correo a la cineasta Laura Poitras: «Que sepas que cada frontera que atravieses, cada compra que hagas, cada llamada, cada torre de telefonía móvil por la que pases, cada amigo que tengas, cada artículo que escribas, cada web que visites, cada línea que escribas y cada paquete que envíes está en manos de un sistema cuyo alcance es ilimitado pero cuyas salvaguardias no lo son».[25] Pero lo que aún sigue siendo más llamativo, transcurridos pocos COTILLA, NUTRIA OCULTA, ARDILLA AGAZAPADA, CERDITO BARBUDO

años desde las revelaciones, no es en última instancia su alcance, sino lo evidentes que deberían haber sido y lo poco que ha cambiado la situación. La existencia de un esfuerzo tecnológico concertado para interceptar las comunicaciones civiles era algo conocido al menos desde 1967, cuando un telegrafista llamado Robert Lawson entró en las oficinas del Daily Express de Londres e informó al reportero de investigación Chapman Pincher de que todos los telegramas que entraban o salían del Reino Unido eran recogidos cada día por una furgoneta del Ministerio de Edificios y Obras Públicos y trasladados a un edificio del Almirantazgo donde se analizaban antes de ser devueltos. La historia, que se publicó en el periódico al día siguiente, dejaba claro que la interceptación de telegramas formaba parte de una operación mucho más amplia que también implicaba escuchas telefónicas y la apertura de correspondencia. Por aquel entonces, el público ni siquiera sabía de la existencia del GCHQ, e incluso cuando la comisión de investigación del propio Gobierno sobre el asunto confirmó que las informaciones eran correctas y calificó de engañosas una serie de declaraciones oficiales, la cuestión enseguida se esfumó de la memoria colectiva. En 2005,ocho años antes de las revelaciones de Snowden, el New York Times desveló que, tras el 11S, el presidente George W. Bush había otorgado amplios poderes secretos a la NSA para espiar las comunicaciones en Estados Unidos sin necesidad de una orden judicial.[26] El artículo reveló la existencia de un proyecto, cuyo nombre en clave era Stellar Wind, para crear una gran base de datos con las comunicaciones de los ciudadanos estadounidenses, incluidos los mensajes de correo electrónico, las conversaciones telefónicas, las transacciones financieras y la actividad en internet. William Binney, antiguo analista de la NSA, confirmó públicamente el alcance del programa, que fue criticado en la prensa por vulnerar claramente las protecciones constitucionales. El proyecto ya había provocado una cierta agitación interna en la administración cuando se descubrió que, contraviniendo la autorización presidencial, la NSA no solo estaba espiando las comunicaciones con una conexión extranjera, sino que también estaba recopilando datos de todas las comunicaciones a su alcance. La respuesta de la Casa Blanca consistió simplemente en renovar la autorización para el programa bajo una nueva rúbrica. Durante los años siguientes, Binney siguió haciendo ruido sobre el proyecto y, en fecha tan tardía como 2012, la revista Wired publicó una información (con la que insinuaba que el programa Stellar Wind seguía activo) sobre la construcción en Utah por parte de la NSA de un nuevo y enorme centro de datos, donde citaba comentarios de Binney sobre sus capacidades.[27] En mayo de 2006, un suministrador de AT&T llamado Mark Klein reveló que la NSA era capaz de monitorizar cantidades ingentes de comunicaciones. En 2002, Klein había conocido a un agente de la NSA que estaba reclutando a personal directivo de AT&T para un proyecto especial; al año siguiente descubrió una sala secreta dentro de la mayor central telefónica de San Francisco a la que solo se permitía el acceso del técnico reclutado por la NSA. La habitación estaba junto a la

maquinaria que enrutaba todas las llamadas públicas de teléfono. El propio Klein trabajó posteriormente en otra sala de la central telefónica donde se gestionaba el tráfico de internet para una empresa llamada Worldnet. Entre sus tareas allí estaba la de hacer derivaciones en los cables de fibra óptica de determinados circuitos y encaminarlas hacia la habitación secreta. Estos circuitos concretos eran los que conectaban a los clientes de Worldnet con el resto de internet, y conversaciones con otros empleados de AT&T desvelaron que en las centrales telefónicas de otras ciudades también se habían instalado armarios de derivación de circuitos similares. En cada caso, la fibra que se desviaba conectaba con un «analizador semántico» de la compañía NarusInsight, capaz de cribar cantidades enormes de información en busca de palabras y frases preprogramadas.[28] El tamaño de la «captura» era un fuerte indicio de que la NSA no solo estaba monitorizando las comunicaciones extranjeras, sino que también estaba haciendo acopio indiscriminado del tráfico doméstico. Una demanda presentada por la Electronic Frontier Foundation contra AT&T basándose en las evidencias aportadas por Klein así lo aseguraba; pero, aunque la historia tuvo una gran repercusión en los medios, fue bloqueada por el Gobierno estadounidense, que rápidamente aprobó legislación con efectos retroactivos para proporcionar a la empresa inmunidad legal. E incluso sin esas revelaciones, ¿por qué nadie estaba mirando? La magnitud del presupuesto sumergido estaba a la vista de todo el mundo; los puestos de escucha construidos para la Guerra Fría no habían dejado de funcionar e, incluso, se estaban ampliando; los campos de antenas planas y parabólicas aparecían en Google Maps, encaramadas en blancos acantilados situados sobre los puntos donde los cables salían del mar. El GCHQ incluso tuvo un sindicato hasta 1984, cuando fue prohibido de manera muy pública por Margaret Thatcher en una de las disputas laborales más prolongadas del siglo XX. Pero los debates en torno a las capacidades de las agencias no salieron del ámbito de los estudiosos de la inteligencia y, como veremos en el capítulo siguiente, fueron terreno abonado para los teóricos de la conspiración. No fue hasta la publicación en 2013 de los documentos de Edward Snowden cuando se alcanzó una cierta masa crítica de paranoia. Se pueden discutir las causas de que esto fuese así; quizá influyese su mero volumen y también su atractivo visual y narrativo. Desbordó nuestra capacidad de ignorar el asunto, al seguir presente día tras día, en un revoltijo de clichés, ridículos nombres de proyectos y espantosas diapositivas de PowerPoint, como una interminable reunión de marketing con el mismísimo Satanás. Quizás fue la propia historia de Snowden la que nos llamó poderosamente la atención: su repentina aparición en Hong Kong, su vuelo a Rusia, la necesidad de un protagonista joven y escurridizo que llevase el peso de la narración. Las revelaciones de Snowden fueron también las primeras en conectar los programas conocidos de la NSA y del GCHQ, en revelar su absoluto entrelazamiento operativo y, por ende, las maneras en que la

vigilancia global nos convirtió a todos en objetivo, negando cualquier posibilidad de estar protegidos por la aparente superioridad de nuestro propio Gobierno. Y a pesar de todo no se hizo nada. En Estados Unidos, las propuestas para acabar con las escuchas telefónicas sin orden judicial y frenar la recopilación indiscriminada de datos por parte de las agencias de inteligencia, como la enmienda Amash-Conyers, han sido rechazadas en ambas cámaras del Congreso, mientras que otras propuestas de ley siguen empantanadas en las comisiones. La FREEDOM Act estadounidense —cuya denominación oficial es Ley para Unir y Fortalecer Estados Unidos mediante el Cumplimiento de los Derechos y el Fin de las Escuchas Clandestinas, la Recolección Indiscriminada y la Vigilancia en Internet—, que se aprobó el 2 de junio de 2015, básicamente reimplantó la Patriot Act, que había expirado el día anterior. Aunque se vendió como la respuesta regulatoria a las revelaciones de Snowden, esta ley dejó intactas la mayoría de las competencias de la NSA, incluida la recopilación exhaustiva de metadatos: cualquier detalle de una comunicación, excepto su contenido, pudo a partir de entonces obtenerse mediante un requerimiento judicial secreto. Por otra parte, la ley podía ser revocada en cualquier momento por decreto presidencial, como había sucedido con las versiones anteriores en los años posteriores al 11S, y las operaciones en el extranjero no se vieron alteradas en absoluto. Nunca se iba a revertir mediante nueva legislación un proceso que se había basado en la vulneración sistemática y encubierta de la ley. El Gobierno británico, que nunca aprobó ninguna ley para impedir la vigilancia de sus propios ciudadanos por parte del GCHQ, ni antes ni después de las revelaciones, se limitó a hacer requerimientos de censura cada vez más draconianos, conocidos como D-Notices, a los periódicos que cubrían el asunto. Ante la guerra global contra el terrorismo en curso y frente a un complejo de inteligencia industrial cuyo poder era casi inconcebible, el resto del mundo no pudo hacer otra cosa que protestar en vano. En última instancia, nunca hubo realmente voluntad del público para hacer frente a las desquiciadas e insaciables exigencias de las agencias de inteligencia y, después de aflorar durante un breve periodo en 2013, se ha ido desvaneciendo debido al desgaste del continuo goteo de revelaciones y al puro horror existencial de todo el asunto. Nunca quisimos saber realmente lo que había en esas salas secretas, esos edificios sin ventanas en el centro de la ciudad, porque la respuesta siempre iba a ser mala. Como ocurre con el cambio climático, la vigilancia masiva ha resultado ser una idea demasiado inabarcable y desestabilizadora como para que la sociedad tome realmente conciencia de ella; al igual que las conversaciones incómodas, medio jocosas y medio aterrorizadas, sobre el clima, se ha convertido en otro quejumbroso rumor paranoico que se oye de fondo en todas nuestras vidas cotidianas. Pensar en el cambio climático echa a perder el tiempo, al convertirlo en una amenaza existencial incluso cuando hace bueno. Pensar en la vigilancia masiva echa a perder las llamadas telefónicas, los correos electrónicos, las cámaras y las conversaciones de dormitorio. Su icor negro cubre los objetos que tocamos a diario y sus

consecuencias penetran tan profundamente en nuestras vidas cotidianas que lo más fácil es añadirla a la larga lista de cosas sobre las que simplemente estamos de acuerdo en no pensar. Es una lástima, porque es mucho lo que aún queda por pensar y discutir en relación con la vigilancia masiva; en relación con cualquier vigilancia, de hecho, y con cualquier imagen que se use como evidencia. La vigilancia masiva global se asienta sobre el secretismo político y la opacidad tecnológica, que se retroalimentan mutuamente. Aunque los gobiernos siempre han espiado tanto a sus propios pueblos como a sus enemigos, su capacidad para escuchar a escondidas cada momento de la vida ha aumentado radicalmente gracias a las redes y a la capacidad de procesamiento, a la extensión de la computación hasta los muros de cada casa, las aceras de cada calle, nuestros lugares de trabajo y nuestros bolsillos. La posibilidad técnica genera la necesidad política, porque ningún político quiere que lo acusen de no hacer lo suficiente tras alguna atrocidad o revelación. La vigilancia se hace porque puede hacerse, no porque sea efectiva, y, como ocurre con otras implementaciones de la automatización, porque hace que recaiga sobre la máquina la carga de la responsabilidad y la culpa. Recopilémoslo todo y dejemos que las máquinas decidan qué vale y qué no. En un testimonio ante una comisión parlamentaria británica en 2016, Edward Snowden, el ya mencionado denunciante de la NSA, declaró que la recolección en bruto de datos por las agencias de inteligencia era «inútil en un 99 por ciento». La razón que ofreció para esta afirmación era que el mero volumen de información recopilada era tal que desbordaba a los analistas y hacía imposible entresacar los datos relevantes para afrontar amenazas específicas. Esta es una advertencia que muchos otros han hecho antes, pero cuyas consecuencias no se han abordado; de hecho, se han exacerbado. Tras el intento de hacer estallar un vuelo de Ámsterdam a Detroit el día de Navidad de 2009, el propio presidente Obama reconoció que el problema era un exceso de información: «No fue un fallo a la hora de recolectar información, [sino] un fracaso al integrar y entender la información que ya teníamos», afirmó.[29] «En un momento en que nos embargaban la envidia y el asombro ante el alcance y la profundidad de la capacidad de recopilación de información que tienen los estadounidenses, empezamos a sentirnos muy afortunados por no tener que procesar la inmanejable cantidad de información que genera», comentó sobre el asunto un funcionario del antiterrorismo francés.[30] Los excesos computacionales de la vigilancia masiva se pueden ver también en el programa de drones estadounidense, que durante años se ha visto lastrado por problemas de análisis e interpretación. A medida que se multiplican los drones y que aumenta su tiempo de vuelo, también lo hacen la resolución y el ancho de banda de las cámaras que portan, con lo que exceden exponencialmente nuestra capacidad de monitorizarlos. Ya en 2010, uno de los comandantes de más alto rango de las Fuerzas Aéreas estadounidenses advertía de que pronto estarían «nadando en sensores y ahogándose en datos».[31] Más información, incluso para las organizaciones más

avanzadas dedicadas a su procesamiento, no se corresponde con una mejor comprensión, sino que confunde y oculta, y se convierte en un acicate para una mayor complejidad: una carrera armamentística similar al problema de las predicciones meteorológicas, donde la computación intenta desesperadamente avanzar más rápidamente que el propio tiempo. Así describía William Binney las evidencias que presentó ante el Parlamento británico: «El efecto neto de la estrategia actual es que primero las personas mueren, incluso aunque los registros históricos puedan proporcionar información adicional sobre los asesinos (que para entonces podrían haber fallecido)».[32] En muchos sentidos, la vigilancia masiva sencillamente no funciona. Distintos estudios han demostrado repetidamente que genera poca o nula información útil para las agencias de antiterrorismo. En 2013, el Grupo de Revisión sobre Tecnologías de Inteligencia y Comunicaciones de la presidencia estadounidense declaró que la vigilancia masiva «no es esencial para evitar ataques», al comprobar que la mayoría de las pistas para desbaratarlos se obtenían mediante técnicas tradicionales de investigación, como la obtención de información de confidentes y las denuncias de actividades sospechosas».[33] Otro informe de 2014, en este caso de la New America Foundation, describía las declaraciones del Gobierno sobre el éxito de los programas de vigilancia tras los ataques del 11S como «exageradas y engañosas».[34] En el otro extremo del espectro, el análisis del despliegue de cámaras de circuito cerrado en espacios públicos ha demostrado que son algo tan ineficaz como la vigilancia global: se trata de una tecnología sumamente costosa, que desvía la financiación y la atención de otras estrategias para resolver los problemas que pretende abordar y ofrece magros resultados. Aunque suele considerarse un elemento disuasorio, no es tal cosa. Cuando San Francisco instaló cientos de cámaras de seguridad a mediados de la década de 2000, se redujo el número de homicidios en un radio de 75 metros de las cámaras, pero aumentó en los 75 metros siguientes. La gente simplemente se alejó un poco para matarse.[35] La videovigilancia, como la vigilancia global, no sirve más que para elevar el zumbido paranoico de fondo, al acrecentar los temores a la delincuencia y al control sin hacer nada por abordar ni la una ni el otro. Básicamente, tanto la videovigilancia como la vigilancia masiva son retroactivas y punitivas: permitirán recopilar más información y que se efectúen más arrestos, pero solo una vez que el delito se haya cometido. El suceso crítico ya se ha producido y las causas subyacentes continúan ignorándose. Considerar de esta manera la eficacia de la vigilancia nos obliga a reflexionar sobre nuestras propias estrategias para oponernos a los abusos de poder. ¿Realmente sirve de algo arrojar luz sobre el asunto? Mejorar la iluminación ha sido desde hace tiempo uno de los axiomas de la propia comedia de la seguridad, pero la instalación de sistemas de iluminación en las calles se ha visto seguida por un incremento en la criminalidad tantas veces como por un descenso.[36] Es posible que la luz haga que los delincuentes se envalentonen tanto como cualquier víctima: cuando

todo está bien iluminado, los malvados parecen mucho menos sospechosos y saben cuándo la costa está despejada. Las luces brillantes hacen que las personas se sientan más seguras, pero no hace que lo estén realmente.[37] La exposición de las actividades más oscuras de las agencias de inteligencia no ha conseguido reducirlas, sino que ha servido para tranquilizar al público al tiempo que legitimaba esas mismas actividades. Operaciones que antes tenían lugar en una difusa zona de oscuridad y negación se han recogido en la ley, lo que nos hace un flaco favor. Quizá, mientras aplaudimos el impacto visual de las revelaciones de Snowden por estimular un debate en torno a la vigilancia masiva, deberíamos plantearnos si esa misma visibilidad no ha servido para distraernos de nuestros intentos por entender sus mecanismos básicos y su persistencia. Si, por una parte, podemos argumentar que la vigilancia fracasa por basarse más en las imágenes que en la comprensión y por su creencia en un relato único y justificador, ¿cómo podemos argumentar, por otro lado, que las estrategias vigilantes para contrarrestarla tendrán éxito? Y sin embargo esto es exactamente lo que hacemos. En oposición al secretismo, reivindicamos la transparencia. Nuestras demandas de claridad y sinceridad quizá parezcan una réplica a la opacidad y el secreto, pero acaban reafirmando la misma lógica. Desde esta perspectiva, la Agencia de Seguridad Nacional y Wikileaks comparten una misma visión del mundo, con objetivos distintos. En esencia, ambas entidades creen que en lo más profundo del mundo existe un secreto que, si se conociese, haría que todo fuese mejor. Wikileaks quiere transparencia para todos, la NSA solo quiere transparencia para algunos, sus enemigos, pero ambos se rigen por la misma filosofía. La intención original de Wikileaks no era convertirse en una especie de imagen especular de la NSA, sino en destrozar por completo la maquinaria. En 2006, en los primeros tiempos de Wikileaks, Julian Assange redactó un análisis sobre los sistemas de gobierno conspirativos y cómo se podían atacar titulado «La conspiración como Gobierno». Para Assange, todos los sistemas autoritarios son conspiraciones porque su poder depende de que oculten secretos a sus pueblos. Las filtraciones erosionan su poder, no por lo que se filtre, sino porque el incremento del miedo y la paranoia internos degrada la capacidad del sistema para conspirar. Lo que resulta perjudicial es el propio acto de la filtración, no el contenido de cualquier filtración en particular. [38] A medida que Wikileaks alcanzó notoriedad y el propio Assange se convirtió en una figura cada vez más poderosa y arrogante, la organización se vio envuelta en una serie de disputas con las agencias de inteligencia —en última instancia, se convirtió en un instrumento para que los Estados se atacaran entre sí— y se perdió esta convicción. Lo que la sustituyó fue la confianza errónea en el poder de la «pistola humeante»: la única fuente o elemento probatorio capaz de derribar a la autoridad. El problema de la pistola humeante envuelve cualquier estrategia que dependa de la revelación

de información para influir en la opinión pública. Así como las actividades de las agencias de inteligencia podrían haberse intuido mucho antes de las revelaciones de Snowden por múltiples informaciones aparecidas a lo largo de las décadas, también otras atrocidades se ignoran hasta que se alcanza un determinado nivel de veracidad documental. En 2005, Caroline Elkins publicó una descripción exhaustiva de las atrocidades británicas en Kenia, pero su trabajo recibió muchas críticas por basarse en historias orales y en testimonios de testigos presenciales.[39] Solo cuando el propio Gobierno británico hizo públicos documentos que confirmaban los testimonios, se admitieron y pasaron a formar parte de la historia aceptada. Se ignoró el testimonio de quienes sufrieron hasta que encajó con el relato que ofrecían sus opresores; una forma de evidencia esta de la que, como hemos visto, nunca se dispondrá para multitud de otros crímenes. De la misma manera, el culto al denunciante depende de cambios de conciencia de quienes ya trabajan para los servicios de inteligencia; los individuos ajenos a estas organizaciones carecen de capacidad de actuación y deben esperar con impotencia a que algún anónimo servidor público se digne a publicar lo que sabe. Esta es una base radicalmente insuficiente para la acción moral. Así como la disponibilidad de una ingente potencia computacional impulsa la implementación de la vigilancia global, su lógica ha llegado a dictar la forma en que respondemos a ella y a otras amenazas determinantes para nuestro bienestar, tanto cognitivo como físico. La exigencia de pruebas que nos permitan afirmar una determinada hipótesis con una certeza absoluta prevalece sobre nuestra capacidad de actuar en el presente. Ante la mínima incertidumbre, se desdeña el consenso (como el amplio acuerdo científico existente en torno a la urgencia de la crisis climática). Nos encontramos atrapados en una especie de parálisis: exigimos que la flecha de Zenón acierte en la diana incluso mientras la atmósfera que tiene por delante se calienta y se espesa. La insistencia en una confirmación siempre insuficiente provoca la profunda extrañeza del momento presente: todo el mundo sabe lo que está pasando y nadie puede hacer nada al respecto. La dependencia de la lógica computacional de la vigilancia para acceder a la verdad sobre el mundo nos deja en una posición fundamentalmente precaria y paradójica. El conocimiento computacional requiere vigilancia, porque solo puede producir su verdad a partir de los datos que tiene directamente a su disposición. A su vez, todo conocimiento se reduce a aquello que es computacionalmente conocible, de modo que todo conocimiento se convierte en una forma de vigilancia. Así, la lógica computacional niega nuestra capacidad de examinar la situación y actuar racionalmente en ausencia de certeza. Además, es puramente reactiva: solo permite la acción una vez que se hayan acumulado evidencias suficientes y la prohíbe en el presente, cuando más se necesita. La vigilancia continua, y nuestra complicidad en ella, es una de las características más fundamentales de la nueva edad oscura, porque insiste en una especie de visión ciega: todo está

iluminado, pero no se ve nada. Nos hemos convencido de que arrojar luz sobre el asunto es lo mismo que reflexionar y, por lo tanto, tener influencia sobre él, pero la luz de la computación tiene también la capacidad de dejarnos inermes, ya sea por la sobrecarga de información o por una falsa sensación de seguridad. Una falsedad de la que nos ha convencido el poder seductor del pensamiento computacional. Consideremos un ejemplo de la propia red. Cierto tiempo antes de mayo de 2016, James O’Reilly, un habitante de Fort McMurray en Alberta, Canadá, instaló en su casa un sistema de seguridad de la marca Canary. El paquete de productos de Canary, como los que ofrece Google Home, encarna a la perfección la lógica de la vigilancia y el pensamiento computacional: un conjunto de cámaras, sensores y alarmas conectados entre sí y a través de internet que proporcionan un conocimiento total de la situación del hogar en tiempo real y, con ello, la promesa de protección y tranquilidad gracias a la actuación de las máquinas que todo lo ven. El 1 de mayo de 2016, en el bosque boreal al suroeste de Fort McMurray se inició un incendio forestal que, avivado por fuertes vientos, se extendió hacia la ciudad. El día 3 se dictó una orden de desalojo obligatoria y 88.000 personas tuvieron que abandonar sus hogares, entre ellas O’Reilly. Mientras se alejaba, su iPhone mostró una notificación del sistema de seguridad del hogar y comenzó a transmitir vídeo en directo, que más tarde acabó en YouTube.[40] El vídeo comienza con una toma del salón de su casa: las lámparas de la mesa siguen encendidas, al igual que las luces de una pecera en la que aún nadan peces de colores. Un fuerte viento sacude los árboles que se ven por la ventana, pero nada parece alarmante. Durante los siguientes minutos, empiezan a golpear la puerta unas sombras que lentamente van convirtiéndose en oleadas de humo. Al cabo de otro minuto, la ventana se ha ennegrecido y el marco empieza a arder. El fuego destroza primero la persiana y a continuación la propia ventana. El humo se desborda sobre la habitación, que se va oscureciendo progresivamente. La cámara cambia a visión nocturna en blanco y negro. En la oscuridad creciente, suena intermitentemente una alarma, que al rato se calla; lo único que se oye ya es el crepitar de las llamas. Es una escena dantesca, pero que parece reflejar las circunstancias de una nueva edad oscura. Nuestra visión es cada vez más universal, pero nuestra capacidad de actuar es cada vez menor. Cada vez sabemos más sobre el mundo, pero somos menos capaces de hacer algo al respecto. El sentimiento de impotencia resultante, en lugar de incitarnos a reconsiderar nuestras ideas de partida, parece conducirnos a una paranoia y una desintegración social más profundas: más vigilancia, más desconfianza, un hincapié cada vez mayor en el poder de las imágenes y de la computación para rectificar una situación que es consecuencia de nuestra creencia ciega en su autoridad. La vigilancia no funciona, y tampoco lo hace la denuncia justiciera. No hay ningún argumento definitivo a favor de cualquiera de las dos, ninguna declaración contundente que alivie nuestra

conciencia y cambie la opinión de nuestros adversarios. No hay una pistola humeante, ni una confirmación total, ni un desmentido claro. La respuesta Glomar, más que las palabras muertas de una burocracia despreocupada, resulta ser la descripción más certera del mundo que somos capaces de articular.

8 Conspiración

En la novela de Joseph Heller Trampa 22, los aviadores del 256.º escuadrón de las Fuerzas Aéreas estadounidenses se encuentran atrapados en una situación imposible. La guerra está en su apogeo y se intensifican los combates aéreos en los cielos italianos. Cada vez que se suben a la cabina del avión, corren el riesgo de ser derribados, y es claramente un disparate decidir volar en más misiones peligrosas; la opción sensata sería negarse a hacerlo. Pero para librarse de salir a volar en esas misiones, tendrían que alegar demencia, lo que llevaría a que los declarasen cuerdos por tratar de evitar tener que volar. El aviador «estaría loco si cumpliera más misiones y cuerdo si no las cumpliera, pero si estaba cuerdo tenía que realizarlas. Si las realizaba estaba loco y no tendría que hacerlo; pero si no quería, estaba cuerdo y tenía que hacerlo».[1] Trampa 22 ejemplifica el dilema de unos actores racionales atrapados en las intrigas de enormes sistemas irracionales, en cuyo seno incluso las respuestas racionales conducen a resultados irracionales. El individuo es consciente de la irracionalidad, pero pierde toda capacidad de actuar en su propio interés. Ante el tsunami de información, intentamos lograr algún tipo de control sobre el mundo contando historias sobre él: tratamos de dominarlo mediante relatos. Estos relatos son, por naturaleza, simplificaciones, porque ninguna historia única puede dar cuenta de todo lo que ocurre; el mundo es demasiado complejo para historias simples. En lugar de aceptarlo, las historias se vuelven cada vez más recargadas y bifurcadas, cada vez más enrevesadas e inconclusas. Así es como la paranoia en una época de exceso de redes produce un bucle de retroalimentación: la incapacidad de comprender un mundo complejo conduce a la exigencia de cada vez más información, que solo contribuye a nublar aún más nuestra comprensión, al revelar una complejidad creciente de la que debe darse cuenta mediante teorías del mundo cada vez más rebuscadas. Más información no genera más claridad, sino más confusión. En la adaptación cinematográfica de Trampa 22, de 1970, el capitán de las Fuerzas Aéreas John Yossarian, interpretado por Alan Arkin, pronuncia la siguiente frase inmortal: «Que seas paranoico no significa que no te estén persiguiendo». La sentencia de Yossarian ha revivido gracias a los modernos thrillers conspiranoicos inspirados por los avances tecnológicos y la vigilancia masiva. Uno de los primeros síntomas de la paranoia clínica es la creencia de que alguien nos vigila, pero esta creencia ahora es razonable. Cada correo electrónico que enviamos;

cada mensaje de texto que escribimos; cada llamada telefónica que hacemos; cada viaje que emprendemos; cada paso, cada respiración, cada sueño, cada palabra que pronunciamos son objetivo de gigantescos sistemas de recopilación automática de información, algoritmos de clasificación de las redes sociales y fábricas de contenido basura, la mirada insomne de nuestros propios teléfonos inteligentes y dispositivos conectados. ¿Quién es ahora el paranoico? Es noviembre de 2014 y me encuentro en una carretera secundaria en un campo cerca de Farnborough, en Hampshire, Inglaterra. Estoy esperando a que me sobrevuele un avión. No sé cuándo despega ni si realmente lo hará. Hay una cámara sobre el capó de mi coche que lleva ya dos horas grabando el cielo vacío; cada treinta minutos o así borro la tarjeta de memoria y la vuelvo a poner en marcha. La nube fina y alta brilla y desaparece. El avión que espero ver es uno de los tres Reims-Cessna F406 con base en el aeropuerto de Farnborough, sede del famoso espectáculo aéreo y el lugar desde donde partió el primer vuelo con motor en Gran Bretaña, en 1908. El Royal Aircraft Establishment, que desarrolló y construyó las primeras aeronaves, y más adelante aviones, para el Ejército británico se creó aquí —como la Fábrica de Globos del Ejército— en 1904. En los hangares al sur de las pistas, la Oficina de Investigación de Accidentes Aéreos recompone los fragmentos desperdigados de aviones estrellados para reconstruir las circunstancias de su caída. Es, por lo tanto, una meca para los chiflados de los aviones, como yo, así como el aeródromo favorito de los oligarcas y las casas reales extranjeras, que ruedan por la pista número uno en jets privados sin distintivos. Los Cessnas no son jets, sino pequeños aviones turbohélice bimotor diseñados para la vigilancia civil y militar, particularmente del gusto de guardas costeras y empresas de reconocimiento aéreo. Tuve la primera noticia de los tres estacionados en Farnborough cuando me topé con uno que se pasó varias horas describiendo círculos cerrados sobre la isla de Wight una tarde de verano. Pasaba mucho tiempo en el sitio web FlightRadar24, en un principio buscando los aviones chárteres privados que se usaban para deportar en mitad de la noche a quienes habían visto rechazada su solicitud de asilo,[2] pero la pura abundancia de datos que caían desde los cielos y los intrincados patrones que formaban los aviones sobre el sur de Inglaterra me fueron fascinando progresivamente. En cualquier momento del día, miles de aviones, grandes y pequeños, atraviesan a toda velocidad o se pasean tranquilamente por este congestionadísimo espacio aéreo, uno de los más concurridos del mundo. Entre los jets de larga distancia y los puentes aéreos de bajo coste se cuelan aviones de prácticas y transportes militares y, en ocasiones, vuelos que el Gobierno preferiría que permaneciesen ocultos. Pocas personas saben más sobre lo que tapa el Gobierno británico que el reportero de investigación Duncan Campbell, que fue la primera persona que informó públicamente sobre el GCHQ, ya en 1976. En 1978, el Gobierno castigó a Campbell y a sus colegas Crispin Aubrey (otro periodista) y John Berry (un antiguo agente de inteligencia) al procesarlos aplicando la Ley

de Secretos Oficiales.[3] El llamado juicio a ABC, que duró meses, reveló que casi toda la información que se usó en las publicaciones ya era de dominio público. «No hay secretos, solo investigadores vagos», escribió Richard Aldrich, historiador de los servicios de inteligencia, en una crónica del juicio.[4] En 2010, Campbell reseñó el libro de Aldrich sobre el GCHQ para el New Statesman: [La instalación del GCHQ en Bude, en Cornualles] supuso el inicio del Proyecto Echelon de los países aliados de habla inglesa, comparable, según sugiere Aldrich, al actual sistema de alertas de Google, que monitoriza constantemente internet en busca de nuevas adiciones. Es una comparación ingeniosa, pero omite un elemento de divergencia fundamental: Google, aunque a menudo comete excesos, recopila información que es de dominio público; los recopiladores pertenecientes a SIGINT [inteligencia de señales] escanean y almacenan todo el ámbito privado de la comunicación, con dudosa autoridad para hacerlo, en el mejor de los casos, y ciertamente sin rendir cuentas por ello de la manera en que esto se entiende normalmente. En este mismo momento, mientras lee usted este texto, es probable que un avión de SIGINT sobrevuele el este de Londres, a diez mil metros de altura sobre Canary Wharf, haciendo acopio de las redes celulares de la capital y, supuestamente, intentando determinar si la voz de alguna de las llamadas telefónicas efectuadas en la zona corresponde a algún terrorista que ha vuelto a Gran Bretaña tras haber sido entrenado por los talibanes. Si esa actividad permite atrapar de manera efectiva a quienes planean atentar en las calles de la ciudad, todo nos parecerá estupendo. Pero ¿cómo se protege contra irregularidades, errores o algo peor a los cientos de miles de personas cuyas comunicaciones se recopilan?[5]

Esta, y otras referencias desperdigadas, fue lo que encontré cuando empecé a buscar información sobre los Cessnas que revoloteaban sobre la isla de Wight. En G-INFO, la base de datos de acceso público de las aeronaves registradas en Reino Unido, encontré dos de los aviones, que figuraban como propiedad de Nor Aviation, una misteriosa entidad con dirección en un establecimiento de Mail Boxes Etc. (MBE) en Surbiton, a pocos kilómetros del aeródromo. La misma ubicación anónima era la dirección registrada de un segundo Cessna propiedad de Nor Aviation, mientras que un tercero, que efectuaba las mismas pasadas a baja altura sobre Bembridge y Blackgang, estaba registrado a nombre de Aero Lease UK, en el MBE del propio Farnborough. Los nombres de varios de los propietarios coincidían con los de agentes y exagentes de la Policía Metropolitana de Londres (Met), un detalle extraño confirmado por el descubrimiento de un artículo de prensa de 1995 que detallaba el fraude que perpetró a lo largo de una década Anthony Williams, un antiguo contable de la Met.[6] Williams fue el encargado de constituir empresas tapadera para la rama aérea secreta de la Met, pero desvió la mayor parte de los fondos —unos cinco millones de libras en nueve años— a su propia cuenta bancaria, desde donde se emplearon para comprar gran parte del pueblo escocés de Tomintoul, así como el título señorial de lord Williams de Chirnside. Los intentos por averiguar más sobre los aviones en foros de pilotos y de avistadores de

aviones se vieron frustrados por la habitual deferencia británica hacia las autoridades: quienes publicaban algo sobre los aviones recibían advertencias de otros usuarios, los administradores de los grupos de avistadores de Farnborough prohibieron cualquier mención de sus números de cola. No fue ninguna sorpresa; ya antes, mis investigaciones en torno a los vuelos de deportación habían llevado a que me expulsasen sin contemplaciones de varios foros. «Nos interesan los aviones, no quién viaja en ellos», me dijeron. O —en el caso de la vigilancia indiscriminada de dudosa legalidad de las llamadas de teléfono móvil del público en general por una flota secreta de aeronaves de la Policía— ni siquiera estaban interesados en los aviones, a pesar la profusión de imágenes suyas que abarrotaban las webs de entusiastas de la fotografía aérea. (Sospecho también que la existencia de estos aviones reforzó la perseverancia de la Met en el secretismo cuando, ingenuamente, solicité información sobre sus capacidades aéreas, como se cuenta en el capítulo anterior.) Heme aquí, pues, en un campo en Hampshire, donde, tras varias horas de espera, empieza a oírse el chirrido como de un cortacésped que emite un aeroplano ligero, seguido al poco tiempo por la aparición de un pequeño avión bimotor cuyo número de registro era claramente visible en la cara inferior de las alas. En cuanto se pierde en el horizonte, aparece en FlightRadar24, con rumbo suroeste. Lo sigo en mi teléfono durante una hora, mientras efectúa su recorrido habitual en círculos a una altitud media frente a la costa sur, y después se dirige de vuelta hacia mí. Unos noventa minutos después de su despegue, vuelve a Farnborough. Aún no sé qué hacen allí estos aviones. Más tarde, creo un pequeño programa informático para escarbar en el sitio web y llevar un registro de todos los vuelos de los tres aviones, así como de otros (los vuelos de deportación que despegaban a las tres de la madrugada del aeropuerto de Stansted, los viajes camuflados de la CIA sobre Los Ángeles y Boston, los aviones Islander del MI5 que hacen vuelos a gran altitud partiendo desde Northolt). Los macrodatos fluyen desde el cielo a un ritmo que apenas puedo seguir, pero es que, además, no sé qué hacer con ellos. En algún momento a lo largo de 2016 los aviones dejan de emitir información sobre su posición tras el despegue. Mientras espero junto al aeródromo, otro coche se para a mi lado: un minitaxi, según la licencia pegada en la luneta posterior. La carretera secundaria, muy próxima a la A325, es un buen lugar para que los taxistas hagan tiempo entre carreras. El conductor se baja del coche y aprovecho para pedirle fuego. Fumamos un cigarrillo juntos y se percata de mi radio y mis prismáticos. Hablamos sobre aviones y, a continuación, inevitablemente, sobre estelas químicas. «Las nubes ahora son distintas, ¿a que sí?», dice el taxista. Empieza a ser una conversación habitual. Si uno entra en YouTube, encontrará innumerables vídeos en los que se analiza, a menudo con rabia, la naturaleza cambiante de los cielos, así como los aviones responsables de esos cambios. Muchas de mis búsquedas en internet en relación con los aviones que graban las llamadas desde teléfonos móviles me acaban llevando a historias no sobre vigilancia, sino sobre

geoingeniería encubierta: el uso de aviones para controlar la atmósfera mediante el rociado de compuestos químicos. Aquí está pasando algo raro. En este presente hiperconectado y anegado de datos, se abren cismas en la percepción por parte de las masas. Todos miramos al mismo cielo, pero vemos cosas distintas. Donde yo veo deportaciones encubiertas y aviones de vigilancia secreta —algo que está respaldado por los registros de vuelo y los datos del sistema Automático Dependiente de Vigilancia-Difusión (ADS-B, por sus siglas en inglés), las informaciones de prensa y las solicitudes amparadas por la legislación de transparencia— otros ven una conspiración global para manipular la atmósfera, controlar las mentes y esclavizar a las poblaciones, o para rediseñar el clima con propósitos ingenuos o perversos. En una atmósfera donde aumenta de manera medible la proporción de dióxido de carbono —un gas que calienta el planeta y nos atonta—, muchos están convencidos de que nos están vertiendo encima mucho más que gases de efecto invernadero. De las estelas químicas lleva hablándose bastante tiempo, al menos desde la década de 1990, cuando, según los conspiranoicos, las Fuerzas Aéreas estadounidenses revelaron sin querer lo que estaban tramando realmente. En un informe titulado «El clima como multiplicador de fuerza: adueñarse del clima en 2025», un grupo de investigadores de las Fuerzas Aéreas propusieron una serie de medidas mediante las cuales el Ejército de Estados Unidos podría utilizar la modificación del clima para alcanzar «el dominio del campo de batalla en una medida nunca antes imaginada», entre las que estaban inducir y evitar las precipitaciones, controlar las tormentas eléctricas y activar la ionosfera selectivamente mediante haces de microondas para mejorar o degradar las comunicaciones por radio.[7] Aunque la modificación del clima tiene una larga historia, la particular combinación de meteorología especulativa, investigación militar y la incipiente internet provocaron que las estelas químicas se hiciesen virales; quizá la primera tradición folclórica verdaderamente popular en la red. En unos pocos años, propalada por los foros de internet y las tertulias radiofónicas, se extendió la creencia, que llegó a hacerse global, de que los aviones estaban esparciendo intencionadamente compuestos químicos en la alta atmósfera. Se plantearon preguntas en los parlamentos, las organizaciones científicas nacionales se vieron desbordadas por las consultas, se abucheaba a los climatólogos en las conferencias. En internet proliferan los vídeos temblorosos de cielos despejados tiznados con esmog y de aviones que dejan rastros de humo negro. Grupos de individuos se congregan en foros y en grupos de Facebook para intercambiar anécdotas e imágenes. La teoría de las estelas químicas es una hidra de múltiples caras; sus adeptos creen en versiones fractales de la misma idea. Para algunos, los compuestos químicos que esparcen aviones comerciales, militares y secretos forman parte de un programa generalizado de gestión de la radiación solar: la creación de una cobertura de nubes para reducir la incidencia de la luz solar

y ralentizar —o acelerar— el calentamiento global. Los compuestos químicos provocan cáncer, alzhéimer, enfermedades cutáneas y deformidades. El propio calentamiento global puede que sea mentira, o una conspiración de fuerzas tenebrosas para tomar el control del mundo. Otros creen que las sustancias químicas sirven para convertir a las personas en zombis descerebrados, o para hacer que enfermen y así beneficiar a la industria farmacéutica. La geoingeniería encubierta, el negacionismo climático y el nuevo orden mundial se suman al revoltijo de la desinformación en internet, vídeos artesanales, afirmaciones y desmentidos y desconfianza contagiosa. Las estelas químicas se convierten en el vórtice de otras conspiraciones y lo atraen todo hacia su órbita. «Recupera tu poder: vota para que salgamos de la UE», exhorta en YouTube un usuario cuyo nombre, como quizá era de esperar, es Flat Earth Addict [«adicto al terraplanismo»], sobre un montaje de un cielo azul en los suburbios entrecruzado de estelas.[8] Según su relato, la ingeniería climática encubierta es un proyecto de la Unión Europea para sofocar la voluntad del pueblo. Pocos días más tarde, la mañana después de que el Reino Unido votase efectivamente a favor de abandonar la Unión Europea, Nigel Farage, el líder de facto de la campaña a favor del brexit, aparece en la televisión nacional para afirmar: «El sol ha salido en una Gran Bretaña independiente. No hay más que verlo: hasta el tiempo ha mejorado».[9] La ubicuidad de las estelas químicas guarda importantes semejanzas con la interpretación del propio cambio climático en clave del hiperobjeto de Timothy Morton: algo que se aferra a la piel y se introduce en todas y cada una de las facetas de la vida, como quedó perfectamente plasmado en la crónica que escribió la periodista Carey Dunne tras pasar un mes en California entre creyentes en las estelas químicas: «Ojalá no lo supiera, porque, ahora que lo sé, tengo el corazón compungido».[10] Las conspiraciones dan sentido al horror que sentimos que nos acecha pero del que nadie habla. El entusiasmo inicial de Dunne ante una temporada idílica de desconexión trabajando en una granja ecológica da un giro extraño cuando descubre las creencias de sus patrones, hippies neorrurales que, a través de Facebook, descubrieron una comunidad de personas del lugar que creían en las estelas químicas, y un tuit manipulado de Donald Trump en el que afirmaba que su gobierno acabaría con las estelas: «¿Cómo puede saber alguien como yo qué es verdad y qué no? —dice Tammi—. Tengo cincuenta y cuatro años. No veo las noticias por televisión ni las escucho en la radio. Y, cuando me meto en internet y veo algo que me hace soltar:“¡Hostia! ¿En serio?”, acabo creyéndolo. No tengo el conocimiento que sí tiene un periodista sobre lo creíble que es una fuente. Cuando eres una persona normal, te pueden hacer creer lo que sea. En internet, cualquiera puede hacer circular una noticia. ¿Cómo sé yo si es verdad o no? Las cosas se complican cuando estamos intentando elegir presidente. La gente eligió a Donald Trump porque [creyeron] que había tuiteado que acabaría con las estelas químicas. ¿Me entiendes?»[11]

Pero las teorías de la conspiración cumplen una función esencial y necesaria al sacar a la luz objetos y discursos que de no ser por ellas serían ignorados: los casos límite del espacio de problemas. La expresión «teoría de la conspiración» tiene más que ver con cómo las personas se relacionan con el poder que con cómo lo hacen con la verdad. Las «fumarolas negras» de quienes creen en las estelas químicas no se pueden ignorar sin más, cuando está tan claro que apuntan directamente al cataclismo real que en la actualidad está teniendo lugar en la atmósfera. Puede que las nubes de peste de Ruskin no fuesen las primeras emanaciones visibles de las chimeneas en una Gran Bretaña en plena industrialización, pero quizá sí sean una metáfora más profunda: un miasma que desprenden los miles de cadáveres que cubren los campos de batalla de toda Europa, las primeras víctimas de las guerras del capital industrial en el siglo XX. Como en la época de Ruskin, la incertidumbre fundamental del presente se manifiesta en formaciones meteorológicas: una disposición de nubes nuevas y extrañas. En 2017, la edición más reciente del Atlas Internacional de las Nubes, publicado por la Organización Meteorológica Internacional, añadió un nuevo elemento a su lista oficial de formaciones de nubes, la «antroponube», término que se utiliza para describir las formaciones que se desarrollan como consecuencia de la actividad humana.[12] En la zona inferior de la atmósfera, el aire cálido y húmedo debido a las emisiones urbanas y de los vehículos crea una neblina: son las capas de Stratus hom*ogenitus. En atmósferas inestables, estas capas se elevan hasta formar nubes individuales, los Cumulus hom*ogenitus. Las centrales termoeléctricas, que expulsan a la atmósfera media el calor residual desde sus torres de enfriamiento, contribuyen así al crecimiento de los nimbostratos y altoestratos ya existentes, que proyectan su sombra sobre aquellas. Pero es en la alta atmósfera, lejos de la superficie terrestre, donde se desarrollan las antroponubes.

Stratocumulus hom*ogenitus. Las columnas de vapor que emiten las centrales térmicas de Prunéřov, Tušimice y PoČerady en la República Checa generan nubes que se dispersan hasta formar estratocúmulos a una altitud de unos 2.500 metros. Fotografía: Karlona Plskova / Organización Meteorológica Mundial.

La combustión del queroseno en los motores a reacción produce vapor de agua y dióxido de carbono. El vapor se enfría rápidamente en el aire gélido y forma inicialmente minúsculas gotitas de agua líquida que, a continuación, se solidifican en forma de cristales de hielo. A elevadas altitudes, se necesitan pequeños núcleos alrededor de los cuales puedan formarse estos cristales, eso es lo que proporcionan las impurezas del combustible del avión. Millones y millones de estos cristales componen el rastro que deja el avión a su paso. Son Cirrus hom*ogenitus. Las estelas de condensación son nubes oficialmente artificiales, que en días fríos y apacibles pueden perdurar durante horas o incluso más tiempo. Los cielos plagados de rastros cruzados pueden verse por todas partes. En Los invisibles, la serie de cómics de Grant Morrison, uno de los personajes toma una instantánea del cielo del desierto y comenta: «Esta nube con forma de cabeza que se eleva sobre el altiplano en Dulce, Nuevo México, es exactamente igual, hasta el más mínimo detalle, que otra fotografiada en Queenstown, Nueva Zelanda». En la cosmología de Los invisibles, este es uno de los momentos dramáticos en los que el relato colapsa y salen a la luz evidencias de los viajes en el tiempo y de muchas otras cosas. Para nosotros, el entrelazamiento extraño y global de los Cirrus hom*ogenitus y su infinita circulación y reproducción en internet, debida tanto a las investigaciones sobre el clima como a las teorías de la conspiración, señala el momento en que el clima se transforma en datos en acción: una nube de tormenta del Antropoceno que, ilimitada en el espacio físico, se extiende a través de la red y de la imaginación paranoica. Los científicos se esfuerzan por desvincular las estelas de condensación «normales» de las estelas químicas de los conpiranoicos, pero ambas contienen las semillas de la misma crisis. Las estelas de condensación son la señal visible de lo que los motores a reacción expulsan de manera invisible: dióxido de carbono, el estupefaciente aislante cuya concentración en la atmósfera está aumentando tan rápida y peligrosamente. Entre las sustancias de escape de los motores a reacción están también los óxidos de nitrógeno y de azufre, el plomo y el negro de carbón, que interactúan entre sí y con el aire de maneras complejas que no acabamos de entender. Aunque las aerolíneas no han dejado de mejorar la eficacia de sus aviones desde hace décadas, este ahorro económico y ecológico se contrarresta con el rápido crecimiento del conjunto del sector aéreo. A su ritmo actual de expansión, en 2050 la industria de la aviación por sí sola producirá todas las emisiones de dióxido de carbono permitidas para que el calentamiento global se mantenga por debajo de la cifra crítica de los dos grados centígrados.[13]

Imagen de infrarrojos del sureste de Estados Unidos, tomada el 13 de noviembre de 2001 por un satélite NOAA15 dotado de un radiómetro avanzado de muy alta resolución (AVHRR), en la que pueden verse estelas de condensación de distinta antigüedad. Fuente: NASA.

Las estelas de condensación sí afectan al clima, en particular cuando perduran y se dispersan por el cielo hasta formar extensas franjas blancas con aspecto de cirros y altocúmulos. No es solo su composición química, sino también su propia nubosidad lo que afecta a la atmósfera: atrapan bajo su manto más radiación térmica de larga longitud de onda de la que reflejan de vuelta hacia el espacio, lo cual contribuye al calentamiento global. La diferencia es especialmente pronunciada por la noche y durante el invierno.[14] De hecho, los estudios de la evolución de la atmósfera a largo plazo han comprobado que la nubosidad está aumentando en las alturas: las estelas de condensación están cambiando los cielos, y no a mejor.[15] En la antigua Grecia, algunos videntes practicaban la ornitomancia: la adivinación del futuro a partir de la observación del vuelo de las aves. Según Esquilo, fue Prometeo, el portador de la tecnología, quien introdujo a los antiguos griegos en la ornitomancia al designar a ciertas especies de aves como propicias y a otras como siniestras.[16] Prometeo también promocionaba la aruspicina, la lectura de las entrañas de las aves en busca de augurios, una especie de hackeo primitivo. El arúspice contemporáneo es el obsesivo investigador a través de internet, que se pasa horas y horas escogiendo entre los rastros de los acontecimientos, destripándolos y extendiendo sus entrañas, hurgando en sus articulaciones y recogiendo restos de acero, plástico y negro de carbón. Así pues, muchas teorías de la conspiración pueden ser una especie de conocimiento popular:

una premonición inconsciente de la situación, producida por quienes poseen una percepción profunda, oculta incluso, de los problemas actuales, pero carecen de la capacidad de articularla en términos científicamente aceptables. Pero un mundo que no tiene forma de admitir relatos articulados de una manera tan diferente corre el riesgo de ser presa de historias mucho peores — desde los pánicos anticientíficos generalizados a libelos de sangre— o de ser incapaz de escuchar auténticas y necesarias voces de alarma. En el extremo septentrional de Canadá, los habitantes indígenas afirman que el sol ya no se pone por donde solía hacerlo y que las estrellas se han descolocado. El tiempo meteorológico está cambiando de maneras extrañas e impredecibles. Vientos cálidos e inestables soplan desde nuevas direcciones, pueblos y ciudades corren el riesgo de sufrir graves inundaciones. Incluso los animales, que tienen dificultades para adaptarse a unas condiciones inciertas, están alterando sus hábitos. Así es como se describe el mundo en Inuit Knowledge and Climate Change, del cineasta nunavut Zacharias Kunuk y el científico ambientalista Ian Mauro, una serie de entrevistas con líderes inuits en las que cuentan sus experiencias en el mundo que los rodea, influidas por décadas de observación del clima de primera mano. El sol se pone en un lugar diferente, dicen, a menudo a varios kilómetros de donde lo hacía antes. La propia Tierra está descentrada. Cuando la película se proyectó en la Conferencia sobre Cambio Climático de Copenhague (COP15) en diciembre de 2009, provocó las quejas de muchos científicos, para quienes, aunque el punto de vista de los inuits era importante, su afirmación de que la Tierra se había movido realmente —que su eje se había inclinado— era peligrosa y haría que perdiesen toda credibilidad. [17] Pero la teoría científica respalda la experiencia directa de los inuits: a altas latitudes, la apariencia del sol se ve muy afectada por la nieve que cubre el suelo, que la refleja y refracta de mil maneras. Los cambios en la nieve y el hielo se manifiestan en cambios en la visibilidad. Al mismo tiempo, es indiscutible que la atmósfera se está cargando de partículas en suspensión, procedentes de las impurezas de los aviones a reacción y los gases que generan los combustibles fósiles. Las puestas de sol de color rojo intenso que pueden verse en las ciudades contaminadas son consecuencia del esmog y el humo que esas mismas ciudades exhalan. Es así como el sol, en el Ártico, se distorsiona y parece ponerse cada vez más lejos. Observamos el cielo, como cualquier otra cosa, a través de la lente del cambio climático. Que no sepamos por qué no significa que no sea así. «Durante años, nadie ha hecho caso a esta gente. Cada vez que [el debate gira] en torno al cambio climático, sobre el calentamiento del Ártico, los científicos se desplazan allí y hacen su trabajo. Y los responsables políticos se basan en los resultados de los científicos. Nadie entiende nunca realmente a la gente que vive allí arriba», explica Kunuk.[18] En este sentido, el conocimiento de los inuits es muy similar al de las víctimas de tortura kenianas, cuya evidencia corporal se ignoró hasta que fue validada en el lenguaje de sus opresores, a través de la

documentación y de análisis formales. Los conocimientos científico y político, como los conocimientos corporales, no pueden escapar al horizonte de su propia experiencia, pero eso no significa que no estén todos refiriéndose a la misma cosa y buscando maneras de expresarla. Algunas de las puestas de sol más espectaculares que se han visto en Europa en época reciente ocurrieron tras la erupción del Eyjafjallajökull, el volcán islandés que llenó los cielos de ceniza en abril de 2010. A estas puestas de sol también contribuye la presencia en la atmósfera de aerosoles, en particular dióxido de azufre. Cuando se aproxima el atardecer, la ceniza y el dióxido de azufre producen rizos de nubes blancas sobre el horizonte, antes de que la luz azul esparcida por las partículas en suspensión se combine con el prolongado rojo de los atardeceres para producir un tono característico que se conoce como color lavanda volcánico.[19] Esos atardeceres se produjeron por todo el continente a medida que la nube de ceniza se desplazó hacia el sur y hacia el oeste durante varios días. Se sabía que la ceniza volcánica podía interferir con los motores a reacción, pero, a pesar de que había habido algunos incidentes a lo largo de varias décadas, se habían llevado a cabo muy pocos estudios al respecto. La consecuencia fue que se cerró todo el espacio aéreo europeo. Durante ocho días, se cancelaron más de cien mil vuelos, casi la mitad del tráfico aéreo mundial, y diez millones de pasajeros se quedaron en tierra. Aparte de las puestas de sol, la consecuencia más perturbadora de la erupción del Eyjafjallajökull fue el silencio que trajo consigo. Por primera vez en décadas, se hizo el silencio en los cielos de toda Europa. La poeta Carol Ann Duffy dio cuenta de esta calma: Los pájaros de Gran Bretaña cantan en esta primavera, de Inverness a Liverpool, desde Crieff a Cardiff, Oxford y Londres, de punta a punta del país; la música a la que el silencio invita, que Shakespeare escuchó, y Burns, y Edward Thomas; y, brevemente, nosotros.[20]

Otros comentaron la arcaica extrañeza de un cielo sin estelas de condensación. Una extrañeza que se nos fue imponiendo lenta y discretamente, como el revés de la erupción. Mientras los medios de comunicación informaban del «caos» que suponía la alteración de tantos viajes, estábamos al sol bajo un cielo completamente despejado. La erupción era un hiperobjeto: un acontecimiento de violencia casi inconcebible, de presencia ubicua pero que se experimentaba localmente como una ausencia, como el cambio climático, como la paradoja del tiempo meteorológico de Roni Horn: «Lo bueno ocurre en lo próximo y lo individual; lo malo ocurre a la escala del sistema entero». Durante mucho tiempo, los escépticos del cambio climático han afirmado que los volcanes producen más dióxido de carbono que las actividades humanas. De hecho, a lo largo de la historia

los volcanes han sido responsables de periodos de enfriamiento global, y de paranoia. En 1815, la colosal erupción del monte Tambora en Indonesia fue el cataclismo final en una sucesión de acontecimientos que provocaron que 1816 llegase a ser conocido como «el año en que no hubo verano». Las cosechas se echaron a perder a lo largo y ancho de Norteamérica y Europa; hubo nieve, hielo y escarcha en julio y agosto. Se vieron cielos de intensos tonos rojos y morados, la hambruna se extendió por ambos continentes, acompañada de siniestros presagios y creencias apocalípticas. En Ginebra, un grupo de amigos decidieron poner por escrito sus historias más terroríficas: una de las obras resultantes fue Frankenstein o el moderno Prometeo, de Mary Shelley; otra fue el poema «Oscuridad», de lord Byron: El brillante sol se había extinguido, y las estrellas vagaban por un oscurecido espacio eterno, sin rayos, sin senderos, y la tierra glacial oscilaba, ciega y ennegrecida, en el aire sin luna.[21]

La explosión del volcán Krakatoa en agosto de 1883 también produjo atardeceres púrpuras y descensos globales de las temperaturas, y se ha vinculado tanto con la nube de peste de Ruskin como con el cielo llameante de El grito de Edvard Munch.[22] Como sucedió antes con la del Tambora, la noticia de la erupción tardó varios meses en llegar a Europa, entretanto, se multiplicaron las predicciones apocalípticas. La erupción del Eyjafjallajökull ofreció una oportunidad para desechar determinadas ideas erróneas en torno al CO2 volcánico. Se calcula que el volcán emitió entre 150.000 y 300.000 toneladas diarias de dióxido de carbono,[23] mientras que el hecho de que no despegasen los aviones en Europa evitó que se emitiesen 2,8 millones de toneladas en tan solo ocho días,[24] una cifra superior a la de las emisiones anuales conjuntas de todos los volcanes del mundo.[25] Si El grito se pintase en la actualidad, el fondo apropiado no sería el cielo de color rojo sangre debido a la erupción del Krakatoa, sino uno entrecruzado por estelas de condensación: las mismas estelas que ensucian los sitios web de los conspiranoicos de las estelas químicas, incluso —aunque no especialmente— de aquellos que niegan las realidades del cambio climático provocado por el ser humano. Todos miramos al mismo cielo y vemos cosas radicalmente diferentes. Son numerosas las ocasiones en que los actos humanos de violencia han quedado registrados en el clima. En el siglo XIII, las invasiones mongolas de Eurasia provocaron tal devastación en la agricultura que los bosques recuperaron un terreno sustancial, lo que causó un medible descenso del 0,1 por ciento en los niveles atmosféricos de carbono.[26] La «pequeña edad de hielo», que alcanzó su apogeo en el año en que no hubo verano de 1816, comenzó en 1600, pero fue el resultado de un siglo de inestabilidad global, que comenzó con la catástrofe colombina de 1492.

En los 150 años que siguieron a la llegada de los europeos a América, entre el 80 y el 95 por ciento de la población indígena quedó aniquilada, cifra que alcanzó el cien por cien en algunas regiones, en parte como consecuencia de enfrentamientos bélicos, pero la mayoría debido a enfermedades traídas del Viejo Mundo. Una población de entre 50 y 60 millones de personas se redujo a alrededor de 6 millones; desaparecieron los humanos de 50 millones de hectáreas hasta entonces cultivadas. Posteriormente, más de 12 millones de africanos fueron esclavizados y desplazados a América, y otros varios millones de ellos murieron en el trayecto. Una vez más, la agricultura se hundió, esta vez a ambas orillas del Atlántico, y la recuperación de la superficie boscosa, junto con la reducción en la quema de madera, resultó en una disminución del dióxido de carbono atmosférico de entre siete y diez partes por millón entre 1570 y 1620.[27] Desde entonces, nunca se ha vuelto a producir una caída semejante. Este acontecimiento quizá podría considerarse el inicio del Antropoceno, en lugar de alguna maravillosa invención humana que solo a posteriori pasó a considerarse suicida. No fue con la invención de la máquina de vapor alimentada a base de carbón y desencadenante de la era industrial en el siglo XVIII, ni con la fijación del nitrógeno comenzada con la invención del proceso de Haber-Bosch, ni tampoco con la emisión de miles de millones de partículas de contaminación radioactiva procedentes de la detonación de cientos de bombas nucleares: el Antropoceno empieza con un genocidio, con una violencia planetaria de tal magnitud que deja su huella en los registros de hielo y en la polinización de las cosechas. La seña de identidad del Antropoceno es que, a diferencia de otras épocas que comenzaron con la caída de un meteorito o con una sucesión continuada de erupciones volcánicas, sus orígenes son nebulosos e inciertos. Y sus efectos, que están teniendo lugar ahora mismo, lo son aún más. Lo que podemos decir de él es que, siendo la primera época verdaderamente humana —la que nos es más próxima y con la estamos más involucrados—, es también la más difícil de ver y de considerar. A las 9.08 de la mañana del 11 de septiembre de 2001, cinco minutos después de que el segundo avión se estrellase contra las torres del World Trade Center, la Administración Federal de Aviación estadounidense clausuró el espacio aéreo neoyorquino y cerró sus aeropuertos. A las 9.26, emitió una orden para impedir que ningún avión despegase en todo el país. Y a las 9.45, el espacio aéreo nacional se cerró por completo: ningún avión civil tenía permiso para despegar, y todos los que ya estaban en el aire recibieron la orden de aterrizar lo antes posible en el aeropuerto más cercano. A continuación, la agencia canadiense del transporte hizo lo propio. A las 12.15 horas, en el espacio aéreo sobre la parte continental de Estados Unidos no quedaba ninguna aeronave civil ni comercial. Aparte de los aviones militares y de transporte de prisioneros, nada sobrevoló Norteamérica durante tres días. A lo largo de esos tres días, entre el 11 y el 14 de septiembre, la diferencia de la temperatura entre el día y la noche, lo que se conoce como variación de temperatura diurna (VTD),

experimentó un acusado aumento. En el promedio del continente, la VTD aumentó en más de un grado centígrado, mientras que en regiones del Medio Oeste, el nordeste y el noroeste, donde mayor era la cobertura de estelas de condensación, fue más del doble de la media estacional.[28] Un acto de violencia, como tantos otros antes, dejó su huella en el tiempo meteorológico. El 11 de septiembre, a lo largo del día, durante los boletines de noticias empezaron a aparecer en la parte inferior de la pantalla teletipos deslizantes, primero en Fox News y a continuación en CNN y MSNBC. Los teletipos se habían empleado con anterioridad en situaciones excepcionales, en las que los productores se esforzaban por comunicar el máximo de información y por poner rápidamente al tanto a quienes se incorporasen a la emisión. Pero tras el 11S los teletipos se quedaron para siempre. Esta crisis se convirtió en un acontecimiento diario y continuado, que desembocó sin solución de continuidad en la guerra contra el terror, los temores sobre bombas sucias y los colapsos y las ocupaciones de los mercados financieros. En los teletipos, el estilo discreto y empírico de los boletines fue sustituido por un flujo constante de información: un precursor de los hilos de contenido continuo de Facebook y Twitter. La circulación interminable de información sin fecha y sin firma en los teletipos de noticias y las transmisiones digitales acabó con nuestra capacidad para contar historias coherentes sobre el mundo. El 11S —no el acontecimiento específico en sí mismo, sino el ambiente mediático en el que se produjo y que contribuyó a acelerar— presagió la llegada de una nueva era de paranoia, cuyo ejemplo paradigmático son las teorías conspirativas según las cuales el Gobierno fue cómplice en el atentado, pero que se refleja en todos los niveles de la sociedad. En 1964, Douglas Hofstadter acuñó la expresión «estilo paranoico» para describir la política estadounidense. Citando ejemplos que iban de los pánicos masónico y anticatólico en el siglo XIX a las afirmaciones del senador Joe McCarthy en los años cincuenta en las que implicaba en conspiraciones a las altas esferas del Gobierno, Hofstadter esbozó una historia de la creación de una alteridad, la fabricación de un enemigo invisible como «un modelo perfecto de maldad, una especie de superhombre amoral: siniestro, ubicuo, poderoso, cruel, sensual, amante del lujo».[29] El atributo más habitual de este enemigo es su extraordinario poder: «A diferencia del resto de nosotros, el enemigo no está atrapado en los afanes del vasto mecanismo de la historia, víctima él mismo de su propio pasado, de sus deseos y de sus limitaciones. El enemigo proyecta, y de hecho crea el mecanismo de la historia, o trata de desviar el curso normal de la historia de una manera perversa». En pocas palabras, el enemigo es el otro que se eleva sobre los pliegues y complejidades del presente, que capta la situación en su totalidad y es capaz de manipularla de maneras que el resto de nosotros desconocemos. Las teorías de la conspiración son el recurso extremo de los desvalidos, que imaginan cómo sería tener poder. Fredric Jameson retomó este tema cuando escribió que la teoría de la conspiración «es el mapa cognitivo del pobre en la era posmoderna; es la figura degradada de la lógica total del capitalismo

tardío, un intento desesperado de representar el sistema de este último, cuyo fracaso lo señala su deslizamiento hacia el auténtico tema y contenido».[30] Rodeado de muestras de complejidad — que para el historiador marxista es sintomática de la alienación generalizada que el capitalismo provoca—, el individuo, aunque indignado, recurre a relatos cada vez más simplistas para recuperar cierto control sobre la situación. A medida que el mundo aumentado y acelerado por la tecnología tiende hacia lo opuesto a la simplicidad y se vuelve cada vez más complejo y de manera más visible, la teoría de la conspiración debe necesariamente hacerse más extraña, intrincada y violenta para adaptarse a esa complejidad. Hofstadter identificó otro aspecto clave del estilo paranoico: cómo refleja los propios deseos del sujeto. «Es difícil resistirse a la conclusión de que este enemigo es, en muchos sentidos, la proyección del propio yo; a él se le atribuyen tanto los aspectos ideales propios como los inaceptables».[31] Las estelas químicas se adhieren al cuerpo y se convierten en manifestaciones inconscientes, aunque persistentes, de un desastre medioambiental más generalizado. Igual que un amigo me contó que volaba hacia sus vacaciones de verano en uno de los mismos aviones a los que vi realizar deportaciones a medianoche, también quienes creen en las estelas químicas filman «fumarolas negras» desde las ventanillas de sus propios vuelos contaminantes. No existe un lugar más allá de la complejidad en la que nos encontramos inmersos, no hay un punto de vista exterior que todos podamos compartir sobre la situación. La red que nos trae el conocimiento también nos envuelve y refracta nuestra perspectiva en un millón de puntos de vista que nos iluminan y nos desorientan al mismo tiempo. En los últimos años, el estilo paranoico se ha extendido hasta volverse dominante. Es fácil ignorar a quienes creen en las estelas químicas y a los adeptos del movimiento por la verdad del 11S como lunáticos marginales, hasta que empiezan a controlar gobiernos y a hundir países. Puede que Donald Trump no tuitease que iba a acabar con las estelas químicas, pero sí ha tuiteado en múltiples ocasiones que el calentamiento global es una conspiración contra las empresas estadounidenses y, probablemente, alguna clase de trama china.[32] Su ascenso político se produjo a lomos del movimiento birther, que afirmaba que Barack Obama no era ciudadano estadounidense y, por tanto, no podía optar a la presidencia del país. Este movimiento impulsó la radicalización del Partido Republicano y convirtió esta cuestión en la dominante en los mítines y encuentros locales del Tea Party. En 2011, Trump se embarcó en una ronda de entrevistas en medios de todo el país en las que puso en duda la legitimidad del certificado de nacimiento de Obama, y afirmó en Twitter que en realidad se trataba de un impostor keniano de nombre Barry Soweto. Trump se ofreció a donar dinero a la entidad benéfica que el presidente eligiese a cambio de que este hiciese público el documento de solicitud de su pasaporte. Como consecuencia de su insistencia en esta cuestión, se multiplicó por dos su apoyo entre quienes se declaraban probables votantes republicanos, y algunos políticos, como quien acabaría siendo su rival por la nominación

republicana, Mitt Romney, buscaron su respaldo. Cuando, en 2016, por fin se distanció de la teoría de la conspiración —mucho tiempo después de que Obama hubiese hecho público su certificado de nacimiento completo—, alegó que quien la había iniciado había sido Hillary Clinton.[33] Después de haber presentado oficialmente su candidatura a la presidencia, Trump siguió repitiendo consignas de algunos de los teóricos de la conspiración más extremistas y destacados de internet. Con el fin de justificar su llamamiento a levantar un muro para evitar que los «asesinos y violadores» mexicanos entrasen en Estados Unidos recurrió a un vídeo producido por Infowars.com, el sitio web de teorías conspiranoicas que forma parte del imperio mediático de Alex Jones. Los frecuentes y repetidos llamamientos durante su campaña al encarcelamiento de Hillary Clinton también tuvieron su origen en Infowars.com. La predisposición de Trump a repetir lo que leía en internet o lo que le hacían llegar asesores con estrechos vínculos con redes conspiranoicas derechistas sorprendió incluso al propio Jones: «Es surrealista hablar de ciertos temas aquí en antena y después oír cómo Trump repite lo que hemos dicho palabra por palabra dos días más tarde».[34] Los márgenes de internet habían vuelto al centro. En «El clima como multiplicador de fuerza: Controlar el clima en 2025», el informe de las Fuerzas Aéreas estadounidenses que desencadenó las teorías conspirativas en torno a las estelas químicas, los autores señalaban: […] aunque la mayoría de los intentos de modificar el tiempo se basan en la existencia de ciertas condiciones preexistentes, tal vez sea posible generar artificialmente algunos efectos meteorológicos, con independencia de que se den o no esas condiciones preexistentes. Por ejemplo, se podría crear un tiempo meteorológico virtual influyendo en la información meteorológica que recibe un usuario final, cuya percepción de los valores de los parámetros o de las imágenes procedentes de los sistemas de información meteorológica mundiales o locales diferiría de la realidad. Esta distinta percepción llevaría al usuario final a tomar decisiones operativas erróneas. [35]

En este caso, no es necesario alterar el propio tiempo meteorológico, sino que basta con perturbar las herramientas a través de las cuales el público objetivo percibe el tiempo. No hay por qué propiciar artificialmente la aparición de nubes en la estratosfera; se pueden insertar en forma de código en las redes de información que han acabado sustituyendo a nuestra percepción directa del mundo. Como diría una versión de la teoría de la conspiración en torno a las estelas químicas: lo que nos está haciendo daño es el tiempo virtual. El tiempo virtual desbarata nuestra capacidad de contar historias coherentes sobre el mundo porque pone en entredicho los modelos de la realidad consensuada —y del consenso en su conjunto— válidos hasta entonces. Los modelos psicológicos tradicionales empiezan a fallar cuando se aplican al análisis de las teorías de la conspiración más extremas que circulan por

internet. Según la definición de referencia —en este caso, la del Manual diagnóstico y estadístico de los trastornos mentales que publica la Asociación Estadounidense de Psiquiatría, ampliamente utilizado por terapeutas e investigadores, así como en el ámbito jurídico—, una creencia no es un delirio cuando es compartida por la «cultura o subcultura» de una persona. Pero la red ha cambiado la manera en que creamos y conformamos las culturas: personas en ubicaciones remotas pueden congregarse en internet para compartir sus experiencias y creencias e instituir sus propias culturas. El 30 de diciembre de 1796, James Tilly Matthews, un comerciante de té londinense, interrumpió una sesión de la Cámara de los Comunes al grito de «¡Traición!» desde la galería de invitados. Fue arrestado inmediatamente y poco después se le internó en el Hospital Real de Bethlem, más conocido como Bedlam. Durante la investigación, Matthews afirmó que había estado involucrado en asuntos de Estado secretos que el Gobierno de William Pitt estaba ocultando. También explicó en detalle el funcionamiento de una máquina llamada «telar de aire» que utilizaba un sistema de bombas hidráulicas y emanaciones magnéticas para controlar su cuerpo y su mente.[36] Matthews ha pasado a la historia como el primer caso documentado de esquizofrenia paranoide. Sus detalladas descripciones del telar de aire también han pasado a la literatura, ya que proporcionan el primer ejemplo de delirios paranoicos relacionados con los descubrimientos científicos de la época. En 1796, el Reino Unido y Europa estaban sumidos en revoluciones tanto científicas como políticas: Joseph Priestley había descompuesto el aire en sus elementos constituyentes, mientras que, en París, Antoine Lavoisier acababa de publicar su Tratado elemental de química, que dio lugar a una nueva manera de entender el mundo físico. Alcanzados apenas unos pocos años después de la Revolución francesa, estos descubrimientos tenían un filo político. Priestley era un republicano recalcitrante y publicaba panfletos que promovían su creencia de que la ciencia y la razón disiparían el error tiránico y la superstición. A su vez, los opositores conservadores de las nuevas reformas científicas y sociales compararon la turbulencia política con el «gas salvaje» de Priestley, antinatural e incontrolable.[37] El telar de aire de Matthews enredó las maquinarias neumáticas y políticas para producir una conspiración. El proceso se ha repetido para todas las tecnologías posteriores, desde la radio hasta la televisión, desde el fonógrafo hasta internet. Son el resultado de los intentos de los legos de integrar nuevas tecnologías extrañas y poco comprendidas en su modelo del mundo; pero el mundo tiene cierta responsabilidad por la forma en que admite y fomenta tales creencias. Matthews —un hombre bondadoso e inteligente, que tiempo después ayudó a diseñar la institución que reemplazaría a Bedlam para que esta pudiese atender mejor a las necesidades de sus reclusos— reconoció su enfermedad, aunque siguió insistiendo en que había habido irregularidades políticas.

Probablemente estaba en lo cierto: historiadores posteriores encontraron pruebas de que había trabajado en misiones secretas para el Estado y había sido rechazado.

El telar de aire de James Tilly Matthews. Imagen procedente de Illustrations of Madness, de John Haslam, 1810.

Los equivalentes más aproximados a Matthews en la actualidad, fuera del ámbito de la paranoia clínica, son quienes afirman haber sido sometidos a «acoso organizado» y a «experimentos de control mental», las expresiones de búsqueda más habituales para un conjunto de síntomas que incluyen la vigilancia y persecución de individuos por personas desconocidas (mediante hostigamiento callejero y amenazas), las escuchas electrónicas y la sugestión telepática. Quienes han sido víctimas de acoso organizado y control mental se autodenominan «individuos señalados» y se congregan en sitios web con nombres como «Combate el “acoso organizado”» o «No al hostigamiento y la vigilancia encubiertos». Las comunidades que se reúnen en torno a sitios como estos son mucho más numerosas que las de quienes reciben tratamiento por trastornos mentales; de hecho, la resistencia al tratamiento y el apoyo a quienes comparten sus creencias es uno de los elementos esenciales de este tipo de grupos. Los individuos señalados cuentan una historia muy similar a la de Matthews: agentes desconocidos, utilizando tecnologías punteras, se dedican a

influenciarlos y controlarlos. Pero, a diferencia de Matthews, tienen a su alrededor una comunidad —una cultura— que justifica y defiende sus creencias. Esto es lo que complica la definición clínica de delirio, que contempla una excepción para las creencias «aceptadas por otros miembros de la cultura o subcultura de la persona».[38] Las personas que el establishment psiquiátrico habría considerado que sufren delirios pueden «curarse» de ellos buscando en internet una comunidad de mentes afines y uniéndose a ella. Cualquier oposición a esta cosmovisión puede rechazarse como un intento de ocultar la verdad de su experiencia, que cuenta con el respaldo de otros individuos señalados. Además, cabe la posibilidad de que la confirmación de sus creencias proporcione a los individuos una mejor atención que la oposición frontal, el asco y el miedo que emanan del resto de la sociedad. Un grupo que se caracteriza por su desconfianza hacia los demás se ha apropiado de la tecnología de la red para crear su propia comunidad de apoyo mutuo, dinámica, compleja, informativa y autosuficiente. Se ha distanciado de las convenciones predominantes, médicas y sociales, para construir un mundo en el cual su manera de entender las cosas se valide y se valore. El mismo patrón se observa en grupos distintos, aunque relacionados. El síndrome de Morgellons es el nombre de una dolencia autodiagnosticada que preocupa desde hace años a la profesión médica. Quienes la padecen dicen sufrir picores de piel persistentes mientras unas hebras asoman de sus cuerpos. Aunque múltiples estudios han concluido que el Morgellons no es una dolencia física sino psicológica, quienes la sufren organizan a través de internet conferencias y grupos de presión.[39] Otros afirman que están enfermando debido a las ondas electromagnéticas que generan los teléfonos móviles, las wifis y las líneas de tensión. Hay quien dice que la hipersensibilidad electromagnética afecta al 5 por ciento de la población estadounidense y que es causa de un sufrimiento incalculable. Las víctimas se construyen habitaciones forradas con papel de aluminio, conocidas como jaulas de Faraday, para aislarse de las ondas, o se trasladan a la «zona nacional libre de señal de radio» en Virginia Occidental, una reserva científica adonde no llegan las ondas de radio.[40] Los grupos de apoyo mutuo, de los individuos señalados a los enfermos de Morgellons, pasando por el movimiento por la verdad del 11S o el Tea Party, parecen un signo de la nueva edad oscura. Lo que ponen de manifiesto es lo que los adeptos de las estelas químicas demuestran directamente: que nuestra capacidad para describir el mundo es consecuencia de las herramientas de que disponemos. Todos miramos al mismo mundo, pero vemos cosas radicalmente distintas. Y nos hemos construido un sistema que refuerza ese efecto, un populismo automatizado que da a la gente lo que quiere, todo el tiempo. Si entramos en las redes sociales y empezamos a buscar información sobre vacunas, enseguida llegaremos a opiniones contrarias a la vacunación. Y, una vez expuestos a esas fuentes de información, en nuestro flujo de contenidos se promueven otras teorías de la conspiración: las de

las estelas químicas, los terraplanistas o el movimiento por la verdad del 11S. Enseguida, estas opiniones empiezan a parecer mayoritarias, una cámara de resonancia infinita de opiniones concordantes con independencia de cuál sea el asunto en cuestión. ¿Qué sucede cuando nuestro deseo de saber más y más sobre el mundo choca con un sistema que nunca dejará de adaptar sus respuestas a cualquier posible pregunta, sin solución? Si alguien busca en internet respaldo a sus opiniones, lo encontrará. Más aún: recibirá un flujo constante de confirmación, una sucesión continua de información de naturaleza cada vez más extrema y polarizadora. Así es como los activistas en favor de los derechos de los varones dan el salto al nacionalismo blanco y como los jóvenes musulmanes desafectos caen en el yihadismo violento. Es radicalización algorítmica, puesta al servicio de los propios extremistas, que saben que la polarización de la sociedad redunda, en última instancia, en su propio beneficio. Un mes después de los ataques contra Charlie Hebdo en París en enero de 2015,Dabiq, la revista electrónica del Estado Islámico de Irak y el Levante (ISIL, por sus siglas en inglés; EI o Dáesh en español) publicó su séptimo número, que contenía un editorial en el que se esbozaba la estrategia del grupo. En la línea de declaraciones anteriores del Dáesh, promovía el sectarismo al tiempo que condenaba la coexistencia y la colaboración entre las distintas religiones.[41] En 2006, Al Qaeda en Irak, precursor del Dáesh, atacó y destruyó la mezquita de Al Askari en Samarra, uno de los lugares más sagrados para el islam chií, en uno de los muchos actos de provocación que desencadenaron la guerra civil que aún desgarra el país. Desde su irrupción en 2014, el Dáesh ha extendido esta estrategia al planeta entero: al reivindicar la autoría de ataques terroristas en distintos lugares del mundo, el grupo confía en provocar una reacción violenta contra las comunidades musulmanas en Occidente, polarizar las sociedades y desatar una espiral violenta de exclusión y represalias.[42] El Dáesh ha jurado destruir lo que llama «zona gris», el espacio de coexistencia y cooperación entre musulmanes y otras comunidades. Al enfrentar las tradiciones musulmanas unas contra otras y a las mayorías no musulmanas contra sus conciudadanos buscan presentarse como los únicos defensores del islam verdadero y mostrar el Califato como el único lugar donde los musulmanes pueden estar realmente a salvo. Para que esta estrategia triunfe, necesita que la mayoría de las personas abandonen la zona gris bajo la presión incesante de la violencia y la paranoia y que se sometan a una visión del mundo en blanco y negro donde no hay lugar para la duda y la incertidumbre. En otro terreno, la expresión «zona gris» se ha utilizado para describir la forma más contemporánea de guerra, la que existe justo por debajo del umbral del conflicto armado convencional. La guerra en la zona gris se caracteriza por tácticas poco convencionales, como ciberataques, propaganda y guerra política, presión económica y sabotaje, y por el apoyo a combatientes vicarios, todo ello envuelto en una nube de desinformación y engaño.[43] El uso por

parte de Rusia de «hombrecillos verdes» en la invasión de Ucrania oriental y Crimea, la expansión de China en el mar del Sur de China y la lucha indirecta de Irán y Arabia Saudí en Siria apuntan a una evolución de la guerra marcada por la ambigüedad y la incertidumbre: nadie tiene claro quién está luchando contra quién; todo se puede negar. Si el ejército estadounidense es uno de los más previsores en lo tocante a las realidades asociadas al cambio climático, los planificadores militares de West Point, en Estados Unidos, y de la Academia del Estado Mayor ruso están también en la vanguardia en lo que se refiere al reconocimiento de las turbias realidades de la nueva edad oscura. ¿Y si optamos por apropiarnos de la zona gris? En algún punto intermedio entre los yihadistas y los estrategas militares, entre la guerra y la paz, entre el blanco y el negro, la zona gris es donde la mayoría de nosotros vivimos hoy. La zona gris es la mejor descripción de un paisaje inundado de hechos indemostrables y falsedades demostrables que, no obstante, nos acechan, como zombis, en las conversaciones, tratando de engatusarnos y persuadirnos. La zona gris es el terreno resbaladizo y casi inasible en el que ahora nos encontramos como consecuencia de las potentísimas herramientas tecnológicas para la creación de conocimiento de las que ahora disponemos. Es un mundo de cognoscibilidad limitada y duda existencial, que horroriza tanto al extremista como al teórico de la conspiración, en el que nos vemos obligados a reconocer el limitado alcance de las estimaciones empíricas y los magros rendimientos de unos flujos de información abrumadores. La zona gris no puede ser derrotada. No se puede drenar o rebasar; ya está desbordándose. La teoría de la conspiración es el relato dominante y la lingua franca de la época; debidamente interpretada, realmente lo explica todo. En la zona gris, las estelas de condensación son tanto estelas químicas como presagios del calentamiento global: pueden ser ambas cosas al mismo tiempo. En la zona gris, los humos de las chimeneas industriales se mezclan con las moléculas libres de la atmósfera superior, agitando lo natural y lo artificial en movimientos brownianos de origen incierto. Las hebras fibrosas que atraviesan la piel de los enfermos de Morgellons son trazas de los cables de fibra óptica y de las vibraciones electromagnéticas de las torres de telefonía móvil que transmiten datos financieros de alta frecuencia. En la zona gris, el sol al ponerse se refracta en la bruma de partículas en suspensión y la Tierra está realmente descentrada; por fin estamos en condiciones de reconocerlo. Vivir conscientemente en la zona gris, si es que elegimos hacerlo, nos permite picotear de la multitud de explicaciones que nuestra limitada capacidad de conocimiento extiende como una máscara sobre las vibrantes medias verdades del mundo. Es una aproximación a la realidad mejor que cualquier codificación binaria rígida, el reconocimiento de que todas nuestras aprehensiones son aproximaciones y que son mucho más potentes por el hecho de serlo. La zona gris nos permite

hacer las paces con las diversas visiones del mundo, por lo demás irreconciliables y en conflicto, que nos impiden tomar medidas de calado en el presente.

9 Concurrencia

Unas manos masculinas hacen girar lentamente en la pantalla una caja de veinticuatro huevos Kinder con el logo de la película Cars. El hombre retira la envoltura de polietileno y la gira, levantándola delicadamente para mostrar las partes superior e inferior de la caja. El vídeo salta a una docena de huevos ordenados con pulcritud sobre una mesa. Las manos cogen uno de ellos y lo despojan de la envoltura de papel de aluminio rojo y plateado, dejando ver el huevo de chocolate que hay dentro. Se parte el huevo para extraer un barrilito de plástico que, cuando se abre, contiene un pequeño juguete de plástico. Si el juguete viene con pegatinas u otros aditamentos, se le aplican cuidadosamente, y el juguete se manipula lentamente ante la cámara, todo ello acompañado de tenues sonidos del desgarramiento del papel de aluminio, la quiebra del chocolate y la retirada del plástico. Una vez que han sido plenamente admirados, el huevo y sus contenidos se dejan a un lado y se repite el proceso para el siguiente huevo, y el siguiente, hasta que se han abierto todos. El vídeo termina con un breve plano general de todos los juguetes. Dura siete minutos, y en YouTube acumula 26 millones de visionados. Los huevos Kinder son un dulce italiano consistente en una cubierta de chocolate con leche y chocolate blanco que contiene un paquete con un juguete de plástico. Desde su introducción en 1974, se han vendido millones de unidades en todo el mundo (aunque están prohibidos en Estados Unidos, donde no se permite la venta de dulces que contengan objetos en su interior). Cars, una película de Disney de 2006 que cuenta las aventuras animadas de Lightning McQueen y sus vehiculares amigos, recaudó 450 millones de dólares en todo el mundo y ha dado lugar hasta la fecha a dos secuelas, así como a una infinidad de objetos promocionales, incluidos los huevos Kinder. ¿Por qué, de todos los dulces y todos los anuncios publicitarios del mundo, merece este una reseña tan reverente? No la merece, por supuesto. No es especial. El vídeo, titulado «Cars 2 Silver Lightning McQueen Racer Surprise Eggs Disney Pixar Zaini Silver Racers by ToyCollector» es solo uno de los millones y millones de vídeos de «huevo sorpresa» que hay en YouTube. Todos ellos siguen el mismo esquema: hay un huevo, tiene una sorpresa, se desvela la sorpresa. Pero, a partir de una premisa tan simple, se despliega toda una infinidad de combinaciones. Hay más vídeos de huevos Kinder, por supuesto, de todos los sabores posibles: huevos de superhéroes, huevos de Disney, huevos de Navidad, etcétera. Y luego están los huevos de imitación, los huevos parecidos a los

Kinder, los huevos de Pascua, los huevos de plastilina y de Lego, y los huevos de globo, entre otros muchos. Hay objetos parecidos a huevos, como garajes de juguete o casas de muñecas que pueden abrirse para revelar su contenido con el mismo asombro silencioso. Hay vídeos de huevos sorpresa que duran más de una hora, y más vídeos de huevos sorpresa de los que un ser humano podría ver en toda su vida. Los vídeos de desempaquetado [unboxing] se han convertido en algo consustancial a internet desde que fue posible ver vídeos en streaming con una calidad decente. Estos vídeos tienen su origen en el ámbito de la tecnología y se dedican a ensalzar los productos nuevos y la experiencia de desempaquetarlos: prolongados primeros planos de iPhones y consolas de videojuegos mientras emergen de sus embalajes. En torno a 2013, la tendencia se amplió al mundo de los juguetes y empezó a ocurrir algo extraño. Los niños a quienes se mostraban los vídeos se concentraban en ellos con la máxima atención y volvían a verlos una y otra vez, igual que los chavales de generaciones anteriores habían desgastado las cintas de vídeo de sus películas de Disney favoritas. Cuanto más jóvenes los niños, menos importancia tenía el contenido en sí de los vídeos. La repetición del proceso, junto con los colores intensos y la sensación constante de revelación, los embelesaba. Podían pasar horas y horas en YouTube viendo un vídeo tras otro, estimulados continuamente por la repetición tranquilizadora y el sinfín de sorpresas, mientras los algoritmos de recomendación del sistema alimentaban continuamente sus deseos.[1] La televisión infantil, en particular la que se dirige a niños de edad preescolar, siempre les parece extraña a los adultos. Antes de que desapareciera de las emisiones tradicionales y empezase una nueva vida en canales digitales específicos y en internet, la última gran controversia de la era de las emisiones para niños la protagonizaron los personajes de Teletubbies, serie en la que aparecían cinco criaturas con aspecto de oseznos con antenas en la cabeza y pantallas de televisión en la tripa que se bamboleaban de un sitio a otro mientras recorrían verdes campos y colinas, jugaban y se echaban siestas. El programa tuvo un enorme éxito, pero también incomodó a quienes pensaban que la televisión infantil debía tener una faceta educativa. Los teletubbies se comunicaban en un lenguaje simplificado a base de «gugús», que tanto los padres como los periódicos pensaban que iba a impedir el desarrollo de los niños. De hecho, el lenguaje de los teletubbies había sido desarrollado por logopedas y tenía su propia lógica interna. También incorporaba muchos de los temas que después iban a automatizar los vídeos de huevos sorpresa: estructuras de llamada y respuesta y gritos de «otra vez, otra vez» cuando una secuencia estaba a punto de repetirse.[2] Lo que a los adultos les parecía estrafalario, absurdo y algo a medio camino entre aburrido y amenazador, para los niños pequeños creaba un mundo seguro y reconfortante. Deliberadamente o no, son estos rasgos psicológicos los que han hecho que los vídeos de huevos sorpresa y otros similares sean hoy tan populares en YouTube; pero, con su combinación de

atractivo infantil, promesa de recompensa y variación algorítmica, son también lo que los hace tan aterradores. Los algoritmos de recomendación de YouTube funcionan identificando lo que les gusta a los espectadores. El contenido nuevo y sin categorizar tiene que apañárselas por su cuenta en la red; existe en una especie de limbo que solo puede verse alterado por los enlaces que remitan a él y por las recomendaciones externas. Pero, si encuentra su público y empieza a acumular visionados, los algoritmos tal vez se dignen a hacerle un hueco entre sus recomendaciones y permitir que aparezca en la barra lateral junto a otros vídeos, dándolo así a conocer a los espectadores habituales e incrementando su «descubribilidad». Aún mejor, si el vídeo dispone de una descripción, si está debidamente titulado y etiquetado para que a los algoritmos les resulte más fácil identificarlo, el sistema podrá agruparlo con otros vídeos similares. La cosa es muy sencilla: si te gusta tal cosa, te gustará esta otra, y de pronto estás cayendo por un pozo sin fondo. Podemos incluso activar la reproducción automática, de forma que, cuando un vídeo acaba, empieza a reproducirse el siguiente en la cola de recomendaciones, y así sucesivamente hasta la eternidad. Los niños generan enseguida perfiles de recomendación, que se intensifican rápidamente cuando se enganchan a un determinado tipo de vídeo y lo vuelven a ver una y otra vez. Eso es algo que a los algoritmos les encanta: identifican una clara necesidad e intentan darle satisfacción. Al otro lado de la pantalla están quienes crean los vídeos, cuyo negocio se basa en un incentivo básico: si obtienen más visionados, consiguen más dinero. YouTube, una empresa de Google, está asociada con AdSense, otra empresa de Google. Junto a los vídeos —y, cada vez más, dentro, antes, después y durante los mismos—, AdSense muestra anuncios. Cuando los vídeos consiguen que se visionen los anuncios que los acompañan, sus creadores reciben dinero, normalmente en «coste por mil» (CPM, por cada mil visionados). El CPM de un determinado creador varía mucho, porque no todos los vídeos ni todos los visionados van acompañados de anuncios, y la propia tarifa del CPM puede cambiar en función de toda una variedad de factores. Pero los vídeos pueden valer una fortuna: «Gangnam Style», el éxito del pop coreano que fue el primer vídeo en superar los 1.000 millones de visionados en YouTube, ganó ocho millones de dólares de AdSense por sus primeros 1.230 millones de visionados, en torno a 0,65 céntimos por visionado.[3] No hace falta tener un éxito semejante para poder ganarse la vida con YouTube, aunque, obviamente, es más fácil obtener mayores ingresos creando cada vez más vídeos e intentando que lleguen a un número cada vez mayor de personas (y dirigiéndose a mercados, como el de los niños, que ven los vídeos una y otra vez). Las directrices oficiales de YouTube afirman que sus usuarios deben tener al menos trece años y que los menores de dieciocho años deben contar con el permiso paterno, pero nada impide que un chaval de trece años acceda al sitio por su cuenta. Además, ni siquiera hace falta tener una cuenta. Como la mayoría de los sitios web, YouTube rastrea a los visitantes únicos a partir de su

dirección, el perfil de su navegador y de su dispositivo, y su comportamiento, y puede construir un detallado perfil demográfico y de preferencias con el que alimentar los motores de recomendación sin que el usuario proporcione conscientemente ninguna información sobre sí mismo. Lo cual es aún más cierto cuando el usuario es un niño de tres años plantado ante el iPad de sus padres que aporrea la pantalla con el puño cerrado. La frecuencia con la que se da una situación como esta queda de manifiesto en las propias estadísticas de espectadores de YouTube. Ryan’s Toy Review, un canal especializado en vídeos de desempaquetado y otros temas infantiles, es el sexto canal más popular de la plataforma, solo por detrás de Justin Bieber y la lucha libre de WWE.[4] En un momento de 2016 llegó a ser el más popular. Ryan tiene seis años, ha sido una estrella de YouTube desde que tenía tres y acumula 9,6 millones de suscriptores. Se calcula que su familia gana en torno a un millón de dólares al mes gracias a sus vídeos.[5] El siguiente en la lista es Little Baby Bum, que está especializado en canciones para niños en edad preescolar. Con solo 515 vídeos,ha acumulado 11,5 millones de suscriptores y 13.000 millones de visionados. El YouTube para niños es una industria enorme y muy lucrativa porque los vídeos bajo demanda son adictivos tanto para los padres como para sus hijos y, por ende, para los creadores de contenido y para los anunciantes. Los niños pequeños, hipnotizados por personajes y canciones familiares, colores intensos y sonidos relajantes, pueden quedarse tranquilos y entretenidos durante horas. La táctica habitual de juntar muchas canciones infantiles o episodios de dibujos animados en compilaciones de horas de duración y destacar dicha duración como una virtud en su descripción o en su título pone de manifiesto la cantidad de tiempo que los niños pasan viéndolas. Como consecuencia, quienes publican su contenido en YouTube han desarrollado una enorme variedad de tácticas para atraer la atención de padres e hijos hacia sus vídeos y hacerse con los ingresos publicitarios que esto conlleva. Una de ellas, como queda de manifiesto con los popurrís de huevos sorpresa, es una especie de exceso de palabras clave, que busca embutir en un título tantos términos de búsqueda relevantes como sea posible. El resultado es lo que se conoce como una «ensalada de palabras». He aquí un ejemplo al azar sacado de un único canal: «Surprise Play Doh Eggs Peppa Pig Stamper Cars Pocoyo Minecraft Smurfs Kinder Play Doh Sparkle Brilho»; «Cars Screamin’ Banshee Eats Lightning McQueen Disney Pixar»; «Disney Baby Pop Up Pals Easter Eggs SURPRISE»; «150 Giant Surprise Eggs Kinder CARS StarWars Marvel Avengers LEGO Disney Pixar Nickelodeon Peppa», y «Choco Toys Surprise Mashems & Fashems DC Marvel Avengers Batman Hulk IRON MAN».[6] Este amasijo ininteligible de nombres de marca, personajes y palabras clave indica cuál es el verdadero público objetivo de las descripciones: no el espectador, sino los algoritmos que deciden quién ve qué vídeos. Cuantas más palabras se puedan apretujar en un título, más probable es que el vídeo consiga hacerse sitio entre las recomendaciones o, mejor aún, simplemente

reproducirse de forma automática cuando acabe un vídeo similar. La consecuencia de lo anterior son millones de vídeos con títulos interminables y absurdos; aunque, por otra parte, YouTube es una plataforma de vídeos y ni a los algoritmos ni al público objetivo les importa el significado. Además, hay otras maneras de conseguir visionados para un canal, y la más sencilla y tradicional consiste simplemente en copiar y piratear el contenido ajeno. Una búsqueda rápida de «Peppa Pig» en YouTube devuelve más de diez millones de resultados; de ellos, casi todos los que ocupan la primera página proceden del canal verificado Peppa Pig Official Channel, gestionado por los creadores de la serie. Pero enseguida los resultados se llenan de contenido de otros canales, aunque el estilo uniforme que YouTube aplica al mostrar los resultados hace difícil que eso se note. Uno de ellos es Play Go Toys, un canal no verificado con 1.800 seguidores cuyo contenido consiste en episodios de Peppa Pig pirateados, vídeos de desempaquetado y vídeos en los que se representan, con juguetes de la marca, episodios oficiales de Peppa Pig y que llevan los títulos de los propios episodios.[7] Entre todos ellos hay también vídeos de quienes presumiblemente son los propios hijos del propietario del canal jugando con los juguetes y saliendo al parque. Aunque este canal se limita a permitirse un poco de inocua piratería, pone de relieve cómo la estructura de YouTube facilita la disociación entre el contenido y su autor, y cómo esto afecta a nuestro conocimiento de cuál es la fuente del contenido y a nuestra confianza en ella. Una de las funciones tradicionales del contenido de marca es señalar que procede de una fuente digna de confianza. Tanto si es Peppa Pig en la televisión para niños o una película de Disney, y con independencia de lo que pensemos sobre el modelo industrial de producción de entretenimiento, estos productos se crean y supervisan concienzudamente para que los niños estén seguros al verlos y para que se pueda confiar en que eso es así. Pero esto deja de suceder cuando la plataforma disocia marca y contenido, de manera que contenido conocido y de confianza sirve como vía inadvertida de acceso a otro contenido no verificado y potencialmente perjudicial. Es exactamente el mismo proceso de disociación entre los medios de comunicación de confianza y su contenido que se da en los flujos de Facebook y en los resultados de Google y que está haciendo estragos en nuestros sistemas cognitivos y políticos. Cuando se comparte en Facebook o aparece en el apartado de «contenido relacionado» de una búsqueda en Google un artículo del New York Times debidamente verificado, el enlace parece prácticamente idéntico a uno que se comparta desde NewYorkTimesPolitics.com, un sitio web creado por un adolescente de Europa oriental y repleto de historias inventadas, incendiarias y muy partidistas sobre las elecciones estadounidenses.[8] Enseguida diremos algo más sobre este tipo de webs, pero la consecuencia en YouTube es que es sumamente fácil que contenido extraño e inadecuado aparezca mezclado con el procedente de fuentes conocidas y prácticamente indistinguible de él. Otro ejemplo llamativo de las rarezas de los vídeos para niños es la Finger Family [«la familia

Dedos»]. En 2007, un usuario de YouTube llamado Leehosok subió un vídeo en el que dos grupos de marionetas de dedos bailan mientras suena de fondo la grabación de una canción infantil: «Papá dedo, papá dedo, ¿dónde estás? Aquí estoy, aquí estoy, ¿cómo estás?», y así sucesivamente con mamá dedo, hermano dedo, hermana dedo y bebé dedo. Aunque es evidente que la canción es anterior al vídeo, este fue su debut en YouTube.[9] A finales de 2017, había al menos 17 millones de versiones de la canción de la familia Dedos en YouTube. Como los vídeos de huevos sorpresa, cubren cualquier género posible y conjuntamente suman miles y miles de millones de visionados. La versión de Little Baby Bum por sí sola acumula 31 millones de visionados, mientras que otra del popular canal ChuChu tiene 500 millones. La simplicidad de la idea en la que se basan hace que sea susceptible de automatización: un sencillo programa de software puede sincronizar el movimiento de una mano con el de cualquier objeto o personaje, y así es como las páginas de resultados se llenan de familias Dedos de superhéroes, familias Dedos de Disney, familias Dedos de frutas, gominolas de ositos y piruletas, y sus infinitas variaciones, que acumulan millones y millones de visionados. Se combinan miles de animaciones de archivo, pistas de audio y listas de palabras clave para producir un flujo interminable de vídeos. No es fácil hacerse una idea de tales procesos sin enumerar sus infinitas variaciones, pero es importante comprender lo inmenso que es este sistema y lo indeterminadas que son sus acciones, procesos y público. También es internacional: hay versiones de los vídeos de la familia Dedos y de otros para aprender los colores, adaptadas a las epopeyas tamiles y con dibujos animados malayos, que probablemente no aparecerán en los resultados de las búsquedas en inglés. La indeterminación y el alcance de este sistema son claves tanto para su propia existencia como para sus efectos. Su escala hace que sea difícil entenderlo, o incluso reflexionar sobre él. Las cifras de visionados de estos vídeos deben tomarse con mucho escepticismo. No es solo que un gran número de estos vídeos sean creados por programas de software automatizados —bots—, sino que también son visionados por bots, que incluso hacen comentarios a los vídeos. En la carrera armamentística entre los algoritmos de aprendizaje automático de Google y los fabricantes de bots, Google salió derrotada hace ya mucho tiempo en la mayoría de sus posesiones. Además, Google no tiene motivos reales para tomarlo en serio: aunque denuncie públicamente la actividad de los bots y le reste importancia, estos aumentan enormemente el número de anuncios que se muestran y, por lo tanto, los ingresos que genera Google. Pero esa complicidad no debe ocultar el hecho de que también hay muchos niños, pegados a iPhones y tabletas, que ven estos vídeos una y otra vez —contribuyendo en parte a las cifras infladas de visionados— mientras aprenden a escribir palabras de búsqueda básicas en el navegador o simplemente pulsan en la barra lateral para ver otro vídeo. Cada vez más, se utilizarán simplemente órdenes verbales para pedir el contenido. La extrañeza no hace más que aumentar cuando los humanos reaparecen en el circuito. Las

familias Dedos de Pringles Tin y de Incredible Hulk 3D pueden ser fáciles de entender, al menos por lo que respecta a su procedimiento, pero la necesidad de incrementar los visionados lleva a que haya canales bien conocidos con elencos de actores humanos que empiezan a reproducir esa misma lógica. Llega un momento en que es imposible saber el grado de automatización que se está aplicando o cómo distinguir hasta dónde llegan los humanos y dónde empiezan las máquinas. Bounce Patrol es un grupo de entretenimiento para niños de Melbourne que continúa la colorida tradición de éxitos infantiles predigitales del estilo de sus compatriotas australianos los Wiggles. Su canal de YouTube, Bounce Patrol Kids, tiene casi dos millones de suscriptores, y en él publican, aproximadamente cada semana, vídeos de factura profesional protagonizados por elencos de actores humanos.[10] Pero las producciones de Bounce Patrol se adaptan fielmente a la lógica inhumana de la recomendación algorítmica. El resultado es el esperpento de un grupo de personas que escenifica interminablemente las implicaciones de una combinación de palabras clave generadas por algoritmos: «Halloween familia dedos y más canciones de Halloween para niños colección de canciones de Halloween»; «Animales australianos familia dedos | canciones infantiles familia dedos»; «Animales granja familia dedos y más canciones animales | colección familia dedos – aprende sonidos animales»; «Animales safari canción familia | elefante, león, jirafa, cebra, hipopótamo. Animales salvajes para niños»; «Superhéroes familia dedos y más canciones familia dedos. Colección familia dedos superhéroes»; «Batman canción familia dedos – ¡Superhéroes y villanos! Batman, Joker, Riddler, Catwoman», y una infinidad de títulos semejantes. Es improvisación a la vieja usanza, con la diferencia de que quien grita los apuntes es un ordenador que se basa en las demandas de un millón de bebés hiperactivos. Así es la producción de contenido en la era de la exploración algorítmica; hasta los humanos acaban haciéndose pasar por máquinas. Ya hemos visto anteriormente ejemplos palmarios de las inquietantes consecuencias que tiene la plena automatización, como los de las carcasas para teléfonos en Amazon o las camisetas con frases relacionadas con la violación. Nadie se propuso crear carcasas con imágenes de drogas o instrumental médico, fue simplemente un estrambótico resultado probabilístico. De manera similar, el caso de las camisetas con «Keep Calm and Rape a Lot» [«Mantén la calma y viola sin parar»] es deprimente y desazonante, aunque comprensible. Nadie tenía la intención de crearlas, simplemente combinaron una lista no revisada de verbos y pronombres con un generador automático de imágenes. Es muy posible que ninguna de esas camisetas llegase a existir físicamente, que nadie las comprase o se las pusiese y que por tanto no se produjese ningún perjuicio. Pero sí tiene su importancia que no se percatasen de su existencia quienes crearon estos objetos ni quien los distribuyó. Literalmente, no tenían ni idea de lo que estaban haciendo. Lo que comienza a ser evidente es que la escala y la lógica del sistema es corresponsable de estos resultados, y ello nos obliga a reflexionar sobre sus repercusiones. Estos resultados

provocan los efectos sociales más amplios de otros ejemplos anteriores, como los sesgos raciales y de género en los sistemas basados en macrodatos y en inteligencia artificial, y tampoco tienen soluciones fáciles o siquiera preferibles. ¿Qué decir de un vídeo titulado «Cabezas equivocadas Disney orejas equivocadas piernas equivocadas niños aprenden colores familia dedos 2017 canciones para niños»? El título basta para confirmar que tiene una procedencia algorítmica. Pasemos por alto de momento el origen de la misteriosa expresión «cabezas equivocadas», pero es fácil imaginar, como con la canción de la familia Dedos, que en algún sitio existe una versión completamente original e inocua que, tras provocar las risas de un número suficiente de niños, empezó a escalar en las clasificaciones algorítmicas hasta llegar a las listas de ensaladas de palabras, donde se combinó con «aprender colores», «familia dedos», «canciones para niños» y el resto de expresiones —no solo como palabras, sino como imágenes, procesos y acciones— hasta acabar dando como resultado este montaje concreto. En el vídeo, la canción de la familia Dedos suena mientras se ve una animación en la que giran cabezas y cuerpos de personajes del Aladdin de Disney. La escena es inicialmente inocente, aunque desconcertante, pero empieza a volverse más extraña cuando aparece un personaje que no es de Aladdin: Agnes, la niña de Gru: Mi villano favorito, la película de Universal. Agnes es quien juzga la escena: cuando las cabezas encajan, aplaude; cuando no lo hacen, estalla en un torrente de lágrimas de cocodrilo. Aunque el mecanismo es claro, el resultado es pura bazofia: el mínimo esfuerzo para producir el mínimo de significado. El creador del vídeo, BabyFun TV, ha producido muchos otros similares que siguen exactamente el mismo patrón. El personaje de Hope, de la película de Disney Inside Out, berrea mientras presencia un intercambio de cabezas de pitufos y troles. Wonder Woman llora ante los XMen. Y así uno tras otro. BabyFun TV tiene únicamente 170 suscriptores y una cantidad de visionados muy baja, pero hay miles y miles de canales como este. Las cifras de visionados en YouTube y otros agregadores masivos de contenidos no son importantes al detalle, sino acumuladas. El mecanismo en que se basan las «cabezas equivocadas» es evidente, pero la superposición y combinación de distintos temas empieza a resultar preocupante para una sensibilidad adulta: la sensación creciente de que hay algo inhumano, la percepción del «valle inquietante» que se abre entre nosotros y el sistema que genera el contenido. Sentimos que en algún lugar más profundo que el contenido superficial hay algo que no está bien. En todos los vídeos de «cabezas equivocadas» de BabyFun TV se usa el mismo fragmento de audio chirriante de un niño llorando. Aunque a nosotros nos parezca desagradable, es posible — como sucede con el gluglú del bebé sol de los teletubbies— que este sonido proporcione parte del ritmo, cadencia o relación con su propia experiencia que hacen que este contenido resulte atractivo a los bebés. Pero nadie tomó esta decisión: el sonido ha sido deformado y estirado

mediante repetición y recombinación algorítmicas de unas maneras que nadie pensó de antemano, que nadie tuvo la intención de que se aplicasen. ¿Y qué ocurre cuando esta recirculación y magnificación infinita llega de vuelta a los humanos? Toy Freaks es un canal de YouTube extraordinariamente popular —el sexagésimo octavo con más seguidores de toda la plataforma, con 8,4 millones— que publica vídeos de un padre con sus dos hijas interpretando muchos de los temas que hemos identificado hasta ahora, siguiendo un esquema similar al de Bounce Patrol: las niñas abren los huevos sorpresa y cantan variaciones de la canción de la familia Dedos acordes con la estación del año. Junto con las canciones infantiles y el aprendizaje de los colores, Toy Freaks está especializado en situaciones repugnantes, como peleas de comida o llenar bañeras de insectos de mentira. Toy Freaks ha provocado una cierta controversia, pues muchos espectadores sienten que los vídeos —de niños vomitando, sangrando y sufriendo— bordean el abuso y la explotación, si es que no caen en ellos por completo.[11] Toy Freaks es un canal verificado por YouTube, aunque la verificación solo significa que el canal tiene más de cien mil suscriptores.[12] Toy Freaks casi parece insulso comparado con sus imitadores. Una variante vietnamita llamada Family Freaks publica vídeos de una chica que bebe productos de baño y se hace cortes con una cuchilla.[13] En otros canales, unos niños pescan armas automáticas de colores chillones de ríos de aguas turbias, una Elsa de Frozen de carne y hueso se ahoga en una piscina, Spiderman invade un complejo de playa tailandés y enseña los colores usando cinta adhesiva enrollada alrededor de los cuerpos de adolescentes en bikini, policías con enormes cabezas de bebé y máscaras de goma del Joker aterrorizan a los usuarios de un parque acuático ruso, y así hasta el infinito. La amplificación de temas de canales populares y dirigidos por humanos, como Toy Freaks, lleva a que se repitan interminablemente por toda la red en recombinaciones cada vez más extravagantes y distorsionadas. Pero existe una corriente de fondo de violencia y degradación que no proviene — aún cabe esperarlo— de las fantasías oscuras de niños reales aficionados al humor escatológico. Hay rincones de YouTube, como del resto de internet, que desde hace tiempo han albergado una cultura de insolencia violenta para la cual nada es sagrado. YouTube Poop es una de esas subculturas, que se caracteriza por las remezclas de otros vídeos en su mayoría inocuas, aunque deliberadamente ofensivas, en las que programas de televisión para niños se doblan con sartas de insultos y referencias a drogas. Suele ser también la primera clase de cosa rara con la que se topan los padres. Al parecer, es muy popular un vídeo oficial de Peppa Pig en el que esta va al dentista (aunque resulta algo confuso que lo que parece ser el episodio real solo esté disponible en un canal no oficial): en el canal oficial, un amable dentista tranquiliza debidamente a Peppa, mientras que en una versión que aparece entre los primeros resultados al hacer una búsqueda de «peppa pig dentista» básicamente se la somete a torturas y se le extraen dientes de manera sangrienta mientras se oyen gritos de dolor. Están muy extendidos los vídeos perturbadores de

Peppa Pig, que tienden a la violencia extrema y al terror y en los que se la puede ver comiéndose a su padre o bebiendo lejía. Muchos son obviamente autoparodias o incluso sátiras; de hecho, ciertas controversias pasadas en torno a ellos han dado lugar a que sean protegidos contra las reclamaciones de derechos de autor. No se proponen aterrorizar a los niños, no realmente, ni siquiera cuando lo hacen. Pero el caso es que lo hacen, y también que están desencadenando como respuesta toda una cadena de consecuencias emergentes. No basta con atribuir las rarezas y el terror de YouTube a las acciones de troles y bromistas siniestros. En el vídeo mencionado, Peppa sufre una espantosa experiencia dental y, a continuación, se transforma en una serie de híbridos de Iron Man/cerdo/robot y hace el baile para aprender los colores. No está nada claro qué agentes están en juego aquí: el vídeo comienza con una parodia que trolea a Peppa y da paso a una repetición automatizada de temas como los que ya hemos mencionado. No se trata solo de troles o únicamente de automatización; no es cuestión solo de actores humanos que representan una lógica algorítmica o de algoritmos que responden ciegamente a los motores de recomendación. Es una matriz, inmensa y oculta casi por completo, de interacciones entre deseos y recompensas, tecnologías y públicos, temas y máscaras. Otros ejemplos parecen menos accidentales y más deliberados. Hay una vertiente de la producción de vídeos que trabaja con cortes automatizados de escenas de videojuegos sobre los que se superponen superhéroes o personajes de dibujos animados en lugar de soldados y gánsteres: Spiderman les parte las piernas al Segador y a Elsa de Frozen y los entierra hasta el cuello en un hoyo, los teletubbies —sí, ellos de nuevo— imitan Grand Theft Auto con persecuciones de motocicletas y tiroteos en atracos a bancos, dinosaurios atravesados de helados y piruletas destruyen manzanas de la ciudad, enfermeras comen heces al son de la canción de la familia Dedos. Nada tiene sentido y todo está mal. Personajes familiares, temas infantiles, ensaladas de palabras clave, automatización plena, violencia y el material del que están hechas las peores pesadillas de los niños se combinan en un canal tras otro de contenido idéntico, producido a un ritmo de cientos de vídeos nuevos cada semana. Las tecnologías baratas y los métodos de distribución aún más baratos se emplean para la producción de pesadillas a escala industrial. ¿Qué se necesita para crear estos vídeos? ¿Quién los crea? ¿Cómo podemos saberlo? El hecho de que no haya actores humanos no significa que no intervengan personas en su creación. Hoy en día, la animación es cosa fácil, y generar contenido para niños en internet es una de las maneras más sencillas de ganar dinero haciendo animación en 3D, porque los estándares estéticos son más bajos y las productoras independientes pueden obtener beneficios basándose en la cantidad. Utiliza contenido existente y fácilmente accesible (como figuras de personajes y bibliotecas de capturas de movimientos) que puede repetirse y modificarse hasta el infinito para obtener resultados que, en su gran mayoría, no tienen por qué tener sentido, porque los algoritmos no discriminan y los niños tampoco. Las animaciones baratas pueden ser obra de un pequeño estudio

de media docena de personas que están en un bache de trabajo, o de enormes naves industriales de mano de obra esclava, talleres clandestinos para la producción de vídeo; pueden ser el producto de una inteligencia artificial estúpida, un proyecto experimental que se abandonó en algún cajón y siguió ejecutándose y acumulando millones de visionados. Si se tratara de alguna potencia estatal o red de pedófilos que estuvieran intentando deliberadamente envenenar a toda una generación — como creen algunos de los comentaristas en internet—, no lo sabríamos. Tal vez sea simplemente lo que la máquina quiere hacer. El solo hecho de plantear la pregunta en internet nos empuja hacia otro pozo sin fondo de conspiraciones y traumas. La red es ciertamente incapaz de diagnosticarse a sí misma, al igual que el sistema es incapaz de moderar sus demandas. Estos vídeos traumatizan a los niños: observan a sus personajes de dibujos animados favoritos representando escenas de asesinatos y violaciones. Algunos padres han denunciado cambios de comportamiento en sus hijos después de ver vídeos perturbadores.[14] Estos efectos de red provocan daños reales y probablemente persistentes. Exponer a niños pequeños —algunos muy pequeños— a escenas violentas y perturbadoras es una forma de abuso. Pero sería un error abordar este asunto como si solo mereciera un aspaviento del estilo «¿es que nadie piensa en los niños?». Es obvio que este contenido no es adecuado, es obvio que hay quien actúa con malas intenciones, es obvio que algunos de estos vídeos deberían eliminarse, es obvio también que esto suscita cuestiones en torno al uso razonable, la apropiación, la libertad de expresión y demás. Pero una lectura de esta situación únicamente a través de este prisma no logra captar plenamente los mecanismos que se están desplegando aquí y es por lo tanto incapaz de pensar en la totalidad de sus implicaciones y ofrecer una respuesta acorde a ellas. Lo que caracteriza muchos de los extraños vídeos que pueden verse por ahí es el nivel de horror y violencia que muestran. A veces se trata de niños con comportamientos asquerosos y otras veces son provocaciones de troles, pero la mayor parte de las veces parece algo más profundo e inconsciente. Internet sabe cómo amplificar y hacer aflorar muchos de nuestros deseos latentes; de hecho, parece que es lo que mejor se le da. Es posible defender lo positivo de esta tendencia: el florecimiento de las tecnologías de red ha permitido a muchas personas realizarse y expresarse de maneras que nunca antes fueron posibles, ha aumentado su capacidad de actuación individual y ha liberado formas de identidad y sexualidad que nunca se han expresado tan vivamente y con tantas voces diversas como ahora. Pero, teniendo en cuenta que millones de niños y adultos juegan durante horas, días, semanas, meses y años, y que revelan a través de sus acciones sus deseos más vulnerables a algoritmos depredadores, esa tendencia parece tremendamente violenta y destructiva. Junto con la violencia se dan unos niveles de explotación incalculables: de los niños no por ser niños, sino por estar indefensos. Los sistemas de recompensa automatizados, como los algoritmos de YouTube, tienen necesidad de explotación para mantener sus ingresos e incorporan los peores

aspectos del capitalismo rapaz de libre mercado. No es posible implantar ningún control sin que el sistema entero colapse. La explotación está codificada en los sistemas que estamos construyendo, lo que hace que sea más difícil de detectar, de pensar y de explicar, más difícil de contrarrestar y de repeler. Lo que hace que esta situación resulte tan perturbadora es que no se trata de un futuro de ciencia ficción dominado por inteligencias artificiales, marcado por la explotación y con una mano de obra completamente robotizada en las fábricas, sino de explotación en el cuarto de juegos, en el salón, en casa y en el bolsillo, impulsada por idénticos mecanismos computacionales. Y los humanos ven cómo se degrada su posición a ambos lados de la ecuación: tanto quienes, aturdidos y aterrorizados, ven los vídeos como quienes, mal pagados o no remunerados en absoluto, víctimas de abusos o explotación, los crean. En medio están las empresas, mayormente automatizadas, que extraen los beneficios de ambas partes. Estos vídeos, con independencia de dónde y cómo se creen y sean cuales sean sus propias intenciones conscientes, son generados por un sistema pensado conscientemente para ganar dinero a base de mostrar vídeos a los niños. Esto tiene toda clase de consecuencias, generadas de manera inconsciente. Exponer a los niños a este contenido constituye abuso. Esto no es lo mismo que los efectos, discutibles aunque indudablemente reales, que sobre los adolescentes tiene la violencia en las películas o los videojuegos, o los efectos de la p*rnografía o de imágenes extremas en mentes jóvenes. Estos son debates importantes, pero no abordan lo que está en cuestión aquí. Lo que está en juego en YouTube es que a niños muy pequeños, prácticamente desde su nacimiento, se les muestran deliberadamente contenidos que los traumatizarán y perturbarán, a través de redes que son vulnerables en grado sumo precisamente a esta forma de abuso. No es una cuestión de intención, sino de un tipo de violencia inherente a la combinación de sistemas digitales e incentivos capitalistas. El sistema es cómplice en el abuso, y YouTube y Google son cómplices en ese sistema. La arquitectura que han construido para extraer los máximos ingresos de los vídeos en internet está siendo hackeada por personas desconocidas para abusar de los niños (quizá ni siquiera deliberadamente, pero sí a una escala masiva). Los propietarios de estas plataformas tienen la obligación absoluta de hacer frente a esta situación, como la tienen también de abordar la radicalización de (sobre todo) hombres jóvenes a través de vídeos extremistas de cualquier ideología política. Hasta ahora no han mostrado ninguna predisposición a querer hacerlo, lo cual es infame, aunque, por desgracia, no sorprendente. Pero la pregunta de cómo pueden responder sin clausurar los propios servicios, y muchos de los sistemas análogos, no tiene respuesta fácil. Estamos en una época profundamente oscura, en la cual las estructuras que hemos construido para ampliar la esfera de nuestras comunicaciones y discursos se están utilizando contra nosotros —contra todos nosotros— de forma sistemática y automatizada. Es difícil conservar la fe en la red

cuando produce horrores como estos. Aunque es tentador descartar los ejemplos más extremos de YouTube como obra de troles y una cantidad sustancial de ellos ciertamente lo son, eso impediría explicar el mero volumen de contenido que inclina la balanza en una dirección particularmente grotesca. Lo cual comporta muchos peligros interrelacionados de formas enrevesadas, incluido el de que tales sucesos puedan utilizarse como justificación para aumentar el control sobre internet, la censura indiscriminada, la vigilancia y la represión de la libertad de expresión. En este sentido, la crisis del YouTube para niños es reflejo de una crisis cognitiva más amplia, provocada por los sistemas automatizados, una inteligencia artificial débil, las redes sociales y científicas y la cultura en un sentido más general, con su correspondiente conjunto de chivos expiatorios fáciles y subestructuras más vaporosas y enmarañadas. Durante las últimas semanas previas a las elecciones estadounidenses de 2016, los medios de comunicación internacionales se presentaron en la pequeña ciudad de Veles, en la República de Macedonia. Situada a poco menos de una hora en coche de la capital, Skopie, Veles es un antiguo centro industrial de apenas 44.000 habitantes, pero eso no impidió que recibiese la máxima atención. En los últimos días de campaña, hasta el presidente Obama se obsesionó con el lugar. Se había convertido en el paradigma del nuevo ecosistema mediático en el que, en palabras de Obama, «todo es verdad y nada es verdad».[15] En 2012, dos hermanos de Veles habían creado un sitio web llamado HealthyFoodHouse.com, que llenaron de consejos para perder peso y recomendaciones sobre remedios alternativos recopilados de cualquier sitio donde pudieran encontrarlos en internet. Con el paso de los años fue acumulando cada vez más visitantes; su página en Facebook tiene más de dos millones de suscriptores y diez millones de usuarios visitan la web cada mes atraídos, a través de Google, por artículos con títulos del tipo «Cómo eliminar los pliegues en la espalda y el costado en 21 días» y «Cinco aceites esenciales calmantes con los que frotar el nervio ciático para experimentar un alivio inmediato del dolor». Con los visitantes, empezaron también los ingresos procedentes de AdSense: los hermanos se convirtieron en celebridades locales que se gastaban el dinero en coches deportivos y botellas de champán en los clubes nocturnos de Veles. Otros chavales de Veles siguieron su estela. Muchos de ellos abandonaron los estudios para poder dedicar todo su tiempo a rellenar sus florecientes colecciones de sitios web con contenido plagiado y engañoso. A principios de 2016, esos mismos chavales descubrieron que los mayores y más voraces consumidores de noticias —de cualquier clase de noticias— eran los seguidores de Trump, que se congregaban en multitudinarios grupos de Facebook en los que era fácil infiltrarse. Como los canales no verificados de YouTube, sus sitios webs eran indistinguibles de los miles de sitios de noticias alternativos que estaban surgiendo por doquier en internet en respuesta al rechazo por parte de Trump a los medios tradicionales; no daban ni más ni menos impresión de seriedad que ellos. La mayoría de las veces la distinción ni siquiera importaba: como hemos

visto, en las redes sociales todas las fuentes tienen el mismo aspecto, y los titulares «buscaclics» combinados con el sesgo de confirmación actuaban sobre el público conservador de la misma manera que los algoritmos de YouTube respondían a cadenas de palabras como «Elsa Spiderman familia Dedos aprender colores imagen real». La acumulación de clics hacía que esas historias aparecieran más destacadas en las propias clasificaciones de Facebook. Unos cuantos adolescentes osados trataron de aplicar los mismos trucos con los seguidores de Bernie Sanders, con resultados menos impresionantes: «Los partidarios de Bernie Sanders están entre las personas más inteligentes que he visto —explicó uno de ellos—. No se tragan nada. Una publicación debe incluir pruebas para que se la crean».[16] Durante unos pocos meses, titulares que afirmaban que Hillary Clinton había sido imputada o que el Papa había declarado su apoyo a Trump dejaron una lluvia de millones en Veles: aparecieron en sus calles unos cuantos BMW más, aumentó la venta de champán en los clubes nocturnos. Por su parte, los medios estadounidenses denunciaron las actitudes «amorales» y los «comportamientos arrogantes» de los jóvenes macedonios.[17]Al hacerlo desdeñaron, o no supieron entender, las historias y las complejas interrelaciones que alimentaron el auge de las noticias falsas procedentes de Macedonia y, a la vez, fueron incapaces de comprender las repercusiones sistémicas más amplias de sucesos como aquellos. En la época en que Veles formaba parte de Yugoslavia, su nombre oficial era Veles de Tito. Cuando ese país y sus redes se desmoronaron, Macedonia logró evitar los conflictos más sangrientos que desgarraron los Estados de los Balcanes centrales. En 2001, mediante un acuerdo respaldado por la ONU, el Gobierno de la mayoría y los separatistas de origen étnico albanés firmaron la paz, y en 2005 el país solicitó el acceso a la Unión Europea. Pero tenía por delante un obstáculo importante: una disputa en torno a su nombre con su vecino del sur, Grecia. Según los griegos, el nombre Macedonia pertenece a la provincia griega del mismo nombre; por ello, acusaron a los nuevos macedonios de querer apoderarse de ella. La disputa se ha prolongado durante más de una década, lo que ha impedido la adhesión de Macedonia a la UE y, posteriormente, a la OTAN, y ha provocado que la República vea alejarse nuevas reformas democráticas. En una sociedad frustrada ante la ausencia de avances, se han ahondado las divisiones y han revivido los nacionalismos étnicos. Una consecuencia de ello ha sido la política de «antiquización» del partido en el Gobierno: la apropiación e incluso fabricación deliberada de una historia macedonia.[18] Los aeropuertos, las estaciones de tren y los estadios pasaron a llevar los nombres de Alejandro Magno y Filipo II de Macedonia —dos figuras de la historia griega que tienen escasa relación con la Macedonia eslava—, así como de otros lugares y personajes de la Macedonia griega. Se derribaron enormes zonas de Skopie y se reconstruyeron con un estilo más clásico, un programa que costó cientos de millones de euros en un país con las tasas de desempleo

más altas del continente. En el centro de la ciudad ahora pueden verse colosales estatuas cuyos nombres oficiales son simplemente El guerrero y El guerrero a caballo, pero que todo el mundo conoce como Filipo y Alejandro. Durante un tiempo, la bandera oficial del país incorporó el sol de Vergina, un símbolo presente en la tumba de Filipo en Vergina, al norte de Grecia. Para justificar estas y otras apropiaciones se ha recurrido a una retórica nacionalista, que se ha empleado para reprimir a los partidos minoritarios y centristas. Ha habido políticos e historiadores que han recibido amenazas de muerte por defender un acuerdo con Grecia.[19] En resumen: Macedonia es un país que ha intentado construir toda su identidad sobre una base de noticias falsas. En 2015, una serie de filtraciones sacó a la luz que el mismo Gobierno que promovía el programa de antiquización había respaldado una amplia operación de escuchas telefónicas por parte de los servicios de seguridad del país, que grabaron ilegalmente unas 670.000 conversaciones de más de 20.000 números de teléfono a lo largo de más de unas década.[20] A diferencia de lo sucedido en Estados Unidos, el Reino Unido y otras democracias donde se descubrió que los Gobiernos espiaban a sus propios ciudadanos, en este caso las filtraciones provocaron la caída del Gobierno, seguida de la distribución a las personas espiadas del contenido de las grabaciones. Periodistas, parlamentarios, activistas y empleados de ONG humanitarias recibieron horas de grabaciones en CD de sus propias conversaciones más íntimas. [21] Pero, como ha sucedido en todos los demás lugares, las revelaciones no cambiaron nada, simplemente avivaron la paranoia. La derecha acusó a las potencias extranjeras de orquestar el escándalo y redobló su retórica nacionalista. La confianza en el Gobierno y en las instituciones democráticas cayó hasta nuevos mínimos. En un clima así, ¿acaso puede sorprender que los jóvenes de Veles se volcasen en un programa de desinformación, particularmente cuando esta viene recompensada por los mismos sistemas de la modernidad que les han dicho que representan el futuro? Las noticias falsas no son un producto de internet, sino que constituyen la manipulación de las nuevas tecnologías por los mismos intereses que siempre han tratado de utilizar la información para su propio beneficio. Es la democratización de la propaganda, en el sentido de que cada vez son más los actores que pueden ejercer como propagandistas. Y, en última instancia, es un amplificador de una división ya existente en la sociedad, al igual que los sitios web de acoso organizado son amplificadores de la esquizofrenia. Pero centrar la atención en Veles, al tiempo que se ignora su contexto histórico y social, es síntoma de una incapacidad colectiva de comprender los mecanismos que hemos construido y de los que nos hemos rodeado, así como del hecho de que aún estamos buscando respuestas claras a problemas nebulosos. En los meses que siguieron a las elecciones, se acusó a otros actores de manipularlas. El chivo expiatorio más popular fue Rusia, el malo al que se recurre en la mayoría de las historias turbias

contemporáneas, especialmente cuando estas surgen de internet. Tras las protestas en Rusia en 2011 a favor de la democracia, organizadas en gran medida a través de internet, los aliados de Vladímir Putin aumentaron su actividad en la red y crearon ejércitos de marionetas pro-Kremlin en las redes sociales. Una de estas operaciones, conocida como la Internet Research Agency [Agencia de Investigación de Internet], emplea a cientos de rusos en San Petersburgo, desde donde coordinan campañas de publicaciones en blogs, comentarios, vídeos virales e infografías para promover el argumentario del Kremlin tanto dentro como fuera de Rusia.[22] Estas «granjas de troles» son el equivalente electrónico de las campañas militares rusas en la zona gris: inaprensibles, negables y deliberadamente confusas. Además, hay miles de ellas, y a todos los niveles administrativos: una cháchara de fondo constante de desinformación y malevolencia. En sus intentos de respaldar al partido de Putin en Rusia, y de desacreditar a sus adversarios en países como Ucrania, las granjas de troles enseguida aprendieron que, por muchas publicaciones y comentarios que generasen, era muy difícil convencer a la gente para que cambiase de opinión sobre cualquier asunto concreto. De manera que empezaron a aplicar el plan B: enturbiar la discusión. En las elecciones estadounidenses, los troles rusos publicaron contenido a favor de Clinton, Sanders, Romney y Trump, de la misma manera en que, al parecer, las agencias de seguridad rusas estuvieron implicadas en las filtraciones contra ambos bandos. Ello tuvo como resultado que el discurso político, primero en internet y luego de manera más general, se contaminase y polarizase. Como lo describió un activista ruso: «El objetivo es degradar el ambiente, crear una atmósfera de odio, hacer que sea tan apestoso que la gente normal no quiera ni olerlo».[23] Ha habido otras elecciones en las que se ha dejado sentir la influencia de fuerzas no identificadas, envueltas en cada caso en conspiraciones y paranoia. En el periodo previo al referéndum sobre la Unión Europea celebrado en el Reino Unido, una quinta parte del electorado creía que la votación iba a estar amañada en connivencia con los servicios de seguridad.[24] Desde la campaña a favor de abandonar la UE se aconsejó a los votantes que acudiesen a los colegios electorales con bolígrafos para asegurarse de que no borrasen sus votos si los escribían a lápiz.[25] Tras el referéndum la atención se centró en la labor de Cambridge Analytica, una empresa propiedad de Robert Mercer, antiguo ingeniero en inteligencia artificial, multimillonario director ejecutivo de un fondo de alto riesgo y el apoyo más poderoso de Donald Trump. Los empleados de Cambridge-Analytica han descrito lo que hacen como «guerra psicológica»: sacar provecho de cantidades enormes de datos para identificar posibles votantes y persuadirlos. Y, cómo no, resultó que las elecciones fueron amañadas por los servicios de seguridad, como tantas otras veces: en la junta y el personal de Cambridge Analytica, que «donaron» sus servicios a la campaña a favor de salir de la UE, figuran exmilitares británicos, en particular el exdirector de operaciones psicológicas de las fuerzas británicas en Afganistán.[26] Tanto en el referéndum sobre la UE como en los comicios estadounidenses, los contratistas militares utilizaron

tecnologías de inteligencia militar para influir en las elecciones democráticas de sus propios países. Carole Cadwalladr, una periodista que ha puesto de manifiesto una y otra vez los vínculos existentes entre la campaña por la salida de la UE, la derecha estadounidense y turbias compañías que tratan con datos, escribió: Si una intenta seguir esto día a día, se da cuenta de que es un mareo continuo: una tela de araña de relaciones y redes de poder, clientelismo y alianzas que cruza el Atlántico y engloba empresas de tratamiento de datos, laboratorios de ideas y medios de comunicación. Se trata de complicadas estructuras corporativas en jurisdicciones opacas, donde fondos extraterritoriales se canalizan a través de los algoritmos de caja negra de los monopolistas de las plataformas tecnológicas. Que todo sea de una complejidad endiablada y geográficamente difuso no es ninguna coincidencia. La confusión es la aliada del charlatán, el ruido es su cómplice. La palabrería en Twitter sirve como conveniente manto de oscuridad.[27]

Como ocurrió en las elecciones estadounidenses, la atención se centró también en Rusia. Los investigadores descubrieron que la Internet Research Agency había estado tuiteando desenfrenadamente sobre el brexit a su manera característicamente divisiva. Una cuenta que supuestamente pertenecía a un republicano de Texas, pero que fue suspendida por Twitter por sus vínculos con la Agencia, tuiteó: «¡Espero que RU tras el #VotoBrexit empiece a limpiar sus tierras de la invasión musulmana!» y «¡RU votó abandonar el Califato europeo! #VotoBrexit». Esa misma cuenta había aparecido con anterioridad en las primeras páginas de los tabloides, cuando publicó imágenes en las que supuestamente se veía cómo una mujer musulmana ignoraba a las víctimas de un ataque terrorista en Londres.[28] Más allá de las 419 cuentas identificadas como pertenecientes activamente a la Agencia, había innumerables más automatizadas. Otra noticia, del año siguiente al referéndum, sacó a la luz una red de más de trece mil cuentas automatizadas que tuiteaban a favor de uno y otro bando del debate, aunque la probabilidad de que promoviesen contenido a favor de la salida de la UE era ocho veces superior que la de que lo hiciesen a favor de la permanencia.[29] Todas esas trece mil cuentas fueron eliminadas por Twitter en los meses siguientes al referéndum; su origen sigue siendo desconocido. Según otras informaciones, una quinta parte de toda la discusión en internet alrededor de la campaña electoral estadounidense de 2016 fue automatizada, y las acciones de los bots provocaron cambios medibles en la opinión pública.[30] Algo está podrido en la democracia cuando un gran número de quienes participan en sus debates no rinden cuentas ante nadie ni hay forma de identificarlos, cuando no tenemos manera de saber quiénes son o ni siquiera qué son. Sus motivos y su origen son completamente opacos, aunque sus efectos sobre la sociedad aumentan exponencialmente. Los robots están ahora por todas partes. En el verano de 2015, AshleyMadison.com, un sitio de citas para personas casadas que buscan

tener una aventura, fue hackeado y se filtraron en internet datos de 37 millones de sus miembros. Cuando alguien indagó en las gigantescas bases de datos de mensajes subidos de tono entre los usuarios del sitio, enseguida fue evidente que para ser un sitio que prometía conectar directamente a mujeres y hombres —incluyendo la garantía a sus miembros prémium de tener aventuras— había una enorme discrepancia entre las cifras de miembros de cada sexo. De esos 37 millones de usuarios, apenas cinco millones eran mujeres, y la mayoría de ellas habían creado la cuenta y no la habían vuelto a utilizar. La excepción era un grupo de unas setenta mil cuentas femeninas extraordinariamente activas que Ashley Madison llamaba «ángeles». Los ángeles eran quienes iniciaban el contacto con hombres —que tenían que pagar para responderles— y prolongaban las conversaciones durante meses para hacer que estos volviesen una y otra vez a la web y siguiesen pagando. Por supuesto, los ángeles estaban completamente automatizados.[31]Ashley Madison pagó a terceros para que generasen millones de perfiles falsos en treinta y un idiomas distintos y creó un complejo sistema para gestionarlos e insuflarles vida. Había hombres que gastaban miles de dólares en la web y algunos incluso terminaban teniendo aventuras, pero la inmensa mayoría simplemente se pasaban años manteniendo conversaciones picantes e infructuosas con programas de software. He aquí otra visión de la distopía de la automatización: una web social donde es imposible socializar, la mitad de los participantes son espectros y la participación solo es posible previo pago. Quienes interactuaban con el sistema no tenían forma de saber lo que estaba ocurriendo, más allá de la sospecha de que podía haber algo raro. Y era imposible actuar a partir de esa sospecha sin destruir la fantasía sobre la que se había montado toda la empresa. El colapso de la infraestructura —el hackeo— confirmó su quiebra, que ya había quedado patente en el marco tecnológico de un sistema abusivo. Cuando empecé a publicar en internet mis investigaciones sobre lo raro y violento que era YouTube para niños, recibí una avalancha de mensajes y correos de desconocidos que afirmaban saber de dónde procedían los vídeos. Algunos habían pasado meses rastreando direcciones IP y propietarios de sitios web por todo internet. Otros habían relacionado las localizaciones de los vídeos que contenían imágenes reales con casos documentados de abusos. Los vídeos procedían de la India, de Malasia, de Pakistán (siempre venían de «fuera»). Eran los instrumentos de seducción de una banda internacional de pedófilos. El producto de tal o cual compañía. El resultado de una inteligencia artificial corrupta. Parte de un plan concertado internacionalmente y respaldado por los Estados para corromper a la juventud occidental. Algunos de los correos eran de chiflados, otros de investigadores concienzudos; todos creían que, de una manera u otra, habían conseguido descifrar el código. La mayoría de sus análisis eran convincentes en lo tocante a algún subconjunto o a algún aspecto de los vídeos, pero todos fracasaban por completo cuando se ponían a prueba frente al conjunto entero de los vídeos. Lo que tienen en común la campaña del brexit, las elecciones estadounidenses y las inquietantes

profundidades de YouTube es que, a pesar de las múltiples sospechas, en última instancia es imposible saber quién está haciendo qué o cuáles son sus motivos e intenciones. Cuando vemos un vídeo tras otro, cuando leemos los muros de actualizaciones de estado y las sucesiones de tuits, es inútil intentar discernir entre bazofia generada por algoritmos y noticias falsas cuidadosamente diseñadas para generar dólares publicitarios; entre ficción paranoica, acción estatal, propaganda y contenido basura; y entre desinformación deliberada y verificación de hechos bien intencionada. Esta confusión ciertamente es útil a las manipulaciones que hacen los espías del Kremlin y los abusadores de niños por igual, pero también es algo que va más allá y es más profundo que los intereses de cualquier grupo: se trata de cómo es el mundo en realidad. Nadie decidió que así es como tenía que evolucionar el mundo —nadie deseaba la nueva edad oscura—, pero en cualquier caso lo hemos construido, y ahora vamos a tener que vivir en él.

10 Cirros y cúmulos

En mayo de 2013, Google invitó a un selecto grupo de unas doscientas personas al Hotel Grove en Hertfordshire, Inglaterra, a su conferencia anual Zeitgeist. La reunión, que se viene celebrando desde 2006 seguida de un acto público en una «gran carpa» en los terrenos del hotel, dura dos días y es celosamente privada; apenas se publican en la web vídeos de determinados ponentes seleccionados. A lo largo de los años, por allí han pasado expresidentes estadounidenses, miembros de la realeza y estrellas del pop; en la lista de invitados de 2013 figuraban varios jefes de Estado y ministros, los CEO de muchas de las mayores empresas europeas y el antiguo jefe de las Fuerzas Armadas británicas, junto con directivos de Google y conferenciantes motivacionales. Varios de los asistentes, incluido el propio CEO de Google, Eric Schmidt, volvieron al mismo hotel un mes más tarde para la reunión anual y aún más secreta del Grupo Bilderberg, que reúne a la élite política mundial.[1] Entre los temas que se trataron en 2013 están: «La acción hoy», «Nuestro legado», «Coraje en un mundo conectado» y «El principio del placer», con una serie de charlas en las que se urgía a las personas más poderosas del mundo a apoyar iniciativas benéficas y a buscar su propia felicidad. El propio Schmidt inauguró la conferencia con una oda al poder emancipatorio de la tecnología: «Creo que nos falta algo, debido quizá a la manera en que funciona la política y tal vez por cómo funcionan los medios. No somos lo suficientemente optimistas […]. La naturaleza de la innovación, las cosas que están sucediendo tanto en Google como a escala global son muy positivas para la humanidad, y deberíamos ser mucho más optimistas respecto a lo que ocurrirá en el futuro».[2] En la sesión de debate posterior, en respuesta a una pregunta que proponía el 1984 de George Orwell como contraejemplo de ese pensamiento utópico, Schmidt citó la difusión de los teléfonos móviles —y en particular de las cámaras que incorporan— para ilustrar cómo la tecnología mejoraba el mundo: En la actualidad, en la era de internet, es dificilísimo implementar el mal de forma sistémica. Le daré un ejemplo. Estábamos en Ruanda. En Ruanda en 1994 tuvo lugar ese terrible…, en esencia, genocidio. 750.000 personas fueron asesinadas con machetes en un periodo de cuatro meses, que es una forma espantosa, espantosa, de hacerlo. Eso requirió planificación. Que la gente lo pusiera por escrito. Lo que pienso es que, en 1994, si todo el mundo hubiera tenido un teléfono inteligente, habría sido imposible que ocurriera; la gente se habría

percatado de que estaba sucediendo. Los planes se habrían filtrado. Alguien se habría dado cuenta y alguien habría reaccionado para evitar esa terrible carnicería.[3]

La visión que Schmidt —y Google— tiene del mundo se basa por completo en la creencia de que conseguir que algo se vuelva visible logra también que mejore y de que la tecnología es la herramienta para hacer las cosas visibles. Esta visión, que ha llegado a ser la dominante en el mundo, no es solo fundamentalmente errónea, sino decididamente peligrosa, tanto en un sentido global como para el caso particular al que se refiere Schmidt. Está exhaustivamente documentado[4] el amplio espectro de información que poseían los responsables políticos mundiales —en particular, los estadounidenses, pero también los de las antiguas potencias coloniales en la región, Bélgica y Francia— tanto en los meses y semanas que precedieron al genocidio como mientras este se estaba produciendo. Muchos países tenían personal de embajada y de otro tipo sobre el terreno, al igual que las oenegés, mientras que la ONU, los ministerios de Asuntos Exteriores, los ejércitos y los servicios de inteligencia vigilaban la situación y retiraron a su personal en respuesta a la escalada de la crisis. La Agencia Nacional de Seguridad estadounidense escuchó y grabó las tristemente famosas emisiones de radio de ámbito nacional llamando a una «guerra final» para «exterminar a las cucarachas». (El general Roméo Dallaire, comandante de la operación pacificadora de la ONU cuando se produjo el genocidio, comentó tiempo después que «el mero hecho de interferir [en las] emisiones y sustituirlas por mensajes de paz y reconciliación habría tenido un efecto significativo sobre el curso de los acontecimientos».)[5] Durante años, Estados Unidos negó que poseyera ninguna evidencia directa de las atrocidades que se estaban cometiendo, pero en el juicio contra un genocida ruandés en 2012, la fiscalía mostró inesperadamente imágenes de alta resolución tomadas por satélites que sobrevolaron el país en mayo, junio y julio de 1994, durante los «cien días del genocidio».[6] Las imágenes —sacadas de un tesoro mucho mayor, clasificado por la Oficina Nacional de Reconocimiento y la Agencia Nacional de Inteligencia-Geoespacial estadounidenses— mostraban cortes de carreteras, edificios destruidos, fosas comunes e incluso cadáveres en las calles de Butare, la antigua capital.[7] La situación se repitió en los Balcanes en 1995, cuando agentes de la CIA contemplaron vía satélite desde la sala de crisis en Viena la masacre de unos ocho mil hombres y niños musulmanes en Srebrenica.[8] Días más tarde, en las fotografías de un avión espía U-2 pudieron verse montones de tierra recién acumulados al excavar fosas comunes, evidencia que no se le mostró al presidente Clinton hasta un mes más tarde.[9] Pero en realidad no se puede culpar de ello a la inercia institucional, ya que en el tiempo transcurrido desde entonces se ha hecho realidad la generación distribuida de imágenes que Schmidt reclama. Hoy, las imágenes de satélite de fosas comunes ya no son coto exclusivo de las agencias de inteligencia militares y estatales, sino que en

Google Maps pueden encontrarse imágenes de trincheras antes y después de que se llenasen de cadáveres de personas asesinadas, como por ejemplo en los terrenos de la mezquita de Daraya, al sur de Damasco, en 2013.[10] En todos estos casos, la vigilancia se revela como una empresa completamente retroactiva, incapaz de actuar en el presente y enteramente al servicio de los intereses de poder establecidos y completamente en entredicho. Lo que faltó en Ruanda y Srebrenica no fueron evidencias de las atrocidades, sino voluntad para actuar en consecuencia. Como señaló un reportaje de investigación sobre los asesinatos en Ruanda: «Cualquier incapacidad de apreciar en su totalidad el genocidio se debió a debilidades políticas, morales y de imaginación, no a la falta de información».[11] Esta afirmación podría ser la moraleja de este libro: una denuncia irrefutable de nuestra capacidad de ignorar o buscar más información de primera mano, cuando el problema no está en lo que sabemos o dejamos de saber, sino en lo que hacemos. Pero esa denuncia del disminuido poder de la imagen no debería interpretarse como un respaldo a la postura de Schmidt de que más imágenes, o más información, por mucho que se hubiesen generado de manera muy democrática y distribuida, hubiesen ayudado. Se ha comprobado una y otra vez que la propia tecnología que Schmidt quiere vendernos como una defensa contra el mal sistémico, el teléfono inteligente, amplifica la violencia y expone a los individuos a sus estragos. Tras las disputadas elecciones celebradas en Kenia en 2007, el teléfono móvil desempeñó el papel que las emisoras de radio habían ejercido en Ruanda, de modo que la circulación de mensajes de texto en los que se incitaba a los grupos étnicos de ambos bandos a masacrarse mutuamente avivó la espiral de violencia. Más de mil personas fueron asesinadas. Un ejemplo que tuvo mucha difusión exhortaba a la gente a crear y enviar listas de sus enemigos: Afirmamos que no se derramará más sangre kikuyu inocente. Los mataremos aquí mismo en la capital. Por justicia, haced una lista de los luos y kalus(ph) que conozcáis en vuestro trabajo o en vuestro barrio, o en algún otro sitio de Nairobi, junto con dónde y cómo van al colegio sus hijos. Os daremos números a los que enviar esta información.[12]

El problema de los mensajes de odio llegó a ser tan grave que el Gobierno intentó hacer circular sus propios mensajes de paz y reconciliación, y las oenegés humanitarias culparon directamente del agravamiento del ciclo de violencia a la escalada retórica en el seno de las comunidades cerradas e inaccesibles creadas por los teléfonos móviles. Estudios posteriores han descubierto que, a lo largo y ancho del continente, incluso cuando se toman en consideración la desigualdad económica, el fraccionamiento étnico y la geografía, una mayor penetración de la telefonía móvil está asociada con niveles de violencia más elevados.[13] Nada de lo dicho pretende argumentar que los propios satélites o los teléfonos inteligentes

generen violencia, sino que es más bien la creencia acrítica e irreflexiva en su utilidad amoral lo que perpetúa nuestra incapacidad para repensar nuestras relaciones con el mundo. Toda afirmación indiscutible de la bondad neutral de la tecnología apoya y sostiene el statu quo. La relativa a Ruanda sencillamente no se sostiene; de hecho, lo cierto es lo contrario y Schmidt, uno de los agentes más poderosos del mundo de la expansión digital impulsada por datos, con una multitud de líderes empresariales globales y líderes gubernamentales como público, no solo se equivoca, sino que lo hace de manera peligrosa. La información y la violencia están absoluta e inextricablemente relacionadas, y las tecnologías que pretenden afianzar el control sobre el mundo aceleran la transformación de la información en un arma. El vínculo histórico entre intereses militares, gubernamentales y corporativos, por una parte, y el desarrollo de nuevas tecnologías por la otra, hace que esto resulte evidente. Los efectos se ven por todas partes. Y a pesar de ello seguimos dando un valor desmesurado a la información que nos encierra en bucles de violencia, destrucción y muerte. Dada nuestra larga historia de haber hecho exactamente lo mismo con otras materias primas, no se debe ni se puede descartar esta constatación. Al parecer, la frase «los datos son el nuevo petróleo» fue acuñada en 2006 por Clive Humby, el matemático británico que diseñó Tesco Clubcard, un programa de fidelización para supermercados.[14] Desde entonces, se ha venido repitiendo y amplificando, primero por comercializadores, después por emprendedores y, finalmente, por líderes empresariales y responsables políticos. En mayo de 2017, el Economist dedicó un número entero a esta tesis; en él afirmaba que «los smartphones e internet habían hecho que los datos fuesen abundantes, ubicuos y mucho más valiosos […]. Al recopilar más datos, una empresa tiene más margen para mejorar sus productos, lo que atrae más usuarios, que generan aún más datos, y así sucesivamente».[15] El presidente y CEO de Mastercard afirmó en público en Arabia Saudí, el mayor productor mundial del petróleo de verdad, que los datos podían ser tan efectivos como el crudo en tanto que medio para generar riqueza (también dijo que los datos eran un «bien público»).[16] En los debates mantenidos en el Parlamento británico en torno a la salida de la Unión Europea, parlamentarios de ambos bandos equipararon el valor de los datos con el nuevo petróleo.[17] De todos modos, pocas de esas menciones al poder «petrolífero» de los datos abordan las implicaciones de la dependencia a largo plazo, sistémica y global respecto de un material tan tóxico o las dudosas circunstancias en que se produce su extracción. En la formulación original de Humby, los datos se asemejaban al petróleo porque este «es valioso, pero en la práctica no puede usarse sin refinar. Debe transformarse en gasolina, plástico, productos químicos, etcétera, para crear algo valioso que impulse una actividad rentable. De manera análoga, los datos deben descomponerse y analizarse para que tengan valor».[18] Con los años se ha ido perdiendo el énfasis en el trabajo que se requiere para hacer que la información sea

útil, debido a la potencia de procesamiento y la inteligencia artificial, y ha sido reemplazado por la pura especulación; en el curso de la simplificación se han olvidado las ramificaciones históricas de la analogía, así como sus peligros actuales y sus repercusiones a largo plazo. Nuestra sed de datos, como nuestra sed de petróleo, es históricamente imperialista y colonialista y está íntimamente ligada a las redes capitalistas de explotación. Los imperios más exitosos siempre se han manifestado mediante una visibilidad selectiva: la de lo subalterno al centro. Los datos se utilizan para trazar el mapa y clasificar el objeto de la pretensión imperialista, de la misma manera que a los súbditos de los imperios se los obligó a registrarse y a llamarse a sí mismos según los dictámenes de sus amos.[19] Esos mismos imperios primero ocuparon las reservas naturales de sus posesiones y, a continuación, las explotaron, y las redes que crearon perviven en las infraestructuras digitales actuales: las autopistas de la información siguen el trazado de las redes de cables telegráficos tendidas para controlar los antiguos imperios. Mientras las rutas de datos más rápidas entre África Occidental y el mundo siguen pasando por Londres, la multinacional británico-holandesa Shell continúa explotando el petróleo del delta nigeriano. Los cables submarinos que bordean Sudamérica son propiedad de corporaciones con sede en Madrid, incluso mientras los países de la zona luchan por controlar sus propios beneficios petrolíferos. Las conexiones de fibra óptica canalizan las transacciones financieras atravesando territorios de ultramar que las metrópolis han conservado discretamente tras los periodos de descolonización. El imperio ha renunciado a la mayoría del territorio, pero sigue funcionando al nivel de las infraestructuras y conserva su poder en forma de red. Los regímenes basados en datos replican las políticas racistas, sexistas y opresivas de sus predecesores, porque estos prejuicios y actitudes los llevan codificados desde sus orígenes. En la actualidad, la extracción, el refinado y el uso de datos/petróleo contaminan el suelo y el aire. Se derraman. Se filtran en todas las cosas. Llegan hasta el agua subterránea de nuestras relaciones sociales y las envenenan. Nos imponen el pensamiento computacional, que provoca profundas divisiones en la sociedad causadas por una división en clases, un fundamentalismo y un populismo disparatados, y que acelera la desigualdad. Sostienen y alimentan relaciones de poder desiguales: en la mayoría de nuestras interacciones con el poder, los datos no son algo que se ceda libremente, sino que se extraen por la fuerza, o se expulsan en momentos de pánico, como una sepia estresada que intenta ocultarse de un depredador. Si no estuviéramos ya tan insensibilizados ante su hipocresía, debería resultarnos chocante la capacidad de los políticos, los responsables gubernamentales y los tecnócratas para hablar en términos positivos de los datos y el petróleo, dado lo que sabemos sobre el cambio climático. Estos datos/petróleo seguirán suponiendo un riesgo mucho después de nuestra propia muerte: la deuda que ya hemos acumulado tardará siglos en desaparecer y aún no hemos estado siquiera cerca de experimentar sus peores e inevitables efectos.

Sin embargo, en un aspecto clave, incluso un relato realista de los datos/petróleo muestra los límites de la analogía, ya que esta podría darnos falsas esperanzas de una transición pacífica a una economía sin datos. El petróleo, después de todo, se define por el hecho de que puede agotarse. Ya nos estamos acercando al cénit petrolero y, aunque cada crisis del petróleo nos impulsa a abrir y explotar algún territorio nuevo o alguna tecnología destructiva —poniendo aún más en peligro el planeta y a nosotros mismos—, llegará un momento en que los pozos se sequen. No sucede lo mismo con la información, a pesar del fracking desesperado que parece estarse implantando cuando las agencias de inteligencia registran cada correo electrónico, cada clic de ratón y los movimientos de cada teléfono móvil. Aunque el cénit de la información podría estar más próximo de lo que pensamos, la explotación de la información en bruto puede continuar indefinidamente y, con ella, el perjuicio que nos causa a nosotros y a nuestra capacidad de lidiar con el mundo. En este sentido, la información se asemeja más a la energía nuclear que al petróleo: un recurso en la práctica ilimitado que, no obstante, contiene un inmenso poder destructor y que está históricamente vinculado con la violencia de manera aún más explícita que el petróleo. Sin embargo, los datos atómicos podrían obligarnos a enfrentarnos a cuestiones existenciales relativas al tiempo y a la contaminación de formas que la petrocultura, burbujeando a través de los siglos, por lo general ha logrado evitar. Hemos seguido el rastro de las maneras en que el pensamiento computacional, desarrollado con la ayuda de las máquinas, evolucionó hasta fabricar la bomba atómica, y cómo la arquitectura del procesamiento y de las redes actuales se forjó en el crisol del Proyecto Manhattan. También hemos visto las formas en que los datos se filtran y se escapan: las desviaciones críticas y las reacciones en cadena que acaban en los colapsos de la privacidad y en el rizomatoso hongo nuclear. Estas analogías no son meras especulaciones, son los efectos intrínsecos y totalizadores de nuestras decisiones sociales y de diseño. De la misma manera que pasamos cuarenta y cinco años atrapados en una Guerra Fría perpetuada por el espectro de la destrucción mutua asegurada, hoy nos encontramos en un callejón sin salida intelectual y ontológico. El principal método de que disponemos para evaluar el mundo —más datos— está tambaleándose. Se está mostrando incapaz de explicar los sistemas complejos antropogénicos, y su incapacidad está quedando patente, sobre todo porque hemos construido un inmenso sistema de intercambio de información que abarca todo el planeta y que hace que resulte evidente. El colapso de la privacidad mutuamente asegurado de la vigilancia estatal y el activismo de contravigilancia a base de filtraciones es una muestra de esta incapacidad, como también lo es la confusión provocada por la sobrecarga de información en tiempo real procedente de la propia vigilancia. Y lo es asimismo la crisis de descubrimiento de nuevos fármacos que sufre la industria farmacéutica, en la que miles de millones de dólares invertidos en computación obtienen una cantidad exponencialmente decreciente de avances farmacológicos.

Sin embargo, quizá el caso más evidente sea que, a pesar del volumen de información que existe en internet —la pluralidad de opiniones moderadas y explicaciones alternativas—, las teorías de la conspiración y el fundamentalismo no solo sobreviven, sino que proliferan. Como en la era nuclear, aprendemos la lección equivocada una y otra vez. Contemplamos el hongo nuclear, toda su potencia, y nos lanzamos de nuevo a una carrera armamentística. Pero lo que deberíamos estar viendo es la propia red en toda su complejidad. La red es solo la herramienta más reciente para la introspección que nuestra especie ha construido, aunque ciertamente es la más compleja y con una escala planetaria. Tratar con la red es hacerlo con una infinita biblioteca borgiana y todas las contradicciones intrínsecas que esta alberga: una biblioteca que no convergerá y que se niega continuamente a mantener la coherencia. Ya no es que nuestras categorías, síntesis y autoridades sean meramente insuficientes; son literalmente incoherentes. Como señaló H. P. Lovecraft al anunciar una nueva edad oscura, nuestras formas actuales de entender el mundo no pueden sobrevivir expuestas a esa totalidad de información en bruto más de lo que nosotros podemos sobrevivir expuestos al núcleo de un reactor nuclear. En 1919, Estados Unidos fundó la Black Chamber [«Cámara Negra»], predecesora de la Agencia Nacional de Seguridad (NSA); fue la primera organización de criptoanálisis en tiempos de paz, dedicada al desciframiento, refinado y combustión de información en nombre del poder. Su homólogo físico fue construido por Enrico Fermi bajo las gradas del Stagg Field de Chicago en 1942, con 45.000 bloques de grafito negro, y se utilizó para aislar la primera reacción nuclear artificial de la historia. Así como el pueblo mesetario de Los Álamos, cuya existencia fue secreta en otros tiempos, encuentra su equivalente contemporáneo en los centros de datos de la NSA que se están construyendo en el desierto de Utah, también la Cámara Negra se hace realidad hoy tanto en los cristales tintados y en el acero de la sede de la NSA en Fort Meade, Maryland, como en los infinitos e inescrutables bastidores de servidores de Google, Facebook, Amazon, Palantir, Lawrence Livermore, Sunway Taihu-Light y el Centro para la Gestión de la Defensa Nacional. Las dos cámaras, la de Fermi y la de la NSA, representan encuentros con dos aniquilaciones, una del cuerpo y otra de la mente, pero ambas del yo. Las dos son analogías de la búsqueda infinitamente destructiva de un conocimiento cada vez más detallado, a costa de reconocer nuestra ignorancia. Hemos construido la civilización moderna sobre la dialéctica de que más información conduce a mejores decisiones, pero nuestra ingeniería ha pasado factura a nuestra filosofía. La novelista y activista Arundhati Roy, al escribir con motivo de la detonación de la primera bomba nuclear de la India, la llamó «el fin de la imaginación», y una vez más, este apocalipsis se plasma literalmente en nuestras tecnologías de la información.[20]

Pila exponencial, precursora del Pile-1 de Chicago, 1942. Fotografía: Departamento de Energía de Estados Unidos.

En respuesta al fin de la imaginación, inequívocamente patente no solo en el amenazante hongo nuclear, sino en la inhumana longevidad de las vidas medias de los residuos radiactivos, que continuarán irradiando mucho después de que la propia humanidad haya desaparecido, hemos recurrido al mito y al silencio. Entre las propuestas que se presentaron para señalar en Estados Unidos la presencia de un almacén de residuos nucleares a largo plazo se incluye una escultura cuya forma es tan espantosa que otras especies reconocerán su ubicación como algo maligno. Un texto redactado para acompañar a la escultura dice así: «Este no es un lugar distinguido. Aquí no se conmemora ningún hecho muy apreciado. Aquí no hay nada de valor».[21] Otra propuesta del Grupo de Trabajo sobre Interferencia Humana, organizado por el Departamento de Energía en la década de 1980, planteaba la posibilidad de criar «gatos radiactivos» que cambiaran de color cuando estuvieran expuestos a emisiones radioactivas y sirvieran así como indicadores vivientes del peligro y que fueran acompañados de obras de arte y fábulas que transmitieran la importancia de este cambio a través del futuro cultural remoto.[22] El depósito de residuos nucleares de Onkalo, excavado en las profundidades de la roca madre en Finlandia, ha propuesto otro plan: una vez rellenado, simplemente se borrará del mapa, se ocultará su ubicación y, con el tiempo, se olvidará su existencia.[23] Una interpretación en clave atómica de la información presenta, al final, una concepción tan cataclísmica del futuro que nos conlleva a hacer hincapié en que el presente es el único ámbito de acción. En oposición a los relatos nihilistas de los pecados originales y a las visiones distópicas o

utópicas del futuro, una rama del activismo medioambiental y atómico postula la idea de tutela. [24] La tutela asume la plena responsabilidad por los productos tóxicos de la cultura atómica, incluso —y especialmente— cuando han sido creados para nuestro aparente beneficio. Se basa en los principios de hacer el menor daño posible en el presente y de nuestra responsabilidad para con las generaciones futuras, pero no supone que podamos conocer o controlar esos daños. En consecuencia, la tutela exige un cambio: al tiempo que asume la responsabilidad de lo que ya hemos creado, insiste en que el soterramiento profundo de los materiales radiactivos contradice sus principios y genera el riesgo de que se produzca una contaminación generalizada. En este sentido, se alinea con la nueva edad oscura, un lugar donde el futuro es radicalmente incierto y el pasado está irrevocablemente en disputa, pero donde todavía somos capaces de hablar directamente a lo que tenemos frente a nosotros, de pensar con claridad y actuar con justicia. La tutela afirma que estos principios requieren un compromiso moral que está fuera de las capacidades del pensamiento computacional puro, pero perfectamente dentro de nuestra realidad cada vez más oscura, y se adecúa a ella por completo. En última instancia, cualquier estrategia para vivir en la nueva edad oscura se fundamenta en la atención al aquí y ahora y no en las ilusorias promesas de predicción, vigilancia, ideología y representación computacionales. El presente es siempre el lugar donde vivimos y pensamos, a medio camino entre una historia opresiva y un futuro desconocido. Las tecnologías que tanto informan y determinan nuestras percepciones actuales de la realidad no van a desaparecer, y en muchos casos es mejor que así sea. Nuestros actuales sistemas de apoyo vital en un planeta con 7.500 millones de habitantes y en pleno crecimiento dependen de ellas. Nuestra comprensión de esos sistemas y sus ramificaciones, y de las decisiones conscientes que tomamos en su diseño, en el aquí y ahora, sigue estando totalmente dentro del ámbito de nuestras capacidades. No estamos indefensos, no carecemos de capacidad de actuación, ni estamos limitados por la oscuridad. Solo tenemos que pensar, repensar y seguir pensando. La red —nosotros, nuestras máquinas y las cosas que pensamos y descubrimos conjuntamente— lo exige.

Agradecimientos

A mi compañera en todo, Navine G. Khan-Dossos, gracias por todo tu apoyo, paciencia, ideas intensas y amor desinteresado. Un agradecimiento especial a Russell Davies, Rob Faure-Walker, Katherine Brydan, Cally Spooner y Charlie Lloyd, quienes tuvieron la amabilidad de leer los borradores y ofrecerme sus reflexiones. Gracias a Tom Taylor, Ben Terret, Chris Heathcote, Tom Armitage, Phil Gyford, Alice Bartlett, Dan Williams, Nat Buckley, Matt Jones, y a los equipos de RIG, BRIG, THFT y Shepherdess, por todas las conversaciones, y a todos en el Infrastructure Club. Gracias a Kevin Slavin, Hito Steyerl, Susan Schuppli, Trevor Paglen, Karen Barad, Ingrid Burrington, Ben Vickers, Jay Springett, George Voss, Tobias Revell y Kyriaki Goni, por su trabajo y por nuestras conversaciones. Gracias a Luca Barbeni, Honor Harger y Katrina Sluis, por su fe en mi trabajo. Gracias a Leo Hollis por pedirlo y a todos en Verso por haberlo llevado a cabo. Gracias a Gina Fass y a toda la gente de Romantso en Atenas, donde se escribió la mayor parte de esta obra, y a Helene Black y Yiannis Colakides de Neme, en Limassol, que me vieron completar los últimos capítulos. Y gracias a Tom y Eleanor, Howard y Alex, y a mis padres, John y Clemancy, por su inquebrantable apoyo y entusiasmo.

Entre tanto dato no contrastado, posverdad y fake news, este libro nos alerta y nos empuja a vislumbrar la verdad en esta nueva edad oscura de la información. Cuanto más aumenta la complejidad del mundo tecnológico, más disminuye nuestra comprensión de la realidad: la información que recibimos a diario está plagada de datos no contrastados, de posverdad, de teorías conspirativas... Todo esto nos convierte, cada vez más, en náufragos perdidos en un mar de especulación. James Bridle, el mediático tecnólogo y autor de estas páginas, nos advierte ante un futuro en el que la promesa contemporánea de un conocimiento brindado por la tecnología puede traernos justo lo contrario: una era de incertidumbre, algoritmos predictivos y minuciosos sistemas de vigilancia. Un libro magistral y aterrador que nos adentra en la inquietante tormenta que acecha el debate de las maravillas del mundo digital. Reseñas: «Espero los lectores no disfruten esta perceptiva y sugerente obra, sino que, más bien, sientan pavor.» Will Self, The Guardian «Bridle es un artista y escritor que debate sobre la relación entre tecnología, cultura y conciencia y cuya fama aumenta por momentos. Entre los temas alrededor de los cuales gira su arte están los drones y los coches automatizados. Su nuevo y ambicioso libro presenta cómo la era digital está modificando radicalmente los paradigmas de la experiencia humana.» The Guardian «La obra revela la forma en la que se nos tiene deliberadamente desinformados y cómo estamos adentrándonos de manera inconsciente en un futuro de vigilancia ininterrumpida que nubla nuestros sueños sobre las maravillas del mundo digital.» Financial Times «Un Orwell en la era de la tecnología.» Kirkus Reviews «James Bridle demuestra ser un maestro a la hora de encontrar contradicciones en las tecnologías

actuales. Este es un libro de extrema importancia en estos tiempos.» Bernard Hay, The Quietus «Un alarmante grito de guerra. El autor es extremadamente convincente al abogar por una interacción más informada con las tecnologías que hemos creado.» Ben Eastham, ArtReview «Una perspectiva firme y una provocación necesaria. Horroroso pero fascinante.» Jamie Bartlett, Spectator «Un libro tan original como provocador.» Pat Kane, New Scientist «Mi ejemplar de este libro está repleto de notas que se amontonan en los márgenes. Me siento como un estudiante de química orgánica que, abrumado, siente la necesidad de subrayarlo absolutamente todo: todo es importante y está conectado y, al mismo tiempo, el autor describe intencionadamente un mundo sin sentido. Denso, absorbente y convincente a más no poder.» Barbara Fister, Inside Higher Education «Este es uno de los libros más perturbadores y reveladores sobre Internet que he leído jamás, lo cual viene a ser lo mismo que decir que es uno de los libros más perturbadores y reveladores que he leído sobre el mundo contemporáneo.» New Yorker «Una tenebrosa puerta que se abre a una nueva era. Una obra escalofriante sobre la oscuridad del mundo digital y los peligros más imprevisibles e imparables que hemos traído al mundo desde el Proyecto Manhattan.» Vice

James Bridle es artista, escritor, periodista, editor y tecnólogo. Colabora con Observer, Wired, Frieze y The Atlantic, entre otras publicaciones, y trabaja como columnista en The Guardian, donde suele escribir sobre edición y tecnología.

Título original: New Dark Age: Technology and the End of the Future

Edición en formato digital: febrero de 2020 © 2018, James Bridle Publicado por acuerdo de Verso Books, un sello de New Left Books © 2020, Penguin Random House Grupo Editorial, S.A. U. Travessera de Gràcia, 47-49. 08021 Barcelona © 2020, Marcos Pérez Sánchez, por la traducción Diseño de portada: Penguin Random House Grupo Editorial / Andreu Barberan Fotografía de portada: iStock Photos Penguin Random House Grupo Editorial apoya la protección del copyright. El copyright estimula la creatividad, defiende la diversidad en el ámbito de las ideas y el conocimiento, promueve la libre expresión y favorece una cultura viva. Gracias por comprar una edición autorizada de este libro y por respetar las leyes del copyright al no reproducir ni distribuir ninguna parte de esta obra por ningún medio sin permiso. Al hacerlo está respaldando a los autores y permitiendo que PRHGE continúe publicando libros para todos los lectores. Diríjase a CEDRO (Centro Español de Derechos Reprográficos, www.cedro.org) si necesita reproducir algún fragmento de esta obra.

ISBN: 978-84-18006-11-1 Composición digital: Newcomlab S.L.L. www.megustaleer.com

1. Caída en el abismo

[1] La nube del no saber, anónimo, siglo XIV. [2] «La ciencia no es suficiente, ni lo es la religión, ni el arte, ni la política y la economía, ni el amor, ni el deber, ni acción alguna, por desinteresada que fuere, ni la contemplación, por sublime que sea. Nada sirve, como no sea el todo.» De Aldous Huxley, Island, Nueva York, Harper & Brothers, 1962. [Hay trad. cast.: La isla, trad. Floreal Mazía, Barcelona, Edhasa, 1996 (1.ª ed.: 1971).] [3] H. P. Lovecraft, «The Call of Cthulhu», Weird Tales, febrero de 1926. [Hay trad. cast.: «La llamada de Cthulhu», en Relatos de los mitos de Cthulhu (1), Barcelona, Ciudad de Libros, 2014.] [4] Rebecca Solnit, «Woolf ’s Darkness: Embracing the Inexplicable», New Yorker, 24 de abril de 2014, . [5] Donna Haraway, «Anthropocene, Capitalocene, Chthulucene: Staying with the Trouble» (conferencia «Anthropocene: Arts of Living on a Damaged Planet», UC Santa Cruz, 9 de mayo de 2014), . [6] Virginia Woolf, Three Guineas, Nueva York, Harvest, 1966. [Hay trad.cast.:Tres guineas, trad. Andrés Bosch, Barcelona,Lumen,2013 (1.ª ed.: 1980).]

2. Computación [1] John Ruskin, The Storm-Cloud of the Nineteenth Century:Two Lectures Delivered at the London Institution February 4th and 11th, 1884, Londres, George Allen, 1884. [2] Ibid. [3] Ibid. [4] Alexander Graham Bell en una carta a su padre, Alexander Melville Bell, fechada el 26 de febrero de 1880 y citada en Robert V. Bruce, Bell: Alexander Graham Bell and the Conquest of Solitude, Ithaca, NY, Cornell University Press, 1990. [5] «The Photophone», New York Times, 30 de agosto de 1880. [6] Oliver M. Ashford,Prophet or Professor? The Life and Work of Lewis Fry Richardson, Londres, Adam Hilger Ltd., 1985. [7] Lewis Fry Richardson, Weather Prediction by Numerical Process, Cambridge, Cambridge University Press, 1922. [8] Ibid. [9] Vannevar Bush, «AsWe MayThink»,Atlantic, julio de 1945. [Una versión en castellano apareció en el número 239 de la Revista de Occidente, de marzo de 2001, dedicado a «El saber en el universo digital» y preparado por José Antonio Millán.] [10] Ibid.

[11] Ibid. [12] Ibid. [13] Vladimir K.Zworykin,Outline of Weather Proposal,Princeton,NJ, laboratorios RCA, octubre de 1945, disponible en . [14] Citado en Freeman Dyson,Infinite in All Directions, Nueva York, Harper & Row, 1988. [15] «Weather to Order», New York Times, 1 de febrero de 1947. [16] John von Neumann, «Can We Survive Technology?», Fortune, junio de 1955. [17] Peter Lynch, The Emergence of Numerical Weather Prediction: Richardson’s Dream, Cambridge, Cambridge University Press, 2006. [18] «50 Years of Army Computing: From ENIAC to MSRC», Army Research Laboratory, Adelphi, MD, noviembre de 1996. [19] George W. Platzman, «The ENIAC Computations of 1950 – Gateway to Numerical Weather Prediction»,Bulletin of the American Meteorological Society, abril de 1979. [20] Emerson W. Pugh,Building IBM: Shaping an Industry and Its Tech- nology, Cambridge, MA, MIT Press, 1955. [21] Herbert R. J. Grosch, Computer: Bit Slices from A Life, Londres, Third Millennium Books, 1991. [22] George Dyson, Turing’s Cathedral:The Origins of the Digital Universe, Nueva York, Penguin Random House, 2012. [Hay trad. cast.:La catedral de Turing. Los orígenes del universo digital, trad. Francisco Ramos Mena, Barcelona, Debate, 2015.] [23] IBM, «SAGE:The First National Air Defense Network», IBM History, . [24] Gary Anthes, «Sabre Timeline», Computerworld, 21 de mayo de 2014, . [25] «Flightradar24.com blocked Aircraft Plane List», Radarspotters, foro comunitario, . [26] Administración Federal de Aviación, «Statement By The President Regarding The United States’ Decision To Stop Degrading Global Positioning System Accuracy», 1 de mayo de 2000, . [27] David Hambling, «Ships fooled in GPS spoofing attack suggest Russian cyberweapon», New Scientist, 10 de agosto de 2017, . [28] Kevin Rothrock, «The Kremlin Eats GPS for Breakfast»,Moscow Times, 21 de octubre de 2016, . [29] Chaim Gartenberg, «This Pokémon Go GPS hack is the most impressive yet»,Verge, Circuit Breaker, 28 de julio de 2016, . [30] Rob Kitchin y Martin Dodge,Code/Space: Software and Everyday Life, Cambridge, MA, MIT Press, 2011. [31] Brad Stone, «Amazon Erases Orwell Books From Kindle», New York Times, 17 de julio de 2009, . [32] R. Stuart Geiger, «The Lives of Bots», en Geert Lovink y Nathaniel Tkaz, eds., Critical Point of View: A Wikipedia Reader, Institute of Network Cultures, 2011, disponible en . [33] Kathleen Mosier, Linda Skitka, Susan Heers y Mark Burdick, «Automation Bias: Decision Making and Performance in HighTech co*ckpits», International Journal of Aviation Psychology 8:1, 1997, pp. 47-63. [34] «CVR transcript, Korean Air Flight 007 31 Aug 1983», Aviation Safety Network, . [35] K. L. Mosier, E. A. Palmer y A. Degani, «Electronic Checklists: Implications for Decision Making», actas del 36.º encuentro anual de la Human Factors Society, Atlanta, GA, 1992. [36] «GPS Tracking Disaster: Japanese Tourists Drive Straight into the Pacific», ABC News, 16 de marzo de 2012, . [37] «Women trust GPS, drive SUV into Mercer Slough», Seattle Times, 15 de junio de 2011, . [38] Greg Milner, «Death by GPS», Ars Technica, 3 de junio de 2016, . [39] S. T. Fiske y S. E. Taylor, Social Cognition: From Brains to Culture, Londres, SAGE, 1994.

[40] Lewis Fry Richardson, citado en Ashford, Prophet or Professor? [41] Lewis F. Richardson, «The problem of contiguity: An appendix to Statistics of Deadly Quarrels», en General systems: Yearbook of the Society for the Advancement of General Systems Theory, Ann Arbor, MI, The Society for General Systems Research, 1961, pp. 139-187.

3. Clima [1] «Trembling tundra – the latest weird phenomenon in Siberia’s land of craters», Siberian Times, 20 de julio de 2016, . [2] Servicio Geológico de los Estados Unidos, «Assessment of Undiscovered Oil and Gas in the Arctic», USGS, 2009, energy. usgs.gov>. [3] «40 now hospitalised after anthrax outbreak in Yamal, more than half are children», Siberian Times, 30 de julio de 2016, . [4] Roni Horn,«Weather Reports You», sitio web oficial de Artangel, 15 de febrero de 2017, . [5] «Immigrants Warmly Welcomed», Al Jazeera, 4 de julio de 2006, . [6] Organización de las Naciones Unidas para la Alimentación y la Agricultura, «Crop biodiversity: use it or lose it», FAO, 2010, . [7] «Banking against Doomsday», Economist, 10 de marzo de 2012, . [8] Somini Sengupta, «How a Seed Bank, Almost Lost in Syria’s War, Could Help Feed a Warming Planet», New York Times, 12 de octubre de 2017, . [9] Damian Carrington, «Arctic stronghold of world’s seeds flooded after permafrost melts», Guardian, 19 de mayo de 2017, . [10] Alex Randall, «Syria and climate change: did the media get it right?», Climate and Migration Coalition, . [11] Jonas Salomonsen, «Climate change is destroying Greenland’s earliest history», ScienceNordic, 10 de abril de 2015, . [12] J. Hollesen, H. Matthiesen, A. B. Møller y B. Elberling, «Permafrost thawing in organic Arctic soils accelerated by ground heat production», Nature Climate Change 5:6 (2015), pp. 574-578. [13] Elizabeth Kolbert, «A Song of Ice», New Yorker, 24 de octubre de 2016, . [14] Consejo para la Ciencia y la Tecnología, «A National Infrastructure for the 21st century», 2009, . [15] AEA, «Adapting the ICT Sector to the Impacts of Climate Change», 2010, . [16] Consejo para la Ciencia y la Tecnología, «A National Infrastructure for the 21st century». [17] AEA, «Adapting the ICT Sector to the Impacts of Climate Change». [18] Tom Bawden, «Global warming: Data centres to consume three times as much energy in next decade, experts warn»,Independent, 23 de enero de 2016, . [19] Institute of Energy Economics, «Japan Long-Term Energy Outlook – A Projection up to 2030 under Environmental Constraints and Changing Energy Markets»,Japón,2006,. [20] Eric Holthaus, «Bitcoin could cost us our clean-energy future», Grist, 5 de diciembre de 2017, . [21] Digital Power Group, «The Cloud Begins With Coal – Big Data, Big Networks, Big Infrastructure, and Big Power», 2013, .

[22] Bawden, «Global warming». [23] Alice Ross, «Severe turbulence on Aeroflot flight to Bangkok leaves 27 people injured», Guardian, 1 de mayo de 2017, . [24] Anna Ledovskikh, «Accident on board of plane Moscow to Bangkok», vídeo en YouTube, 1 de mayo de 2017. [25] Aeroflot, «Doctors Confirm No Passengers Are In Serious Condition After Flight Hits Unexpected Turbulence», 1 de mayo de 2017, . [26] M. Kumar, «Passengers, crew injured due to turbulence on MAS flight», Star of Malaysia, 5 de junio de 2016, . [27] Henry McDonald, «Passenger jet makes emergency landing in Ireland with 16 injured», Guardian, 31 de agosto de 2016, . [28] Junta Nacional de Seguridad en el Transporte, «NTSB Identification: DCA98MA015», . [29] Administración Federal de Aviación, FAA Advisory Circular 120-88A, 2006. [30] Paul D. Williams & Manoj M. Joshi, «Intensification of winter transatlantic aviation turbulence in response to climate change», Nature Climate Change 3 (2013), pp. 644-648. [31] Wolfgang Tillmans, Concorde, Colonia, Walther Konig Books, 1997. [32] William B. Gail, «A New Dark Age Looms», New York Times, 19 de abril de 2016, . [33] Joseph G. Allen et al., «Associations of Cognitive Function Scores with Carbon Dioxide, Ventilation, and Volatile Organic Compound Exposures in Office Workers: A Controlled Exposure Study of Green and Conventional Office Environments», Environmental Health Perspectives 124 (junio de 2016), pp. 805-812. [34] Usha Satish et al., «Is CO2 an Indoor Pollutant? Direct Effects of Low-to-Moderate CO2 Concentrations on Human Decision-Making Performance», Environmental Health Perspectives 120:12, diciembre de 2012, pp. 1.671-1.677.

4. Cálculo [1] William Gibson, entrevistado por David Wallace-Wells, «William Gibson, The Art of Fiction No. 211», Paris Review, 197, verano de 2011. [2] Tim Berners-Lee, «How the World Wide Web just happened», Do Lectures, 2010, . [3] «Cramming more components onto integrated circuits»,Electro- nics 38:8 (19 de abril de 1965). [4] «Moore’s Law at 40», Economist, 23 de marzo de 2005, . [5] Chris Anderson, «End of Theory», revista Wired, 23 de junio de 2008. [6] Jack W. Scannell, Alex Blanckley, Helen Boldon y Brian Warrington, «Diagnosing the decline in pharmaceutical R&D efficiency», Nature Reviews Drug Discover 11, marzo de 2012, pp. 191-200. [7] RichardVan Noorden, «Science publishing:The trouble with retractions», Nature, 5 de octubre de 2011, . [8] F. C. Fang y A. Casadevall, «Retracted Science and the Retraction Index», Infection and Immunity 79, 2011, pp. 3.855-3.859. [9] F. C. Fang, R. G. Steen y A. Casadevall, «Misconduct accounts for the majority of retracted scientific publications»,FAS, 16 de octubre de 2012, . [10] Daniele Fanelli, «How Many Scientists Fabricate and Falsify Research? A Systematic Review and Meta-

Analysis of Survey Data», PLOS ONE, 29 de mayo de 2009, . [11] F. C. Fang, R. G. Steen y A. Casadevall, «Why Has the Number of Scientific Retractions Increased?»,PLOS ONE, 8 de julio de 2013, . [12] «People Who Mattered 2014»,Time, diciembre de 2014, . [13] Yudhijit Bhattacharjee, «The Mind of a Con Man», New York Times, 26 de abril de 2013, . [14] Monya Baker, «1,500 scientists lift the lid on reproducibility», Nature, 25 de mayo de 2016, . [15] Para más información sobre los cálculos matemáticos de este experimento, véase Jean-François Puget, «Green dice are loaded (welcome to p-hacking)», entrada en el blog de IBM DeveloperWorks, 22 de marzo de 2016, . [16] M. L. Head et al., «The Extent and Consequences of P-Hacking in Science», PLOS Biology 13:3, 2015. [17] John P. A. Ioannidis, «Why Most Published Research Findings Are False», PLOS ONE, agosto de 2005, . [18] Derek J. de Solla Price, Little Science, Big Science, Nueva York, Columbia University Press, 1963. [19] S. Siebert, L. M. Machesky, y R. H. Insall, «Overflow in science and its implications for trust», eLife 14, septiembre de 2015, . [20] Ibid. [21] Michael Eisen, «Peer review is f***ed up – let’s fix it», entrada en su blog personal, 28 de octubre de 2011, . [22] Emily Singer, «Biology’s big problem:There’s too much data to handle», Wired, 11 de octubre de 2013, . [23] Lisa Grossman y Maggie McKee, «Is the LHC throwing away too much data?», New Scientist, 14 de marzo de 2012, . [24] Jack W. Scannell et al., «Diagnosing the decline in pharmaceutical R&D efficiency», Nature Reviews Drug Discovery, 11, marzo de 2012, pp. 191-200. [25] Philip Ball,Invisible: The Dangerous Allure of the Unseen,Londres, Bodley Head, 2014. [Hay trad. cast.: El peligroso encanto de lo in- visible, trad. José Adrián Vitier, Madrid, Turner, 2016.] [26] Daniel Clery, «Secretive fusion company claims reactor break through», Science, 24 de agosto de 2015, . [27] E. A. Baltz et al.,«Achievement of Sustained Net Plasma Heating in a Fusion Experiment with the Optometrist Algorithm», Na- ture Scientific Reports 7, 2017, . [28] Albert van Helden y Thomas Hankins, eds., Osiris, Volume 9: Instruments, Chicago, University of Chicago Press, 1994.

5. Complejidad [1] Guy Debord, «Introduction to a Critique of Urban Geography», Les Lèvres Nues, 6, 1955, disponible en . [2] James Bridle, The Nor, serie de ensayos, 2014-2015, disponible en . [3] James Bridle, «All Cameras are Police Cameras», The Nor, noviembre de 2014. [4] James Bridle, «Living in the Electromagnetic Spectrum», The Nor, diciembre de 2014. [5] Christopher Steiner, «Wall Street’s Speed War», Forbes, 9 de septiembre de 2010, .

[6] Kevin Fitchard, «Wall Street gains an edge by trading over microwaves», GigaOM, 10 de febrero de 2012, . [7] Luis A. Aguilar, «Shedding Light on Dark Pools», Comisión de Bolsa yValores de Estados Unidos, 18 de noviembre de 2015, . [8] «Barclays and Credit Suisse are fined over US “dark pools”», BBC, 1 de febrero de 2016, . [9] Martin Arnold et al., «Banks start to drain Barclays dark pool», Financial Times, 26 de junio de 2014, . [10] Comisión de Calidad en la Atención, informe sobre el hospital de Hillingdon, 2015, . [11] Aneurin Bevan, In Place of Fear, Londres, William Heinemann, 1952. [12] Correspondencia con la Fundación Fiduciaria del NHS para los Hospitales de Hillingdon, 2017, . [13] Chloe Mayer, «England’s NHS hospitals and ambulance trusts have £700 million deficit», Sun, 23 de mayo de 2017, . [14] Michael Lewis, Flash Boys, Nueva York, W. W. Norton & Company, 2014. [Hay trad. cast.: Flash boys. La revolución de Wall Street contra quienes manipulan el mercado, trad. Iván Barbeitos García, Barcelona, Deusto, 2014.] [15] Ibid. [16] «Forget the 1%»,Economist, 6 de noviembre de 2014, . [17] Thomas Piketty, Capital in the Twenty-First Century, Cambridge, MA, Harvard University Press, 2014. [Hay trad. cast.: El capital en el siglo XXI, trad. Eliane Cazenave-Tapie, Madrid, Fondo de Cultura Económica, 2014.] [18] Jordan Golson, «Uber is using in-app podcasts to dissuade Seattle drivers from unionizing», Verge, 14 de marzo de 2017, . [19] Carla Green y Sam Levin, «Homeless, assaulted, broke: drivers left behind as Uber promises change at the top»,Guardian, 17 de junio de 2017, . [20] Ben Kentish, «Hard-pressed Amazon workers in Scotland sleeping in tents near warehouse to save money», Independent, 10 de diciembre de 2016, . [21] Kate Knibbs,«Uber Is Faking Us Out With “Ghost Cabs”on Its Passenger Map», Gizmodo, 28 de julio de 2015, . [22] Kashmir Hill, «“GodView”: Uber Allegedly Stalked Users For Party-Goers’ Viewing Pleasure», Forbes, 3 de octubre de 2014, . [23] Julia Carrie Wong, «Greyball: how Uber used secret software to dodge the law», Guardian, 4 de marzo de 2017, . [24] Russell Hotten, «Volkswagen: The scandal explained», BBC, 10 de diciembre de 2015, . [25] Guillaume P. Chossière et al., «Public health impacts of excess NOx emissions from Volkswagen diesel passenger vehicles in Germany»,Environmental Research Letters, 12,2017, . [26] Sarah O’Connor, «When Your Boss Is An Algorithm», Financial Times, 8 de septiembre de 2016, . [27] Jill Treanor, «The 2010 “flash crash”: how it unfolded», Guardian, 22 de abril de 2015, . [28] «Singapore Exchange regulators change rules following crash», Singapore News, 3 de agosto de 2014, . [29] Netty Idayu Ismail y Lillian Karununga, «Two-Minute Mystery Pound Rout Puts Spotlight on Robot Trades», Bloomberg, 7 de octubre de 2017, . [30] John Melloy, «Mysterious Algorithm Was 4 % of Trading Activity Last Week», CNBC, 8 de octubre de 2012, . [31] Samantha Murphy, «AP Twitter Hack Falsely Claims Explosions at White House»,Mashable, 23 de abril de 2013, . [32] Bloomberg Economics, @economics, publicación en Twitter, 23 de abril de 2013, 12.23. [33] Para más ejemplos de Zazzle, véase Babak Radboy, «Spam-eri can Apparel», revista DIS, . [34] Roland Eisenbrand y Scott Peterson, «This Is The German Company Behind The

Nightmarish Phone Cases On Amazon», OMR, 25 de julio de 2017, . [35] Jose Pagliery, «Man behind “Carry On” T-shirts says company is “dead”»,CNN Money, 5 de marzo de 2013, . [36] Hito Steyerl y Kate Crawford, «Data Streams», New Inquiry, 23 de enero de 2017, . [37] Ryan Lawler, «August’s Smart Lock Goes On Sale Online And At Apple Retail Stores For $250», TechCrunch, 14 de octubre de 2014, . [38] Iain Thomson, «Firmware update blunder bricks hundreds of home “smart” locks», Register, 11 de agosto de 2017, . [39] John Leyden, «Samsung smart fridge leaves Gmail logins open to attack’, Register, 24 de agosto de 2017, . [40] Timothy J. Seppala, «Hackers hijack Philips Hue lights with a drone», Engadget, 3 de noviembre de 2016, . [41] Lorenzo Franceschi-Bicchierai, «Blame the Internet of Things for Destroying the Internet Today», Motherboard, 21 de octubre de 2016, . [42] Yossi Melman, «Computer Virus in Iran Actually Targeted Larger Nuclear Facility», Haaretz, 28 de septiembre de 2010, . [43] Malcolm Gladwell, «The Formula», New Yorker, 16 de octubre de 2006, . [44] Gareth Roberts, «Tragedy as computer gamer dies after 19-hour session playing World of Warcraft», Mirror, 3 de marzo de 2015, ; Kirstie McCrum, «Tragic teen gamer dies after “playing computer for 22 days in a row”», Mirror, 3 de septiembre de 2015, . [45] Entrevista del autor con personal médico, Hospital Evangelismos, Atenas, Grecia, 2016. [46] Véase, por ejemplo, Nick Srnicek y Alex Williams, Inventing the Future: Postcapitalism and a World Without Work, Londres y Nueva York, Verso, 2015. [Hay trad. cast.: Inventar el futuro. Poscapitalismo y un mundo sin trabajo, trad. Adriana Santoveña, Barcelona, Malpaso, 2017.] [47] Deborah Cowen, The Deadly Life of Logistics, Minneapolis, MN, University of Minnesota Press, 2014. [48] Bernard Stiegler, Technics and Time 1:The Fault of Epimetheus, Redwood City, CA, Stanford University Press, 1998; citado en Alexander Galloway, «Brometheanism», boundary 2, 21 de junio de 2017, .

6. Cognición [1] Jeff Kaufman, «Detecting Tanks», entrada de blog, 2015, . [2] «New Navy Device Learns by Doing», New York Times, 8 de julio de 1958. [3] Joaquín M. Fuster, «Hayek in Today’s Cognitive Neuroscience», en Leslie Marsh, ed.,Hayek in Mind: Hayek’s Philosophical Psycho- logy, Advances in Austrian Economics, volumen 15, Emerald Books, 2011. [4] Jay Yarow, «Google Cofounder Sergey Brin:We Will Make Machines That “Can Reason, Think, And Do Things Better Than We Can”», Business Insider, 6 de julio de 2014, . [5] Quoc V. Le et al., «Building High-level Features Using Large Scale Unsupervised Learning», actas de la 29.ª Conferencia Internacional sobre Aprendizaje Automático, Edimburgo, Escocia, Reino Unido, 2012. [6] Tom Simonite, «Facebook Creates Software That Matches Faces Almost as Well as You Do», MIT Technology Review, 17 de marzo de 2014, . [7] Xiaolin Wu y Xi Zhang, «Automated Inference on Criminality using Face Images», ARXIV, noviembre de 2016, . [8] Xiaolin Wu y Xi Zhang, «Responses to Critiques on Machine Learning of Criminality Perceptions», ARXIV, mayo de 2017, .

[9] Stephen Wright e Ian Drury, «How old are they really?», Daily Mail, 19 de octubre de 2016, . [10] Wu y Zhang, «Responses to Critiques on Machine Learning». [11] Wu y Zhang, «Automated Inference on Criminality using Face Images». [12] «Racist Camera! No, I did not blink… I’m just Asian!», entrada de blog, mayo de 2009, . [13] «HP cameras are racist», vídeo en YouTube, nombre de usuario: wzamen01, 10 de diciembre de 2009. [14] David Smith, «“Racism” of early colour photography explored in art exhibition»,Guardian, 25 de enero de 2013, . [15] Phillip Martin, «How A Cambridge Woman’s CampaignAgainst Polaroid Weakened Apartheid», WGBH News, 9 de diciembre de 2013, . [16] Hewlett-Packard, «Global Citizenship Report 2009», . [17] Trevor Paglen, «re:publica 2017 | Day 3 – Livestream Stage 1 – English», vídeo en YouTube, nombre de usuario: re:publica, 10 de mayo de 2017. [18] Walter Benjamin, «Theses on the Philosophy of History», en Se- lected Writings, Volume 4: 1938-1940, Cambridge, MA, Harvard University Press, 2006. [Hay trad. cast.: «Tesis sobre el concepto de historia», en Iluminaciones, trad. Jesús Aguirre y Roberto Blatt, Barcelona, Taurus, 2018.] [19] PredPol, «5 Common Myths about Predictive Policing», . [20] G. O. Mohler, M. B. Short, P. J. Brantingham et al., «Self-exciting point process modeling of crime», JASA 106 (2011). [21] Daniel Jurafsky y James H. Martin, Speech and language processing: an introduction to natural language processing, computational linguistics, and speech recognition, 2.ª edición, Upper Saddle River, NJ, Prentice Hall, 2009. [22] Walter Benjamin, «The Task of the Translator», en Selected Wri- tings. Volume 1 1913-1926, Marcus Bullock y Michael W. Jennings, eds., Cambridge, MA, y Londres, Belknap Press, 1996. [Hay trad. cast.: La tarea del traductor, trad. Fernando García Mendívil, incluido en Angelus Novus, Barcelona, Edhasa, 1971.] [23] Murat Nemet-Nejat, «Translation: Contemplating Against the Grain», Cipher, 1999, . [24] Tim Adams, «Can Google break the computer language barrier?», Guardian, 19 de diciembre de 2010, . [25] Gideon Lewis-Kraus, «The Great A.I. Awakening», New York Times, 14 de diciembre de 2016, . [26] Cade Metz, «How Google’s AI viewed the move no human could understand», Wired, 14 de marzo de 2016, . [27] Iain M. Banks,Excession, Londres, Orbit Books, 1996. [Hay trad. cast.: Excesión, trad. Manuel Mata Álvarez-Santullano, Arganda del Rey, La Factoría de Ideas, 2012.] [28] Sanjeev Arora, Yuanzhi Li, Yingyu Liang et al.,«RAND-WALK: A Latent Variable Model Approach to Word Embeddings», ARXIV, 12 de febrero de 2015, . [29] Alec Radford, Luke Metz y Soumith Chintala, «Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks», 19 de noviembre de 2015, ARXIV, . [30] Robert Elliott Smith, «It’s Official: AIs are now re-writing his tory», entrada de blog, octubre de 2014, . [31] Stephen Levy, «Inside Deep Dreams: How Google Made Its Computers Go Crazy», Wired, 12 de noviembre de 2015, . [32] Liat Clark, «Google’s Artificial Brain Learns to Find Cat Videos», Wired, 26 de junio de 2012, . [33] Melvin Johnson, Mike Schuster, Quoc V. Le et al., «Google’s Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation», ARXIV, 14 de noviembre de 2016, . [34] Martín Abadi y David G. Andersen,«Learning to Protect Communications with Adversarial Neural Cryptography», ARXIV, 2016, . [35] Isaac Asimov, I, Robot, Nueva York, Doubleday, 1950. [Hay trad. cast.: Yo robot, trad. Manuel Bosch Barrett, Barcelona, Edhasa, 2004.] [36] Chris Baraniuk, «The cyborg chess players that can’t be beaten», BBC Future, 4 de diciembre de 2015,

.

7. Complicidad [1] Nick Hopkins y Sandra Laville, «London 2012: MI5 expects wave of terrorism warnings before Olympics», Guardian, junio de 2012, . [2] Jerome Taylor, «Drones to patrol the skies above Olympic Stadium», Independent, 25 de noviembre de 2011, . [3] «£13,000 Merseyside Police drone lost as it crashes into River Mersey»,Liverpool Echo, 31 de octubre de 2011, . [4] Solicitud de información según la legislación de transparencia, «Use of UAVs by the MPS», 19 de marzo de 2013, disponible en . [5] David Robarge, «The Glomar Explorer in Film and Print»,Stu- dies in Intelligence 56:1, marzo de 2012, pp. 28-29. [6] Citado en la opinión mayoritaria redactada por el juez de circuito J. Skelly Wright, Phillippi contra la CIA, Corte de Apelaciones de Estados Unidos para el Circuito del Distrito de Columbia, 1976. [7] O véase @glomarbot en Twitter, una búsqueda automática creada por el autor. [8] W. Diffie y M. Hellman, «New directions in cryptography», IEEE Transactions on Information Theory 22:6, 1976, pp. 644-654. [9] «GCHQ trio recognised for key to secure shopping online», BBC News, 5 de octubre de 2010, . [10] Dan Goodin, «How the NSA can break trillions of encrypted Web and VPN connections», Ars Technica, 15 de octubre de 2015, . [11] Tom Simonite, «NSA Says It “Must Act Now” Against the Quantum Computing Threat», Technology Review, 3 de febrero de 2016, . [12] Rebecca Boyle, «NASA Adopts Two Spare Spy Telescopes, Each Maybe More Powerful Than Hubble»,Popular Science,5 de junio de 2012, . [13] Daniel Patrick Moynihan, Secrecy: The American Experience, New Haven, CT, Yale University Press, 1998. [14] Zeke Miller, «JFK Files Release Is Trump’s Latest Clash With Spy Agencies», New York Times, 28 de octubre de 2017, . [15] Ian Cobain, The History Thieves, Londres, Portobello Books, 2016. [16] Ibid. [17] Ibid. [18] Ian Cobain y Richard Norton-Taylor, «Files on UK role in CIA rendition accidentally destroyed, says minister», Guardian, 9 de julio de 2014, . [19] «Snowden-Interview:Transcript», NDR, 26 de enero de 2014, . [20] Glyn Moody, «NSA spied on EU politicians and companies with help from German intelligence», Ars Technica, 24 de abril de 2014, . [21] «Optic Nerve: millions of Yahoo webcam images intercepted by GCHQ», Guardian, 28 de febrero de 2014, . [22] «NSA offers details on “LOVEINT”», Cnet, 27 de septiembre de 2013, . [23] Kaspersky Lab,The Regin Platform: Nation-State Ownage of GSM Ne- tworks, 24 de noviembre de 2014, disponible en . [24] Ryan Gallagher, «From Radio to p*rn, British Spies Track Web Users’ Online Identities», Intercept, 25 de septiembre de 2015, . [25] Andy Greenberg, «These Are the Emails Snowden Sent to First Introduce His Epic NSA Leaks», Wired, 13 de octubre de 2014, . [26]

James Risen y Eric Lichtblau, «Bush Lets U.S. Spy on Callers Without Courts», New York Times, 16 de diciembre de 2005, . [27] James Bamford, «The NSA Is Building the Country’s Biggest Spy Center (Watch What You Say)», Wired, 14 de marzo de 2012, . [28] «Wiretap Whistle-Blower’s Account», Wired, 6 de abril de 2006, . [29] «Obama admits intelligence failures over jet bomb plot», BBC News, 6 de enero de 2010, . [30] Bruce Crumley, «Flight 253:Too Much Intelligence to Blame?», Time, 7 de enero de 2010, . [31] Christopher Drew, «Military Is Awash in Data From Drones», New York Times, 20 de enero de 2010, . [32] «GCHQ mass spying will “cost lives in Britain”, warns ex-NSA tech chief»,The Register, 6 de enero de 2016, . [33] Ellen Nakashima, «NSA phone record collection does little to prevent terrorist-attacks», Washington Post, 12 de enero de 2014, . [34] New America Foundation, «Do NSA’s Bulk Surveillance Programs Stop Terrorists?», 13 de enero de 2014, . [35] Jennifer King, Deirdre Mulligan y Stephen Rafael, «CITRIS Report:The San Francisco Community Safety Program», Universidad de Californica en Berkeley, 17 de diciembre de 2008, disponible en . [36] K. Pease, «A Review Of Street Lighting Evaluations: Crime Reduction Effects», Crime Prevention Studies, 10, 1999. [37] Stephen Atkins, «The Influence Of Street Lighting On Crime And Fear Of Crime», Crime Prevention Unit Paper 28, Ministerio del Interior del Reino Unido, 1991, disponible en . [38] Julian Assange, «State and Terrorist Conspiracies», Cryptome, 10 de noviembre de 2006, . [39] Caroline Elkins, Imperial Reckoning:The Untold Story of Britain’s Gulag in Kenya, Nueva York, Henry Holt and Company, 2005. [40] 40. «Owners Watched Fort McMurray Home Burn to Ground Over iPhone», vídeo en YouTube, nombre de usuario: Storyful News, 6 de mayo de 2016.

8. Conspiración [1] Joseph Heller, Catch-22, Nueva York, Simon & Schuster, 1961. [Hay trad. cast.: Trampa 22, Barcelona, RBA, 2012.] [2] Véase James Bridle, «Planespotting», entrada de blog, 18 de diciembre de 2013, , y otros textos del autor. [3] Para un buen resumen del juicio, véase: Kevin Hall, The ABC Trial (2006), publicado originalmente en , archivado en . [4] Richard Aldrich, GCHQ:The Uncensored Story of Britain’s Most Secret Intelligence Agency, Nueva York, HarperPress, 2010. [5] Duncan Campbell, «GCHQ» (reseña de libro), New Statesman, 28 de junio de 2010, . [6] Chris Blackhurst, «Police robbed of millions in plane fraud», Independent, 19 de mayo de 1995, . [7] Fuerzas Aéreas de Estados Unidos, Weather as a Force Multiplier: Owning the Weather in 2025, 1996, . [8] «Take Ur Power Back!!: Vote to leave the EU», vídeo en YouTube, nombre de usuario: Flat Earth Addict, 21 de junio de 2016. [9] «Nigel Farage’s Brexit victory speech in full»,Daily Mirror, 24 de junio de 2016, . [10] Carey Dunne, «My month with chemtrails conspiracy theorists», Guardian, mayo de 2017,

. [11] Ibid. [12] Atlas Internacional de las Nubes, . [13] A. Bows, K. Anderson y P. Upham,Aviation and Climate Change: Lessons for European Policy, Nueva York, Routledge, 2009. [14] Nicola Stuber, Piers Forster, Gaby Rädel y Keith Shine, «The importance of the diurnal and annual cycle of air traffic for contrail radiative forcing», Nature 441 (junio de 2006). [15] Patrick Minnis et al., «Contrails, Cirrus Trends, and Climate», Journal of Climate 17 (2006), disponible en . [16] Esquilo, Prometeo encadenado, ca. 430 a. C., párrafo 477: «de las aves / de aduncas uñas el volar siniestro, / o a la diestra volar, y sus costumbres, / odios y amores». [17] Susan Schuppli, «Can the Sun Lie?», en Forensis: The Architecture of Public Truth, Forensic Architecture, Berlín, Sternberg Press, 2014, pp. 56-64. [18] Kevin van Paassen, «New documentary recounts bizarre climate changes seen by Inuit elders», Globe and Mail, 19 de octubre de 2010, . [19] SpaceWeather.com, Time Machine, condiciones para el 2 de julio de 2009. [20] Carol Ann Duffy, «Silver Lining», Sheer Poetry, 2010, disponible en . [21] Lord Byron, «Darkness», 1816. [Hay trad. cast.: «Oscuridad», en Una fiebre de ti mismo. Poesía del romanticismo inglés, trad. y selec. Gonzalo Torné, Barcelona, Penguin Clásicos, 2018.] [22] Richard Panek, «“The Scream”, East of Krakatoa», New York Times, 8 de febrero de 2004, . [23] Leo Hickman, «Iceland volcano gives warming world chance to debunk climate sceptic myths», Guardian, 21 de abril de 2010, . [24] David Adam, «Iceland volcano causes fall in carbon emissions as eruption grounds aircraft», Guardian, 19 de abril de 2010, . [25] «Do volcanoes emit more CO2 than humans?», Skeptical Science, . [26] J. Pongratz et al., «Coupled climate-carbon simulations indicate minor global effects of wars and epidemics on atmospheric CO2between AD 800 and 1850», Holocene 21:5 (2011). [27] Simon L. Lewis y Mark A. Maslin, «Defining the Anthropocene», Nature 519 (marzo de 2015), . [28] David J. Travis, Andrew M. Carleton y Ryan G. Lauritsen, «Climatology: Contrails reduce daily temperature range», Nature, 418, agosto de 2002, p. 601. [29] Douglas Hofstadter, «The Paranoid Style in American Politics», revista Harper’s, noviembre de 1964, . [30] Fredric Jameson, «Cognitive Mapping», en C. Nelson, L. Grossberg, eds., Marxism and the Interpretation of Culture, Champaign, IL, University of Illinois Press, 1990. [31] Hofstadter, «The Paranoid Style in American Politics». [32] Dylan Matthews, «Donald Trump has tweeted climate change skepticism 115 times. Here’s all of it», Vox, 1 de junio de 2017, . [33] Tim Murphy, «How Donald Trump Became Conspiracy Theorist in Chief», Mother Jones, noviembre/diciembre de 2016, . [34] The Alex Jones Show, 11 de agosto de 2016, disponible en . [35] Fuerzas Aéreas de Estados Unidos, «Weather as a Force Multiplier». [36] Mike Jay, The Influencing Machine: James Tilly Matthews and the Air Loom, Londres, Strange Attractor Press, 2012.

[37] Edmund Burke, Reflections on the Revolution in France, Londres, James Dodsley, 1790. [Hay trad. cast.: Reflexiones sobre la Revolu- ción en Francia, Madrid, Alianza editorial, 2016.] [38] V. Bell, C. Maiden, A. Muñoz-Solomando y V. Reddy, «“Mind control” experiences on the internet: implications for the psychiatric diagnosis of delusions»,Psychopathology 39:2,2006, pp.87-91. [39] Will Storr, «Morgellons: A hidden epidemic or mass hysteria?», Guardian, 7 de mayo de 2011, . [40] Jane O’Brien y Matt Danzico, «“Wi-fi refugees” shelter in West Virginia mountains», BBC, 13 de septiembre de 2011, . [41] «The Extinction of the Grayzone», Dabiq 7, 12 de febrero de 2015. [42] Murtaza Hussain, «Islamic State’s goal:“Eliminating the Grayzone” of coexistence between Muslims and the West», Intercept, 17 de noviembre de 2015, . [43] Hal Brands, «Paradoxes of the Gray Zone», Foreign Policy Research Institute, 5 de febrero de 2016, .

9. Concurrencia [1] Adrienne Lafrance, «The Algorithm That Makes Preschoolers Obsessed With YouTube», Atlantic, 25 de julio de 2017, . [2] Paul McCann, «To Teletubby or not to Teletubby», Independent, 12 de octubre de 1997, . [3] Christopher Mims, «Google: Psy’s “Gangnam Style” Has Earned $8 Million On YouTube Alone»,Business Insider, 23 de enero de 2013, . [4] «Top 500 Most Viewed YouTube Channels», SocialBlade, octubre de 2017, . [5] Ben Popper, «Youtube’s Biggest Star Is A 5-Year-Old That Makes Millions Opening Toys», Verge, 22 de diciembre de 2016, . [6] Blu Toys Club Surprise, canal de YouTube. [7] Play Go Toys, canal de YouTube. [8] Samanth Subramanian, «The Macedonian Teens Who Mastered Fake News», Wired, 15 de febrero de 2017, . [9] «Finger Family», vídeo en YouTube, nombre de usuario: Leehosok, 25 de mayo de 2007. [10] Bounce Patrol Kids, canal de YouTube. [11] Charleyy Hodson, «We Need To Talk About Why THIS Creepy AF Video Is Trending On YouTube», We The Unicorns, 19 de enero de 2017, . [12] En noviembre de 2017, después de que yo publicase un artículo sobre este asunto, Toy Freaks y muchos otros canales mencionados en el artículo fueron eliminados por YouTube. A pesar de ello, cuando escribo este texto, en la plataforma podían encontrarse fácilmente muchos vídeos y canales similares. Véase «Children’s YouTube is still churning out blood, suicide and cannibalism», Wired, 23 de marzo de 2018, . [13] Página en Facebook Freak Family, administrada por Nguyễn Hùng, . [14] Sapna Maheshwari, «On YouTube Kids, Startling Videos Slip Past Filters», New York Times, 4 de noviembre de 2017, . [15] David Remnick, «Obama Reckons with a Trump Presidency», New Yorker, 28 de noviembre de 2016, .

[16] Subramanian, «The Macedonian Teens Who Mastered Fake News». [17] Lalage Harris, «Letter from Veles», Calvert Journal, 2017, . [18] «The name game», Economist, 2 de abril de 2009, . [19] «Macedonia police examine death threats over name dispute», In- ternational Herald Tribune, 27 de marzo de 2008, disponible en . [20] Joanna Berendt, «Macedonia Government Is Blamed for Wiretapping Scandal», New York Times, 21 de junio de 2015, . [21] «Macedonia: Society on Tap», vídeo en YouTube, nombre de usuario: Privacy International, 29 de marzo de 2016. [22] Adrian Chen, «The Agency», New York Times, 2 de junio de 2015, . [23] Adrian Chen, «The Real Paranoia-Inducing Purpose of Russian Hacks», New Yorker, 27 de julio de 2016, . [24] YouGov Poll, «The Times Results EU Referendum 160613», 13-14 de junio de 2016, disponible en . [25] Andrew Griffin,«Brexit supporters urged to take their own pens to polling stations amid fears of MI5 conspiracy»,Independent, 23 de junio de 2016, . [26] Carole Cadwalladr, «The great British Brexit robbery: how our democracy was hijacked», Guardian, 7 de mayo de 2017, . [27] Carole Cadwalladr, «Trump, Assange, Bannon, Farage … bound together in an unholy alliance»,Guardian, 27 de octubre de 2017, . [28] Robert Booth, Matthew Weaver, Alex Hern y Shaun Walker, «Russia used hundreds of fake accounts to tweet about Brexit, data shows»,Guardian, 14 de noviembre de 2017, . [29] Marco T. Bastos y Dan Mercea, «The Brexit Botnet and UserGenerated Hyperpartisan News»,Social Science Computer Review, 10 de octubre de 2017. [30] Alessandro Bessi y Emilio Ferrara, «Social bots distort the 2016 U.S. Presidential election online discussion»,First Monday 21:11, noviembre de 2016, . [31] Annalee Newitz, «The Fembots of Ashley Madison», Gizmodo, 27 de agosto de 2015, .

10. Cirros y cúmulos [1] Matthew Holehouse, «Bilderberg Group 2013: guest list and agenda», Telegraph, 6 de junio de 2013, . [2] Eric Schmidt, «Action This Day – Eric Schmidt, Zeitgeist Europe 2013», vídeo en YouTube, nombre de usuario: ZeitgeistMinds, 20 de mayo de 2013. [3] Ibid. [4] William Ferroggiaro, «The U.S. and the Genocide in Rwanda 1994», The National Security Archive, 24 de marzo de 2004, . [5] Russell Smith, «The impact of hate media in Rwanda», BBC, 3 de diciembre de 2003, . [6] Keith Harmon Snow, «Pentagon Satellite Photos: New Revelations Concerning “The Rwandan Genocide”», Global Research, 11 de abril de 2012, . [7] Keith Harmon Snow, «Pentagon Produces Satellite Photos Of 1994 Rwanda Genocide», Conscious Being, abril de 2012, . [8] Florence Hartmann y Ed Vulliamy, «How Britain and the US decided to abandon Srebrenica to its fate», Observer, 4 de julio de 2015, .

[9] «Srebrenica:The Days of Slaughter», New York Times, 29 de octubre de 1995, . [10] Ishaan Tharoor, «The Destruction of a Nation: Syria’s War Revealed in Satellite Imagery»,Time, 15 de marzo de 2013, . [11] Samantha Power, «Bystanders to Genocide»,Atlantic, septiembre de 2001, . [12] Ofeiba Quist-Arcton, «Text Messages Used to InciteViolence in Kenya», NPR, 20 de febrero de 2008, . [13] Jan H. Pierskalla y Florian M. Hollenbach, «Technology and Collective Action: The Effect of Cell Phone Coverage on Political Violence in Africa», American Political Science Review, 107:2, mayo de 2013. [14] Michael Palmer, «Data is the New Oil», entrada de blog, ANA, noviembre de 2006, . [15] «The world’s most valuable resource is no longer oil, but data», Economist, 6 de mayo de 2017, . [16] David Reid,«Mastercard’s boss just told a Saudi audience that “data is the new oil”», CNBC, 24 de octubre de 2017, . [17] Stephen Kerr, Kevin Brennan, debate entre ambos parlamentarios sobre «Abandonar la UE: Protección de datos», 12 de octubre de 2017, transcripción. [18] Palmer, «Data is the New Oil». [19] Para detalles sobre la clasificación imperial y la obligación de cambiar de nombre, véase James C. Scott, Seeing Like a State, New Haven, CT, Yale University Press, 1998. [20] Arundhati Roy, «The End of Imagination»,Guardian, 1 de agosto de 1998, . [21] Laboratorio Nacional de Sandía, «Expert Judgment on Markers to Deter Inadvertent Human Intrusion into the Waste Isolation Pilot Plant», informe SAND92-1382/UC-721, página F-49, disponible en . [22] Und in alle Ewigkeit: Kommunikation über 10.000 Jahre:Wie sagen Wir unsern Kindeskindern wo der Atommüll liegt? (Zeitschrift für Semiotik 6:3), Berlín, Deutschen Gesellschaft für Semiotik, 1984. [23] Michael Madsen, director,Into Eternity, Films Transit International, 2010. [24] Véase el proyecto Rocky Flats Nuclear Guardianship, «Nuclear Guardianship Ethic statement», 1990, rev. 2011, .

Índice La nueva edad oscura

1. Caída en el abismo 2. Computación 3. Clima 4. Cálculo 5. Complejidad 6. Cognición 7. Complicidad 8. Conspiración 9. Concurrencia 10. Cirros y cúmulos Agradecimientos

Sobre este libro Sobre James Bridle Créditos Notas

La Nueva Edad Oscura James Bridle - PDFCOFFEE.COM (2024)
Top Articles
Latest Posts
Article information

Author: Saturnina Altenwerth DVM

Last Updated:

Views: 5910

Rating: 4.3 / 5 (44 voted)

Reviews: 91% of readers found this page helpful

Author information

Name: Saturnina Altenwerth DVM

Birthday: 1992-08-21

Address: Apt. 237 662 Haag Mills, East Verenaport, MO 57071-5493

Phone: +331850833384

Job: District Real-Estate Architect

Hobby: Skateboarding, Taxidermy, Air sports, Painting, Knife making, Letterboxing, Inline skating

Introduction: My name is Saturnina Altenwerth DVM, I am a witty, perfect, combative, beautiful, determined, fancy, determined person who loves writing and wants to share my knowledge and understanding with you.