Computación y planetariedad
En este ensayo de Benjamin Bratton, que forma parte del libro colectivo ¿Hay algo que no esté en crisis? (Siglo XXI-UTDT), compilado por Carlos Huffmann y Tomás Borovinsky, se explora cómo la computación a escala planetaria no solo transforma radicalmente la política, la economía y la cultura, sino que también redefine nuestra comprensión del mundo y de nosotros mismos. Más que un conjunto de herramientas, la computación se revela como una tecnología que permite concebir la planetariedad como condición de existencia. Desde el mecanismo de Anticitera hasta las supercomputadoras que modelan el clima, Bratton plantea que la filosofía ya no puede situarse por encima de la tecnología, sino que debe pensarse desde y a través de ella.
por Benjamin Bratton
La filosofía –y, en términos más generales, el proyecto de desarrollar conceptos adecuados sobre cómo funciona el mundo y, por lo tanto, sobre cómo funciona el pensamiento acerca del mundo– siempre ha avanzado de la mano de lo que la tecnología revela y hace.
Hoy, la tecnología –sobre todo, la computación que opera a escala planetaria– ha dejado atrás a la teoría. Nuestra respuesta consiste, demasiado a menudo, en la imposición de ideas –presuntamente aceptables y correctas– acerca de la ética, la escala, la ciudadanía y el significado sobre una situación que no solo exige un marco de pensamiento diferente, sino que ya lo está creando por sí misma.
Recién mencioné “lo que la tecnología revela y hace”. ¿Por qué́ esta división entre una cosa y otra? En vez de tomar como punto de partida una escena en la que primero se forman las ideas y luego se emplean herramientas para operar sobre ellas, advertimos que son distintos tipos de herramientas los que hacen posibles las ideas. No se trata solo de que las herramientas invitan a adoptar diferentes temperamentos acerca del mundo, sino de que literalmente hacen que el mundo sea concebible de maneras que de otro modo serían imposibles.
Podríamos decir que algunas clases de tecnologías tienen el mayor impacto social por lo que hacen y por lo que permiten hacer a la hora de transformar artificialmente el mundo. Otras tecnologías, sin embargo, adquieren su mayor impacto social por lo que revelan acerca de cómo funciona el mundo. Los telescopios y los microscopios son buenos ejemplos de ese tipo de tecnologías. Sí, permiten la percepción de lo muy grande y lo muy pequeño, pero lo más importante es que posibilitan cambios copernicanos en nuestra autocomprensión y llevan a que consideremos nuestro propio ser como parte de un conjunto de condiciones de orden planetario. Gracias a estos cambios, es posible orientarse no solo respecto de dónde se encuentra el planeta, sino también respecto de dónde –y cuándo– nos encontramos nosotros y respecto de qué somos nosotros. Tomadas en su conjunto, a estas se las puede denominar tecnologías epistemológicas.
Es indudable que la computación está transformando artificialmente el mundo, como una suerte de megaestructura que surgió de manera inesperada o no intencionada y que modifica la política, la economía y las culturas a su imagen y semejanza.

Es indudable que la computación está transformando artificialmente el mundo, como una suerte de megaestructura que surgió de manera inesperada o no intencionada y que modifica la política, la economía y las culturas a su imagen y semejanza. Sin embargo, la computación también es una tecnología epistemológica que ha reorientado, reorienta y reorientará el rumbo de las que podrían considerarse condiciones planetarias viables.
En vez de limitarse a aplicar la filosofía al tópico de la computación, Antikythera es un programa de investigación que partirá desde el otro lado y producirá pensamiento teórico y práctico –especulativo– a partir de su encuentro con la computación. Estos son los principios que lo guían. En primer lugar, sostenemos que los humanos descubrimos la computación en la misma medida en que la inventamos. Más allá de las formas de computación que se pueden percibir en los sistemas naturales, la computación es un tipo de ordenamiento del mundo, un fundamento de lo que la cultura compleja llegó a ser.
Pero el verdadero interés del programa Antikythera no radica tanto en el cálculo, la formalización, la cuantificación y la interoperabilidad en sí mismas, sino en cómo la computación nos provee de orientación, navegación, cosmología: en esencia, de planetariedad.
La inspiración para dar nombre al programa fue el mecanismo de Anticitera, descubierto en 1901 entre los restos de un naufragio frente a la isla griega de ese nombre y datado en el año 200 a.C. Esta computadora primigenia no era una simple calculadora, sino una máquina astronómica que trazaba y predecía los movimientos de las estrellas y los planetas, señalaba acontecimientos anuales y ofrecía orientación sobre la superficie del globo a los integrantes de una cultura naval. No solo calculaba variables entrelazadas, sino que orientaba el pensamiento, de un modo comprensible, en relación con los desafíos de la astronomía, y le permitía actuar, de modo prescriptivo, en relación con las circunstancias así reveladas.
En el contexto de nuestra iniciativa, el nombre Antikythera significa tecnología computacional que pone de manifiesto la condición planetaria de la inteligencia y la acelera. Esto no se refiere a un mecanismo determinado, sino a una genealogía de mecanismos, algunos de los cuales incluso habitamos en este momento.
Por ejemplo, en 2019 el telescopio Event Horizon convirtió la superficie del globo en un medio de detección y logró captar, como información digital, la luz emitida desde el centro de la galaxia M87 hace cincuenta millones de años. A continuación, esos datos se representaron bajo la forma de un fantasmal disco naranja que nosotros, primates con visión binocular, reconocemos como una “imagen”. Al contemplar esa imagen, también contemplamos nuestra posición dentro de un universo que, aunque finalmente excede nuestra comprensión inmediata, no excede (del todo) nuestras tecnologías de representación. Del mismo modo, el telescopio Webb hizo que nuestras propias mentes se curvaran al representar la luz curvándose en torno del cúmulo gravitatorio de una galaxia.
De este modo, se repite el ciclo del posicionamiento planetario: se detecta la condición planetaria, se la cuantifica, se la modela, se la simula y se la convierte así en una cosmología segura, aunque también a veces abrumadora. Y más cerca de casa: el mismo principio de detección, modelización, simulación y planetariedad revela el verdadero alcance del clima artificial que la sociedad industrial ha configurado por accidente a lo largo de siglos de terraformación del planeta.
Sin satélites, sensores terrestres y oceánicos, muestras testigo de hielo ni –lo que es más importante– simulaciones de los climas pasados, presentes y futuros hechas con supercomputadoras, no serían concebibles la noción de cambio climático y, por lo tanto, de Antropoceno y sus variantes.
La pregunta, entonces, acerca de cómo la computación a escala planetaria puede contribuir a los cambios conceptuales y a las intervenciones aplicadas respecto –y en contra– del cambio climático debe plantearse partiendo del reconocimiento de que la rica imagen que tenemos de este último –y, en muchos sentidos, la propia idea de “cambio climático”– es un logro epistemológico conseguido por la computación a escala planetaria. Esta es, de hecho, una de las formas en que la computación planetaria existe, y excede a las redes sociales. Pero además –y esto también es más importante–, esta es, según Antikythera, una de las cosas para las que la computación planetaria sirve.
El programa plantea estas preguntas y ofrece estas hipótesis con franqueza y, esperamos, con precisión. En vez de la crítica acostumbrada de los expertos televisivos o las petulantes “desmentidas” académicas acerca de la tecnología, el programa Antikythera insiste en que están en juego cuestiones más profundas, más apremiantes y más importantes que las que aparecen en el clickbait de alta gama.
El propósito de este programa es concebir el stack computacional planetario tal y como es, pero también los stacks que están por venir. Este proyecto es tecnológico y, por lo tanto, político, cultural, económico y ecológico.
El programa se ocupa de cinco temas de investigación, de los que hablaré con más detalle para darles una idea acerca de cómo dividimos este gran espacio de problemas en ámbitos más manejables. Los temas son: la inteligencia sintética (las consecuencias a largo plazo de la inteligencia de las máquinas), las simulaciones (como tecnología epistemológica que a la vez permite y evita el acceso a lo real), los stacks hemisféricos
(la geopolítica multipolar de la computación planetaria), la sapiencia planetaria (la emergencia evolutiva de la inteligencia natural/artificial y la forma en que puede permitir la concepción y la composición de una planetariedad viable) y la catalaxia sintética (la organización continua de la economía computacional artificial).
La historia de la inteligencia artificial y la historia de la filosofía de la inteligencia artificial están entrelazadas, de Leibniz a Turing, de Dreyfus a Deep Mind. Los experimentos mentales dan impulso a tecnologías que a su vez dan impulso a un cambio en la comprensión de lo que la propia inteligencia es y podría llegar a ser, y así sucesivamente.
La inteligencia sintética
La historia de la inteligencia artificial y la historia de la filosofía de la inteligencia artificial están entrelazadas, de Leibniz a Turing, de Dreyfus a Deep Mind. Los experimentos mentales dan impulso a tecnologías que a su vez dan impulso a un cambio en la comprensión de lo que la propia inteligencia es y podría llegar a ser, y así sucesivamente.
La investigación de Antikythera sobre el pasado, el presente y el futuro de la inteligencia sintética se centrará inicialmente en el procesamiento del lenguaje natural y la historia global de la inteligencia artificial, más allá de las narrativas occidentales habituales. Por ejemplo, el sentido de “inteligencia artificial” de la China de la era Deng es el de una especie de movilización industrial de masas; el de Europa del Este incluye lo que Stanislaw Lem llamó tecnología “existencial”; la era soviética le daba a la inteligencia artificial el sentido de la racionalización del gobierno. Todos estos sentidos divergen de los modelos individualizados y antropomórficos occidentales, que dominan los debates contemporáneos sobre la llamada “ética de la inteligencia artificial”. El futuro planetario de la inteligencia artificial no solo expandirá, sino que alterará nuestras nociones de “artificialidad” e “inteligencia”; se nutrirá de todo ese espectro de sentidos, pero también, inevitablemente, los dejará atrás.
Lo que Turing propuso en su famoso test como condición suficiente de la inteligencia se ha transformado, en cambio, en décadas de exigencias antropomorfizantes –y errores–. Idealizar lo que parece más “humano” en la inteligencia artificial, ya sea bajo la forma del elogio o de la crítica, equivale a constreñir por propia voluntad nuestra comprensión de las modalidades existentes de inteligencia de las máquinas tal y como son.
Esto incluye al lenguaje. Las inquietantemente convincentes capacidades de predicción/producción de textos de los large language models (LLM) se han utilizado para escribir novelas y guiones, elaborar imágenes, producir películas, componer canciones y sinfonías, crear voces. Incluso son usadas por algunos investigadores en biotecnología para predecir secuencias de genes que sirvan para el descubrimiento de nuevos fármacos. Al menos en este caso, el lenguaje de la genética es realmente un lenguaje. Los LLM también constituyen la base de modelos generalistas capaces de mezclar entradas y salidas de una modalidad a otra (por ejemplo, interpretar lo que dice una imagen para instruir a un brazo robótico sobre cómo moverse, etc.). Esos modelos fundacionales pueden convertirse en un nuevo tipo de servicio público en torno del cual se organicen distintos sectores industriales.
¿Dónde queda parada entonces la filosofía especulativa? De verdad, no creo que la sociedad disponga de los términos críticos y conceptuales para abordar de manera adecuada, sin titubeos, esta realidad. Cuando la realidad sobrepasa los límites del vocabulario disponible, ese es el comienzo, no el final, de la conversación. En vez de los debates repetidos una y otra vez (groundhog-day debates) sobre si las máquinas tienen alma, o si pueden pensar como la gente se imagina que piensan, la cambiante relación, con estructura de doble hélice, entre el campo de los desarrolladores de la inteligencia artificial y el campo de la filosofía de la inteligencia artificial necesitan hacer menos proyecciones de sus propias máximas y, en cambio, construir un vocabulario de análisis, crítica y especulación más matizado, basado en la extrañeza que nos produce lo que tenemos ante nosotros.
Las simulaciones recursivas
Vivimos en una era de simulaciones muy politizadas, para bien y para mal. El programa Antikythera considerará las simulaciones computacionales como formas experienciales, epistemológicas, científicas y políticas, y desarrollará un marco para comprenderlas en sus interrelaciones.
Esto abarcaría, en principio, desde lo microscópico hasta lo macroscópico, desde el papel de la simulación dentro de las columnas corticales del cerebro cuando modelan los mundos que perciben y elaboran predicciones respecto de ellos, hasta la cognición social de la virtualidad, pasando por la lógica que rige las simulaciones preventivas, predictivas y en tiempo real de sistemas complejos –como los sistemas climáticos–, y las transiciones entre estos órdenes.
Más concretamente, esta área de investigación explorará el pasado, el presente y el futuro de las tecnologías sensoriales (lo visual, sonido, tacto, etc.) en máquinas, las experiencias sintéticas (incluida la realidad virtual/realidad aumentada), la modelización de escenarios estratégicos (juegos, modelos que simulan las interacciones entre personas y objetos), las simulaciones activas de arquitecturas complejas (en las que el modelo se comporta exactamente como lo haría el objeto real) y las simulaciones computacionales de sistemas naturales que permiten la investigación y la previsión científica (ya mencionamos los modelos climáticos y la simulación celular y genómica). Todas estas cuestiones plantean preguntas fundamentales acerca de la relación entre la percepción y la sensibilidad, entre el conocimiento del mundo y la creación de mundos.
Y estas cuestiones se relacionan además de distintas maneras con lo real. Mientras que la simulación científica propone una correspondencia significativa con el mundo natural y proporciona acceso a verdades básicas que de otro modo no serían concebibles, la realidad virtual y la realidad aumentada producen experiencias corporizadas de entornos simulados que se alejan deliberadamente de esas verdades básicas. A pesar de utilizar a menudo el mismo software y el mismo hardware, estas dos formas de simulación tienen implicaciones epistemológicas inversas: una hace perceptible una realidad que de otro modo sería inaccesible, mientras que la otra tuerce la realidad para adaptarla a lo que uno quiere ver. O se hace aflorar una realidad más profunda o se totaliza artificialmente un mundo de apariencias. En el medio es donde vivimos.
En términos más generales, la política de la simulación se basa en la recursividad. Las simulaciones recursivas son aquellas que no solo representan el mundo, sino que también actúan sobre lo que simulan, y completan así un ciclo cibernético de percepción y control. Esto tiene implicaciones diversas. El exceso de confianza en la correlación de datos superficiales puede parecer una predicción, pero en realidad se trata de un eco, que anuncia el pasado y no el futuro. En cambio, la política del clima se basa no solo en la comprensión de lo que está implicado por las simulaciones de los sistemas terrestres pasados y futuros, sino sobre todo en el potencial incremento de la capacidad política de acción de estas simulaciones para administrar el presente y evitar el futuro que ellas mismas predicen.
Una teoría filosófica práctica de las simulaciones abarcaría este espectro que va de la realidad artificial al acceso a la realidad, y demostraría que, a pesar de las diferencias en los propósitos iniciales, el modo en que se componen estas simulaciones –simulaciones que organizan mundos diferentes– presenta problemas compartidos, en todos los ámbitos.
En mi libro The Stack (Interferencias) introduje el modelo de computación a escala planetaria y argumenté que, en vez de una máquina gigante indiferenciada, esta megaestructura accidental está constituida por capas modulares, no muy diferente de un stack de arquitectura de red.
Stacks hemisféricos
En mi libro The Stack (Interferencias) introduje el modelo de computación a escala planetaria y argumenté que, en vez de una máquina gigante indiferenciada, esta megaestructura accidental está constituida por capas modulares, no muy diferente de un stack de arquitectura de red. En mi modelo, esas capas son la tierra, la nube, la ciudad, la dirección, la interfaz y el usuario.
El stack es una arquitectura no solo en sentido técnico sino también institucional. Entonces, ¿por dónde pasa la gobernanza? No pasa por el simple hecho de formular o impugnar diversas políticas acerca de la computación. La gobernanza es inmanente a la propia tecnología, ya que le confiere una nueva estructura a la agencia política y a la geografía, a su imagen y semejanza.
En el libro, yo sostenía que, al igual que las plataformas en la nube estaban asumiendo funciones tradicionalmente desempeñadas por los Estados modernos, aunque cruzando fronteras nacionales y océanos, también a la inversa los Estados estaban evolucionando hacia plataformas en la nube. Este último argumento resultaba menos familiar en 2016 que hoy.
En la actualidad, muchas dinámicas geopolíticas no solo tienen que ver con la informática, sino que giran en torno de ella: hardware, software, redes, culturas de interpretación de las formas digitales. El ascenso de la fabricación de chips de alto nivel al lugar más elevado en los planes estratégicos –en los Estados Unidos, en Taiwán– es ejemplar, y se corresponde con el hecho de que se retiraran los equipos chinos de las redes occidentales y se removieran las plataformas occidentales de los teléfonos móviles chinos. Pero la situación va más arriba en la estructura. Las sanciones financieras a países involucrados en conflictos militares, el uso de redes sociales para hacer espionaje en algunos gobiernos caracterizados como populistas, la reformulación del “ciudadano” como “un usuario privado con datos personales”: todo esto nos muestra que se están produciendo cambios más profundos.
El modelo stack, por un lado, se ha fortalecido como arquitectura fundacional de la computación y la gobernanza a escala planetaria, y, por el otro, ha atravesado un proceso de mitosis y se ha dividido en múltiples versiones hemisféricas. Hay un stack occidental GAFA (Google, Apple, Face- book, Amazon) que se extiende desde California hasta Ucrania y Oceanía; otro chino, que se extiende desde Pekín hasta África; uno indio basado en la identificación digital de los ciudadanos y los pagos digitales; uno de la Unión Europea basado en la protección de datos de los ciudadanos; uno ruso, que da forma a una realidad simulada, cada vez más insular; un stack del Golfo Pérsico, y numerosos stacks africanos; todos ellos estructuralmente isomórficos y a la vez sociopolíticamente segmentados entre sí.
Los datos, y lo que es más importante, el derecho a modelarlos, son ahora sustancia de la soberanía, algo sobre lo que y desde lo que se pretende la propia soberanía. Me atrevería a decir que el cambio hacia una geopolítica más multipolar, menos caracterizada por Estados discretos que por hemisferios de influencia, y la multipolarización de la computación a escala planetaria en “stacks hemisféricos” no solo se reflejan una en otra, sino que son la misma cosa.
Para el programa Antikythera, las investigaciones en torno a la geopolítica están en una relación inextricable con estas infraestructuras técnicas porque lo son en la realidad. Los escenarios que surgirán de esta organización de los sistemas estatales en la forma de plataformas transnacionales están tan repletos de peligros como de posibilidades. El determinismo cultural que anima actualmente muchos de los programas de filosofía de la tecnología tendrá que dar paso a algo más sólido e imaginativo.
Así como la evolución de la inteligencia planetaria se cimentó en siglos de destrucción en cascada y sin dirección, su futuro está ahora existencialmente entrelazado con un camino radicalmente diferente en lo que concierne a la composición, la previsión y la organización.
La sapiencia planetaria
Esta área de investigación, la sapiencia planetaria, gira en torno al papel de la computación en el descubrimiento de lo planetario como condición, y la emergencia de la inteligencia planetaria en diversas formas (y, por desgracia, la prevención de la inteligencia planetaria).
Es decir, ¿inteligencia de las máquinas para qué? Hay, sin duda, un valor intrínseco en aprender a hacer que los objetos procesen la información de maneras antaño reservadas solo a los primates. Pero en la conjunción de los humanos y la inteligencia de las máquinas, por ejemplo, ¿cuáles son los caminos que permitirían, y no destruirían, la perspectiva de una planetariedad viable, un futuro digno de ese nombre? ¿Qué formas de sapiencia son condición para ese logro?
El programa Antikythera reunirá dos acepciones del término “planetariedad”: una científico-astronómica y otra normativo-filosófica. Un sentido de “planetario” es la entidad geofísica de la que emerge todo pensamiento animal; el otro se refiere a las figuras de composición deliberada y deliberativa inspiradas en el “pensamiento” que se comprende a sí mismo en tales términos, y estableciendo sus implicaciones.
La relación crítica depende de las posiciones de la inteligencia desde las que puede tener lugar la intervención compositiva, y de cómo esas posiciones comprenden la situación de su propia agencia. Esto es mucho más difícil de lo que algunos nos quieren hacer creer. Es contraer una deuda casi impagable.
Es decir, la paradoja decisiva de la sapiencia planetaria es el doble reconocimiento de que, por un lado, la propia existencia de la inteligencia compleja es extremadamente rara y frágil, vulnerable a numerosas amenazas de extinción a corto y largo plazo, y de que, por el otro lado, las consecuencias ecológicas de su propia emergencia histórica han sido un motor principal de las condiciones que establecen esa misma precariedad.
Dicho de otro modo, este momento histórico parece interminable, pero puede ser fugaz. Lo define un desafío paradójico. ¿Cómo puede la emergencia en curso de la inteligencia planetaria comprender su propia evolución y el valor cósmico de la conciencia y, al mismo tiempo, reconocerse en el reflejo de la violencia de la que surgió y contra la cual lucha por sobrevivir?
Y dicho de manera directa, ¿qué futuro haría que este pasado mereciera la pena? Así como la evolución de la inteligencia planetaria se cimentó en siglos de destrucción en cascada y sin dirección, su futuro está ahora existencialmente entrelazado con un camino radicalmente diferente en lo que concierne a la composición, la previsión y la organización.
Tomarse esto en serio exige una clase diferente de filosofía especulativa y práctica, y su correspondiente computación.
Traducción del inglés de Eugenio Monjeau
Para la versión completa del ensayo de Benjamin Bratton véase ¿Hay algo que no esté en crisis? Arte y pensamiento en la era del cambio acelerado y sin fin (Siglo XXI-UTDT) compilado por Carlos Huffmann y Tomás Borovinsky.