Ana Laura Vallejos
1. Introducción
En los últimos instantes del siglo XVIII, el pintor español Francisco de Goya realizó una serie de grabados que tituló Los caprichos. En estas obras desfilan, con tono satírico, representaciones críticas que Goya asignaba a la sociedad y a la cultura de su tiempo. El célebre grabado número 43 titulado El sueño de la razón produce monstruos es, sin dudas, de los más recordados. En él aparece el artista autorretratado, tumbado sobre una mesa, sumido en un sueño que permite la aparición de figuras monstruosas que se asoman a sus espaldas. Bajo el tablón que sostiene a la silueta humana, puede leerse: “El sueño de la razón produce monstruos”.
Existen muchas interpretaciones de la obra, pero podríamos distinguir dos vías muy claras para interpretar aquella sentencia. En primer lugar, la palabra “sueño” en español posee dos acepciones plausibles. La primera refiere a la acción de dormir, por lo que “el sueño de la razón” podría hacer referencia al adormecimiento de la facultad humana. En el contexto histórico de esta obra, coincidente con el desarrollo del movimiento de la Ilustración y su influencia en los intelectuales españoles, Goya podría estar haciendo referencia al sueño como un momento de oscuridad ante la ausencia de la luz de la razón. Aquella oscuridad permitiría el surgimiento de figuras monstruosas, quimeras y fantasías de la irracionalidad que se liberarían en la noche donde la razón se ausenta. Esta interpretación nos conduce a una valoración positiva de la razón, donde dicha facultad aporta claridad y juicio al ser humano, mientras que su falta genera momentos de confusión y tenebrosidad que nos vuelve seres vulnerables.
Sin embargo, por otro lado, en lengua española, el término “sueño” puede referir al acto de soñar, por lo que “el sueño de la razón” podría señalar a las fantasías que la facultad humana produce. Esta otra interpretación mostraría una señal de cautela respecto de la razón humana, la cual puede producir monstruos en un desmedido acto de fantasía. En otras palabras, la sentencia nos estaría advirtiendo que la razón también puede naufragar. Podríamos pensar que, para evitar dicho naufragio, debemos conocer a nuestra propia razón, gesto crítico kantiano de moderación donde, a través del conocimiento de nuestra facultad, podemos reconocer límites claros para evitar lanzarnos al abismo: estipular las limitaciones de la razón permitiría eludir la fantasía de la omnipotencia.
Esta obra y sus dos interpretaciones son aplicables a nuestro presente. Nos encontramos en una encrucijada respecto del status de la razón humana debido a los dilemas que producen los progresos científico-tecnológicos. En las últimas décadas, se han producido transformaciones en las tecnologías y en las ciencias de la computación de tal magnitud que habrían sido inimaginables incluso para los pioneros que fundaron esta disciplina a mediados del siglo XX. Esto puede verificarse con facilidad si se considera el arco que va desde el desarrollo de las primeras computadoras, la creación de internet y el surgimiento entre 1940 y 1950 de la tecnología que denominamos “Inteligencia Artificial” (Abeliuk & Gutiérrez, 2021, p. 16), hasta llegar a nuestra actualidad del siglo XXI, en la que vivimos en un paisaje que otrora hubiera resultado distópico, donde podemos ver personas caminando con robots en la vía pública en China, tomando un taxi sin conductor en EE. UU., o utilizando programas de Inteligencia Artificial a diario en sus dispositivos en todo el mundo. Todo este acelerado desarrollo tecnológico nos convoca a reflexionar sobre la condición humana: su potencia cognitiva, su futuro económico-productivo e incluso su estatuto ontológico. El advenimiento de la Inteligencia Artificial nos coloca frente a la siguiente pregunta: ¿puede la razón humana ser superada por su creación?
Valdrá establecer una analogía entre nuestro presente y la crítica de Goya a sus contemporáneos ilustrados: el sueño de la Inteligencia Artificial produce monstruos. Y esto, en un doble sentido.
En primer lugar, situados en la primera acepción del término “sueño”, es posible pensar que la Inteligencia Artificial podría adormecer a la razón humana. ¿En qué sentido? Transformando nuestras capacidades cognitivas y nuestros hábitos de pensamiento y aprendizaje, alienando nuestras formas de vincularnos interpersonalmente y deshumanizando los modos de producción económica. Anestesiar la racionalidad humana es probablemente una de las mayores sospechas atribuidas a las nuevas tecnologías, una sospecha que atenta contra lo más propio del hombre según la perspectiva humanista de la modernidad: la razón, aquello que nos hace propiamente humanos, aquello que nos diferenciaría del resto de los seres que habitan este planeta.
Tomando la segunda acepción del término “sueño”, podríamos pensar que, respecto de la Inteligencia Artificial, el ser humano sería capaz de crear fantasías desmedidas, expectativas sobre sus posibilidades e impacto real en la vida de los seres humanos. Muchos auguran que esta nueva herramienta representa un hito en la historia del desarrollo técnico humano, pero ¿son las nuevas tecnologías vinculadas a la Inteligencia Artificial realmente revolucionarias, en el sentido de poder transformar positivamente la dinámica de la vida humana? ¿O habremos generado un sueño fantasioso respecto de nuestro futuro cercano?
Nos proponemos explorar ambas posibilidades, problematizar el impacto de las nuevas tecnologías, especialmente de lo que llamamos “Inteligencia Artificial”, en relación con sus dos variantes, como sueño que adormece la razón humana y como sueño quimérico respecto de la potencia de dicha tecnología. Habiendo transcurrido un cuarto del siglo XXI, pareciera ser que nos encontramos en una situación análoga a la de quienes vivieron la llegada de las primeras máquinas en la Revolución Industrial del siglo XVIII, momentos en que se produce un salto cualitativo y cuantitativo en los avances técnico-científicos. Hace siglos que el pensamiento filosófico trata de responder a los problemas que se desprenden de la revolución tecnológica; corrientes como el posestructuralismo, la deconstrucción, el poshumanismo o el transhumanismo esbozan diferentes maneras de pensar y responder a dicha cuestión. En los pasajes siguientes, se buscará establecer un diálogo con estas corrientes a partir de las preguntas que suscita el desarrollo y la masificación de la tecnología que llamamos “Inteligencia Artificial”. En primer lugar, analizaremos el papel de la tecnología en la supervivencia y evolución de nuestra especie, la posibilidad de pensar en la Inteligencia Artificial como un estadio más en la expansión técnica del ser humano. Lo cual nos conduce a indagar en las posturas filosóficas poshumanistas que problematizan el dualismo ontológico que separa lo humano de lo tecnológico, lo natural de lo artificial, entre otros pares conceptuales. Por otro lado, surgirán preguntas sobre la responsabilidad ética de estos avances técnicos, sobre aquello que podemos esperar en una era donde los sistemas computacionales se presentan como una herramienta potencialmente capaz de equiparar o incluso superar las capacidades cognoscitivas humanas. Y finalmente, desde la cuestión ética, nos veremos reconducidos a la dimensión política: es menester pensar en el impacto político de la Inteligencia Artificial, ya que las tecnologías computacionales se han convertido en una herramienta de gestión y control social a escala global. La Inteligencia Artificial puede ser entendida como un dispositivo de gobierno de los seres vivos, de los sujetos y de las poblaciones. En este último punto, nos servirán de punto de partida las teorizaciones de Michel Foucault sobre la biopolítica y la gubernamentalidad, conceptos que algunos autores contemporáneos actualizan para postular el despliegue de una gobernabilidad algorítmica, una gestión y producción de la vida a través de las nuevas tecnologías digitales.

2. El papel de la tecnología en la evolución de la especie humana
En las últimas décadas, la paleontología y la antropología nos han brindado evidencia científica de la evolución de los seres humanos en el planeta Tierra. Según estas evidencias, los homininos –una especie de primates bípedos– habitamos este planeta hace aproximadamente 7 millones de años, y en particular el género Homo con certeza vivió hace aproximadamente 2.8 millones de años en la actual África. Nuestro linaje más antiguo fue descubierto en 1962 por los científicos Louis y Mary Leakey, quienes, tras analizar los restos fósiles, situaron a nuestro antepasado como un primate bípedo que vivió en el Pleistoceno, al que bautizaron Homo habilis. Como bien indica su nombre, este homínido primitivo tenía ciertas características distintivas. Su capacidad craneal era significativamente más grande que la de sus antecesores. Este crecimiento se asocia a un mayor desarrollo cerebral, lo que le permitió crear un lenguaje articulado y avanzar en la generación de lo que hoy denominamos “cultura” (Pérez, 2012, p. 27). El Homo habilis elaboró y utilizó herramientas de piedra y controló el fuego. Estas características son consideradas por algunos especialistas como la primera industria humana de la prehistoria, el primer vestigio de tecnología, es decir, la capacidad de transformar la naturaleza para obtener un beneficio o una utilidad práctica. Al respecto de la noción de tecnología, coexisten diferentes concepciones del término, pudiendo situar el concepto desde una perspectiva instrumentalista o incluso antropológica (García, M. et al., 2004, p. 3). A continuación, problematizamos algunos de estos aspectos.
Más de dos millones de años nos separan de nuestros antepasados Homo habilis, y hoy, transcurrida una cuarta parte del siglo XXI, nos encontramos en una encrucijada respecto del status de la tecnología y su impacto en nuestras formas de vida. Las evidencias del pasado demuestran que el ser humano y la tecnología son inseparables; nuestro desarrollo como especie estuvo siempre acompañado de tecnología. Los resultados de investigaciones antropológicas arrojan evidencia sobre una conexión directa entre el aumento craneal y cerebral, el desarrollo de la cultura y la fabricación de herramientas en nuestros antepasados primitivos. Existe un condicionamiento recíproco entre la evolución del género Homo y el desarrollo de tecnología; el uso de herramientas permitió y facilitó mecanismos de subsistencia, y esta a su vez posibilitó al ser humano arcaico acrecentar su capacidad cognitiva y, por consiguiente, aumentar progresivamente su conocimiento y habilidad técnica (Cela-Conde & Ayala, 2018, p. 19).
Pero he aquí una necesaria reconsideración analítica de este término: ¿a qué llamamos “tecnología”? Los orígenes del término se encuentran en el griego antiguo y se remontan al concepto de tékhné (τέχνη), definida como arte u oficio, es decir, la capacidad de transformar la naturaleza para producir algo útil. Para Aristóteles, la tékhné es un hábito racional emparentado con la episteme (ἐπιστήμη) y el nous (νοῦς), el rasgo distintivo del arte técnico es precisamente la productividad con vistas a un fin; en este sentido, la transformación de la naturaleza con fines productivos es algo propiamente humano (Aristóteles, 2010, p. 4).
Cuando nos referimos a la transformación técnica de la naturaleza por intervención del humano, suele operar una concepción dualista que contrapone lo humano a la naturaleza. Las divisiones ontológicas clásicas entre naturaleza y cultura, animal y humano, animal y máquina, lo innato y lo adquirido, entre otros pares conceptuales, nos han llevado a una aparente paradoja respecto de la tecnología (Haraway, 2020, p. 11).
Sostener, eventualmente, que los llamados “avances tecnológicos” están transformando la noción del sujeto humano, ¿no supone la afirmación de un ideal antropológico, es decir, un concepto estático de lo que el hombre debe ser? ¿Estamos creyendo que existe una esencia definida del hombre como instancia pura a la que la tecnología podría potencialmente alterar? O, por el contrario, ¿pensamos que la tecnología es un elemento inherente a la condición humana y a su desarrollo cognitivo y, por lo tanto, el desarrollo científico-tecnológico es correlativo a la evolución de la especie?
En este último caso, podríamos vernos en la necesidad de aclarar qué entendemos por “evolución”. Las teorías evolucionistas previas a Darwin, como las de J. B. Lamarck y R. Chambers, habían considerado la evolución como un proceso dirigido hacia un fin determinado, como si hubiera una meta preexistente a la que la evolución tiende progresivamente. La direccionalidad de la evolución en estos autores tiene ciertos vestigios mitológicos y religiosos, donde la especie humana es un estado del desarrollo evolucionario, la idea del hombre estuvo prefijada por la naturaleza, expresión de la voluntad divina (Kuhn, 2004, p. 264). En cambio, en el Origen de las especies, Darwin no reconoce ninguna meta establecida por la naturaleza o por la mente divina. La selección natural es un proceso sin una dirección previa, donde los organismos vivos se adaptan a su medioambiente transformándose en formas de vida más complejas y gradualmente mejor adaptadas; la evolución desde esta perspectiva no es estrictamente teleológica.[1]
Partiendo de las bases de la teoría darwiniana de la evolución, podríamos sostener que el desarrollo tecnológico es una herramienta de adaptación de la especie humana. La tecnología nos ha permitido, a través de miles de años, crear instrumentos que nos son útiles en la lucha por la existencia, desde la utilización del fuego y la fundición de los metales hasta las grandes revoluciones industriales de la modernidad. Y es probable que la revolución computacional del siglo XX pueda pensarse en la misma clave. En los estudios antropológicos, se suelen distinguir dos niveles de evolución: por un lado, la evolución biológica y, por otro lado, la evolución cultural. Si bien ambas dimensiones están estrechamente relacionadas, la primera refleja la dimensión orgánica y las variaciones genéticas que se producen a lo largo de millones de años gracias al proceso de adaptabilidad y supervivencia de todos los seres vivos. Mientras que, por otro lado, la evolución cultural es característica del ser humano y hace referencia a la producción de niveles cada vez más complejos de cultura, donde la tecnología es uno de sus elementos más importantes. Además, mientras que la evolución biológica es un proceso lento y en muchos casos aleatorio, en cambio, la evolución cultural puede ser extraordinariamente veloz; la tecnología, tan solo en los últimos cien años, ha transformado de manera radical las formas de vida humana (Landínez Torres, 2010, p. 76).
3. Hibridaciones y límites del sujeto: la Inteligencia Artificial y la posibilidad de un pensamiento no humano
En 1985, la filósofa Donna Haraway publicó el Manifiesto ciborg (Haraway, 2020), libro que es considerado actualmente un texto fundacional de los estudios poshumanos. En esta obra, la autora explora los límites entre lo humano y lo tecnológico, sirviéndose del concepto de ciborg, un organismo híbrido entre lo orgánico y lo maquínico/cibernético, un humano mejorado a partir de la tecnología. Curiosamente, la historia occidental estuvo sostenida en un suelo binario que separaba tajantemente lo humano de lo maquínico. Sin embargo, Haraway propone un diagnóstico de la humanidad donde esas fronteras ontológicas se han comenzado a desdibujar. La identidad ciborg está basada en una hibridación entre lo humano y lo tecnológico, difuminando los límites en los conceptos de lo natural y lo artificial. Haciendo base en estos aportes, la corriente del poshumanismo rechaza las dicotomías tradicionales del pensamiento occidental: orgánico/tecnológico, humano/animal, naturaleza/cultura, mente/cuerpo, sujeto/objeto, vida/muerte, material/inmaterial (Torrano & Balcarce, 2023, p. 3).
Para los desarrollos poshumanistas, estas diferenciaciones binarias han quedado obsoletas a la hora de pensar nuestro presente, además de operar con una lógica de jerarquización donde uno de los términos de cada uno de esos pares siempre quedó relegado y en posición de inferioridad respecto del otro. El pensamiento filosófico occidental ha sido desde la Grecia antigua profundamente antropocéntrico, es decir, ha colocado al sujeto humano en una posición de superioridad respecto del resto de los seres vivos, considerando a lo humano como la cúspide de las formas de vida que habitan este planeta. El ser humano fue concebido durante siglos como el único animal dotado de la facultad de la razón, de una mente, de un espíritu y, consecuentemente, se construyó a partir de esa premisa de superioridad su relación con todo lo viviente.
La división entre lo humano y su alteridad responde a esta necesidad de marcar una frontera ontológica que permita la jerarquización entre los seres. En este sentido, características como el lenguaje, la cultura, la conciencia, la autonomía constituyen los propios del hombre, aquello de lo que el otro no humano queda excluido (Derrida, 2008). La Inteligencia Artificial ha revivido un debate en torno a los propios del hombre, ya que por primera vez nos preguntamos si existe capacidad de lenguaje, de aprendizaje y de autonomía en un ente que no es un humano, sino que es una creación tecnológica de él. La hibridación viene a poner en jaque la idea del hombre y a cuestionar los límites del sujeto humano, en cuanto que ser autónomo, superior e independiente.
Los orígenes de la Inteligencia Artificial están vinculados a una pregunta central en esta dirección: ¿es el ser humano el único capaz de pensar? En 1956 los matemáticos e investigadores en informática John McCarthy y Marvin Minsky brindaron una conferencia en Dartmouth donde convocaron a los mejores investigadores del campo de la computación a desarrollar modelos informáticos que homologuen procesos cognitivos humanos como el razonamiento, esto es, el poder de almacenar, procesar y relacionar datos, estableciendo conexiones lógicas entre los elementos. Esta fue la definición de inteligencia que tomaron como referencia para fundar el primer Laboratorio de Inteligencia Artificial en el Instituto Tecnológico de Massachusetts; por ello McCarthy y Minsky son considerados padres fundadores de este campo de estudio. Para los investigadores de este proyecto, el pensamiento es una forma de computación no exclusiva de los seres biológicos (Abeliuk & Gutiérrez, 2021, p. 15). Partiendo de esta premisa, se propusieron desarrollar modelos informáticos dotados de inteligencia, programas capaces de tomar decisiones, resolver problemas, en definitiva, capaces de aprender. Sin embargo, podría existir una diferencia importante entre el pensamiento humano y el computacional: si bien los investigadores pueden crear algoritmos y programas que intenten imitar las redes neuronales humanas, muchos continúan afirmando que la Inteligencia Artificial es un desarrollo de lenguaje y pensamiento automatizado y dependiente, mientras que el ser humano es un ser de pensamiento autónomo. Los creadores de la Inteligencia Artificial buscaron, en sus inicios, imitar procesos cognitivos humanos. La tendencia era resueltamente antropomórfica, y sus objetivos pasaban por dotar a los procesadores informáticos de características y potencialidades humanas (Sadin, 2020, p. 18).
Actualmente, no solo nos preguntamos si es posible imitar las capacidades intelectuales humanas, sino también si acaso es factible, e incluso deseable, que estas nuevas tecnologías sean más potentes que nosotros mismos. Se denominó Inteligencia Artificial “simbólica” a los primeros modelos de procesamiento de datos con la capacidad de resolver problemas. Se dotó a los sistemas de un lenguaje estructurado en código, y se los programó con algoritmos para encontrar resoluciones a través de la lógica. De esta manera, en una competencia que comenzó en 1996, la computadora Deep Blue venció, tras algunos intentos, en 1997 al campeón mundial de ajedrez Garry Kasparov en un encuentro histórico, donde quedó en evidencia una nueva potencialidad de las tecnologías informáticas: ser aún más eficaces que la cognición humana. Un sistema computacional puede almacenar mayor cantidad de datos, establecer conexiones de manera más rápida y sacar conclusiones precisas a través de la lógica con la que fue programada. Subyace, entonces, la pregunta de si esto la convierte en una alternativa más eficiente en ciertas tareas que actualmente realizan los seres humanos.
Los algoritmos de búsqueda heurística que posee la Inteligencia Artificial podrían ser claves en el perfeccionamiento de resolución de problemas en diversos dominios del conocimiento humano: tareas como el diagnóstico médico, la resolución de teoremas matemáticos, investigaciones científicas cuantitativas, la determinación en fallos judiciales, entre otros campos. La lista de posibilidades es perturbadoramente inagotable. Este escenario nos sitúa frente a una serie de interrogantes respecto de la Inteligencia Artificial, su presente y su futuro inmediato. Para tratar de clasificarlos, podríamos dividirlos en cuatro categorías: interrogantes epistémicos, éticos, políticos y, finalmente, ontológicos/antropológicos. Podríamos sintetizar nuestras inquietudes en los siguientes interrogantes de inspiración kantiana: ¿qué puede la Inteligencia Artificial saber?; ¿qué debemos hacer con la Inteligencia Artificial?; y ¿qué podemos de ella esperar? Es interesante notar, sin embargo, que, en el primer caso, la Inteligencia Artificial es el “sujeto” de enunciación de la pregunta, mientras que, en las demás preguntas, nos remitimos a un sujeto humano. La problemática que nos convoca aquí no es un terreno exento de contradicciones y ambigüedades; muchos autores se preguntan si es válido considerar a la Inteligencia Artificial como “sujeto” de conocimiento o de deber ético. Al respecto, más allá de poder preguntarnos qué puede la Inteligencia Artificial saber, no concebimos aquí a la Inteligencia Artificial como sujeto cognoscente ni como sujeto ético, ya que no consideramos que sea un sujeto propiamente dicho. Uno de los grandes desafíos de nuestro presente es, precisamente, pensar en la posibilidad de un conocimiento sin mediación subjetiva directa o, en otras palabras, con una mediación subjetiva indirecta. Los conocimientos que puede construir la Inteligencia Artificial son productos secundarios de la programación humana; los códigos lógicos, matemáticos y las fuentes de las que se nutren estos softwares son íntegramente sesgados y dependientes del conocimiento humano que los ha creado. Solo en este sentido específico, es válido preguntarse qué puede la Inteligencia Artificial saber.
Es importante recordar que las tres preguntas que guiaron la obra filosófica de Kant son reconducidas a una cuarta pregunta antropológica: ¿qué es el hombre? En este caso podríamos reformularla y preguntarnos qué es, en definitiva, la Inteligencia Artificial. Y cómo podría transformar aquello que nosotros somos. El clima intelectual del filósofo de Königsberg fue precisamente la Ilustración, momento en que el sueño de la razón prometía a la humanidad progreso indefinido. La obra kantiana constituyó un gesto crítico frente a este sueño, de mesura frente a las promesas de la razón. De manera análoga, un análisis crítico de la Inteligencia Artificial nos permitiría evitar fantasías y disipar la niebla de monstruosidades respecto de las posibilidades de esta nueva forma de tecnología. Tratar de situar las potencialidades de la Inteligencia Artificial en el campo del conocimiento, de entender su funcionamiento y sus límites, nos conduce desde el terreno gnoseológico hacia esta pregunta ética: ¿qué debe hacer el ser humano con la Inteligencia Artificial? Y, finalmente, hacia la pregunta antropológica de cómo puede la Inteligencia Artificial transformar al sujeto humano tal como lo conocemos hasta hoy.
4. El monstruo de la Inteligencia Artificial como hipertrofia de una gestión calculadora de la vida
A partir de los acelerados cambios que ha atravesado la humanidad en el último siglo, la comunidad científica discute la posibilidad de una transición de época, una transición tanto geológica como cultural. El progreso técnico-científico no solo ha transformado la forma de vida humana, sino que tiene un impacto considerable a nivel planetario. En el año 2000, los científicos Eugene Stoermer y Paul J. Crutzen propusieron el término “Antropoceno” para referirse a esta nueva era geológica (Crutzen & Stoermer, 2000, p. 17). La era de los seres humanos habría comenzado hacia finales del siglo XVIII dejando atrás al Holoceno,[2] precisamente, fueron las grandes transformaciones técnicas las que marcaron una nueva era para nuestra especie, su relación consigo misma y con el resto del planeta. En el campo de los estudios sociales y culturales, también se ha explorado esta categoría de Antropoceno, y se han propuesto varias declinaciones del término, tales como “capitaloceno” o “tecnoceno” (Costa, 2021), conceptos que ponen el foco de análisis en diferentes elementos de la civilización humana, tales como el capitalismo o la influencia de la tecnología. Como hemos discutido, el desarrollo de nuevas tecnologías no tiene una aplicación ética fijada de antemano; los nuevos inventos pueden ser potencialmente beneficiosos para nuestra especie o, por el contrario, resultar herramientas que perpetúen sistemas de control y estructuras de desigualdad social. El caso de las tecnologías computacionales y, en especial, de la Inteligencia Artificial resulta paradigmático en este sentido, ya que el aumento de su presencia e influencia en la vida humana es exponencial y acelerado, a tal punto que su estudio se convirtió en una problemática indispensable de la dimensión ético-política de nuestro siglo.
Tomando como punto de partida los conceptos desarrollados por Michel Foucault en su período genealógico en la década de 1970, podríamos plantear que las tecnologías digitales y computacionales, entre ellas la Inteligencia Artificial, operan como un dispositivo disciplinario, es decir, como un conjunto de técnicas y procedimientos con los cuales se busca producir cuerpos políticamente dóciles y económicamente rentables (Castro, 2023, p. 140). El desarrollo y la acumulación de nuevos conocimientos técnicos hacen patente el nudo entre los ejes de poder-saber-subjetividad que se exploran a lo largo de la obra foucaultiana. La Inteligencia Artificial es una de las manifestaciones más radicales en nuestra actualidad del cruce entre saber, poder y sujeto.
Desde hace algunas décadas, el campo de las ciencias humanas explora exhaustivamente las modalidades e implicancias de los conceptos foucaultianos de la biopolítica, el biopoder y la gubernamentalidad. Ahora todos estos conceptos encuentran un renovado interés a partir de su incorporación a la analítica de los sistemas computacionales; hace algunos años, diversos autores han comenzado a explorar el concepto de “gubernamentalidad algorítmica” (Rouvroy & Berns, 2018). La analítica de los mecanismos de poder que Foucault despliega en la década de 1970 introdujo una nueva concepción del poder soberano, ya no centrado en la potestad de dar muerte como lo concebía la mirada clásica, sino un poder cuyo objetivo es administrar los cuerpos y desplegar una gestión calculadora de la vida (Foucault, 2008, p. 132). En otras palabras, en su época genealógica, Foucault nos invita a pensar el poder ya no en relación con la represión o la prohibición, sino como una cuestión de soberanía, es decir, comprendiendo no solo su faz negativa, sino, y más eficazmente, su faz positiva. El poder produce, moldea, sugiere: ¿de qué manera las tecnologías digitales producen nuestras subjetividades, a nivel individual y a nivel poblacional? Trataremos de comprenderlo no como un efecto negativo del poder, sino como el ejercicio de una soberanía digital y algorítmica. Una forma de gobierno de los vivos, y de conducción de conductas que dirige nuestras acciones y nuestro campo de posibilidades sociales y políticas.
A partir del siglo XVIII, las sociedades occidentales atravesaron grandes transformaciones en torno al funcionamiento del poder: el desarrollo de un nuevo modelo económico como el capitalismo, junto con la nueva conformación de los Estados-nación, dio lugar a nuevas instituciones, prácticas y técnicas para administrar el cuerpo social. Ahora bien, aunque Foucault teorizó sobre estas grandes transformaciones de la modernidad, no pudo, sin embargo, presenciar la llegada masiva de las tecnologías digitales de nuestro tiempo: no presenció la aparición de las computadoras domésticas, ni la creación de la World Wide Web, entre otros. Ha sido una tarea llevada a cabo en las últimas décadas por pensadores contemporáneos intentar incorporar el legado foucaultiano para problematizar la posibilidad de una biopolítica y una gubernamentalidad atravesadas por estas nuevas capacidades técnicas. La vida humana progresivamente se ha digitalizado, ha sido envuelta en una red cada vez más densa y vasta de circuitos de información digital (Rodríguez, 2018, p. 21), por ello nos vemos en la necesidad de repensar las categorías de normalización, control y disciplina a través de las tecnologías, entre ellas, la Inteligencia Artificial.
En el curso en el Collège de France de 1977-1978 titulado Seguridad, territorio, población, Foucault define a la gubernamentalidad como “el conjunto constituido por las instituciones, los procedimientos, análisis y reflexiones, los cálculos y las tácticas que permiten ejercer esta forma bien específica, aunque compleja, de poder, que tiene como objetivo principal la población” (Foucault, 2006, p. 136). Actualmente, los procedimientos, los cálculos y las tácticas que constituyen la gubernamentalidad del siglo XXI son ejercidos desde las herramientas informáticas y los procesos algorítmicos. La fórmula del biopoder precisa ser repensada, actualizada desde nuestro presente, donde las tecnologías computacionales no solo facilitan la instrumentalización de la conducción de conductas, sino que se han convertido en el vector principal de una gestión de la vida biológica, social y cultural de las poblaciones a nivel mundial. A este fenómeno se lo denomina “gubernamentalidad algorítmica”.
Esta gestión de la vida no solo concibe al sujeto en su materialidad corporal, como lo afirmaba Foucault al referirse al “umbral de la modernidad biológica”, momento en el cual la vida biológica de la especie se convierte en el centro de las estrategias políticas (Foucault, 2008, p. 135), sino que ahora también concibe a los sujetos como usuarios, como sujeto-perfil, usuarios de un gran sistema de datos. El ciudadano del siglo XXI está integrado en una vasta red digital que incluye las dimensiones afectivas, productivas, civiles y políticas de su existencia. Quizás esa disposición política de nuestro tiempo quedó más visiblemente expuesta en la pandemia de COVID, donde la gestión de la crisis sanitaria estuvo atravesada por las tecnologías de la información, el sueño político de la peste del que hablaba Foucault a mediados de 1970: la crisis pandémica no implicó el caos y la anarquía, sino, por el contrario, un control minucioso, una vigilancia capilar de las poblaciones a través de registros informáticos y aplicaciones digitales gestionadas por los Estados.
El despliegue de la gubernamentalidad moderna implicó a partir del siglo XVIII la emergencia de saberes que fueron la condición de posibilidad de nuevas técnicas de control; saberes como la estadística o la medicina del Estado fueron el correlato necesario de los dispositivos disciplinarios (Foucault, 1999, p. 368). Actualmente, el campo de la estadística se encuentra atravesado por un circuito de información digital a escala global que conocemos como big data, el cual podemos definir como una práctica que permite la recopilación, el almacenamiento, la gestión, el análisis y la visualización, potencialmente en tiempo real, de amplios conjuntos de datos con características heterogéneas (Observatorio Nacional Big Data, 2021). La gubernamentalidad algorítmica tiene como sustrato básico estos grandes volúmenes de datos, que son el archivo digital al que a su vez los sujetos-usuarios alimentamos constantemente, a conciencia o no, de manera voluntaria o bien involuntaria. Estos conjuntos de datos ya no pueden ser gestionados exclusivamente por los seres humanos sin la ayuda de la tecnología, sino que requieren de un procesamiento a través de programas de software, como los que brinda la Inteligencia Artificial. Este nuevo sistema de estadísticas posee la novedad de actualizarse de manera constante y automática a través de la web, siendo un instrumento de incalculable utilidad para el sector público y el sector privado. Las aplicaciones digitales que ya conocemos hace algunos años, como las que administran el consumo, los mapas satelitales, las operaciones bancarias, el sistema de salud, las redes sociales y los trámites civiles, entre una interminable lista de opciones, ahora serán complementadas con los algoritmos de Inteligencia Artificial. Se trata de un proceso de trazabilidad digital de nuestros movimientos como sujetos-ciudadanos que parece ser inevitable: vivimos en la era de un panóptico digital, de un soberano algorítmico, que se presenta como técnico, objetivo, y sin un aparente “rostro humano”. Se estima que la ciudadanía digital aumentará progresivamente y sin pausa en las próximas décadas. Por ejemplo, en pocos años el dinero disminuirá considerablemente en los formatos físicos como lo conocimos hasta ahora, el capital cambiará de estatus para ser un elemento más de la trazabilidad digital, pero una vez comenzado este proceso, el control y la vigilancia conocerán terrenos hasta ahora no conquistados. El propio sistema capitalista emprenderá una nueva etapa de su metamorfosis. Esto mismo es lo que sugiere la idea de tecnoceno antes mencionada, la gestión calculadora de la vida atravesada por tecnologías complejas de alto impacto, un escenario harto distinto al de tan solo cien años atrás (Costa, 2021, p. 14).
Asistimos a la emergencia de un nuevo régimen de verdad numérica, que se encarna en una multitud de nuevos sistemas automáticos de modelización de lo “social”, a distancia y en tiempo real, que a su vez transforman las normatividades inmanentes a la sociedad (Rouvroy & Berns, 2018, p. 124). Quizás sea saludable discutir el estatus de esta nueva forma de soberanía ya que no estamos seguros de que este proceso de gobernabilidad digital sea necesariamente un correlato de mejores condiciones de vida para los sujetos-usuarios. Aquello que se nos presenta como progreso podría ser una tecnificación digital de la política, a la que quedamos necesariamente expuestos si no queremos ser condenados al aislamiento, ya que actualmente salir por completo de estos sistemas digitales constituye una forma de ostracismo moderno. El contrato social del siglo XXI implica ser un ciudadano digital, un elemento más del engranaje de datos y algoritmos.
Retomamos nuestros interrogantes iniciales: ¿qué debemos esperar de esta nueva forma de gubernamentalidad que se ejerce a través de tecnologías digitales como la Inteligencia Artificial?; ¿cómo pueden transformar aquello que somos? El planteo ético-político nos conduce a la posibilidad de pensar colectivamente formas de resistencia; no somos espectadores pasivos de este proceso de transformación social, por el contrario, somos el sustrato más elemental para el funcionamiento de este sistema. La gubernamentalidad digital puede estar al servicio de una racionalidad liberal de gobierno que cuantifique nuestra existencia y opere de manera poco democrática con los sujetos-usuarios; a fin de cuentas, sí existen rostros humanos detrás de estas tecnologías digitales, son los rostros que operan silenciosamente la gestión calculadora de la vida de las poblaciones a nivel global.
5. Consideraciones finales
A lo largo de este trabajo, hemos intentado problematizar ciertos ejes temáticos en relación con la emergencia y la masificación de las tecnologías computacionales de alta complejidad como la Inteligencia Artificial. Sin embargo, esta empresa posee cierto obstáculo desde su inicio: la sincronía de nuestra mirada y el fenómeno en cuestión. Algunos historiadores afirman que, para observar ciertos procesos con más claridad, se necesita tiempo y distancia de los hechos. Las reflexiones aquí expuestas tratan de sortear esa condición de sincronía asumiendo que los análisis que llevamos a cabo aquí están inmersos en una historia en pleno desarrollo. Somos contemporáneos de la llegada de las computadoras, de la web, de los dispositivos móviles y de los medios masivos de comunicación digital, elementos que no formaban parte de la vida humana hace medio siglo y hoy son elementos constitutivos de nuestra subjetividad, tanto en la intimidad del individuo como en el tejido social.
Hemos tomado como punto de partida un símil entre nuestro presente en el siglo XXI y la situación de los hombres y mujeres de la Ilustración. El sueño de la razón produce monstruos, escribía Goya en el siglo XVIII. Esta sentencia tenía, como dijimos, dos interpretaciones posibles. Por un lado, el sueño como adormecimiento de la razón humana podría dar lugar a la aparición de figuras monstruosas, a peligros que emergen en ausencia de la luz de la racionalidad. Por otro lado, el término “sueño” podía aludir al acto de soñar y, por ende, el sueño podría indicar la emergencia de fantasías desmedidas producidas por la razón humana, falacias en cuanto a su potencialidad y sus límites.
Puede establecerse un cierto paralelismo entre la primera interpretación y nuestra actualidad: la llegada de la Inteligencia Artificial sería el monstruo que el sueño de la razón ha producido. Este monstruo pondría en jaque la idea del sujeto humano, su autonomía y su potencia. E invitaría a replantear junto con la corriente del poshumanismo qué características pueden considerarse como exclusivas del género humano. ¿Es el ser humano el único capaz de pensar? ¿Los atributos del pensamiento, la inteligencia o la cognición son exclusivos del hombre? La llegada de la Inteligencia Artificial obliga a revisar la definición misma de pensamiento, ya que los programas de este tipo de software pueden almacenar, procesar datos y buscar soluciones a través de la lógica con la que son programados.
El primer monstruo que surge del sueño de la Inteligencia Artificial es precisamente el del adormecimiento de la razón humana, si esta herramienta ha llegado para reemplazar total o parcialmente el trabajo cognitivo de los seres humanos. ¿Puede nuestra razón atrofiarse? Esta dimensión de la Inteligencia Artificial refleja, por tanto, un interrogante epistémico. Existen muchas evidencias que muestran que en diversas operaciones intelectuales la Inteligencia Artificial es más eficiente que la cognición humana, fundamentalmente en el procesamiento de grandes volúmenes de datos. La llegada de esta tecnología, ¿amenaza con opacar la inteligencia “orgánica” humana? Su alcance masivo y su uso en distintas esferas de la vida humana, ¿podrían atrofiar nuestra propia capacidad de pensar a causa del abandono del propio ejercicio de la razón? En el primer apartado de este trabajo, discutimos esa posibilidad junto con una revisión de la definición misma de tecnología. La transformación técnica de la naturaleza con vistas a un fin útil parece haber sido una característica que acompañó el desarrollo de nuestra especie desde hace millones de años, desde la primera herramienta de piedra o el dominio del fuego.
En este punto se hace presente la segunda acepción de la sentencia “el sueño de la Inteligencia Artificial produce monstruos”. La segunda acepción del término “sueño” en español expresa la capacidad de soñar; el desarrollo tecnológico y la emergencia de la Inteligencia Artificial pueden derivar en un sueño fantasioso, en una quimera de progreso, en una promesa desmedida, al igual que la promesa de la razón y el progreso ilimitado de los ilustrados.
Debemos ser cautelosos, la tecnología parece ser un rasgo evolutivo que hasta el siglo XX tenía como objetivo la supervivencia de la especie, pero tanto la evolución como la tecnología no poseen en sí mismas un carácter moral y, por tanto, pueden ser utilizadas para mejorar las condiciones de vida de la especie tanto como para la destrucción y perpetuación de la violencia y la desigualdad. A partir del desarrollo del programa nuclear a mediados del siglo pasado, quedó en evidencia un nuevo estadio en la historia de la tecnología: el ser humano alcanzó un nivel de conocimientos técnico-científicos que le permitiría autodestruirse y dañar de manera irreparable el planeta Tierra. Esto nos convoca a reflexionar sobre la dimensión ética del supuesto progreso humano. La revolución computacional que dio lugar a la Inteligencia Artificial nos conduce a la segunda pregunta: ¿qué debemos hacer con la Inteligencia Artificial? Como dijimos, como herramienta tecnológica en cuanto tal, la Inteligencia Artificial no posee una finalidad prefijada y, por tanto, su impacto dependerá del uso que le otorguemos. Las consecuencias de su empleo a nivel global aún permanecen desconocidas para nosotros; en una década o más, la Inteligencia Artificial podría transformar parcialmente el aparato productivo, el desenlace puede ser una mejoría de las condiciones laborales o una deshumanización que perpetúe desigualdades y violencias. El resultado de esta revolución en marcha es una decisión ética y política. Y eso nos conduce al siguiente monstruo que emergió en este escrito, el monstruo de la Inteligencia Artificial como tecnología de control. El último apartado de este trabajo exploró sintéticamente las reapropiaciones de la analítica foucaultiana del poder en el siglo XXI, de qué manera conceptos como la biopolítica o la gubernamentalidad se posicionan como teorizaciones apropiadas para problematizar el presente de los sistemas informacionales y las tecnologías como la Inteligencia Artificial. En este sentido, muchos autores han explorado el concepto de “gubernamentalidad algorítmica”, una actualización de la gestión calculadora de la vida de las poblaciones, ahora posibilitada por los flujos de datos y algoritmos computacionales. Vivimos en la era de la gubernamentalidad algorítmica, donde la vigilancia se ejerce a través de una vasta red de datos que nos definen como ciudadanos-sujetos-usuarios. El panoptismo es redefinido y encuentra una actualización a través de las tecnologías digitales, el control ha podido superar las barreras espacio-temporales que lo limitaban, se ha independizado en cierta manera de la materialidad; las teorías del poder precisan ser pensadas a partir de esta nueva disposición en la que estamos inmersos.
Finalmente, quisiera concluir este artículo destacando dos reflexiones que surgen de estas páginas: en primer lugar, que detrás de las tecnologías digitales y computacionales como la Inteligencia Artificial se esconde un rostro humano, la gubernamentalidad algorítmica opera muchas veces desde la despersonalización de quienes efectivamente toman las decisiones sociales, políticas y económicas que rigen el mundo, es parte de la estrategia difuminar su identidad y sus intereses. Un valioso ejercicio de crítica consiste en recordar que la soberanía, más allá de lo digital, sigue estando ejercida por seres humanos.
Y, en segundo lugar, respecto de la inteligencia, la ciencia ha demostrado que no es un atributo exclusivamente humano, está presente en la naturaleza, como se muestra en la homeostasis ecológica, en los animales no humanos, en la materia que nos compone y rodea, la inteligencia viva también es equilibrio y capacidad de adaptación (Odum, 2006). En este sentido, a los seres humanos nos queda mucho aprendizaje en pos de alcanzar no solo una inteligencia en términos cuantitativos, utilitarios o mecanicistas, sino una inteligencia ético-política, un sentido de responsabilidad con nosotros mismos, con todo lo vivo y con la Tierra. La Inteligencia Artificial puede ser potencialmente mejor que el ser humano en procesos cognitivos mecánicos o matemáticos, pero la clave de su futuro radica en la utilización ética que de ella se haga.
Bibliografía citada
Abeliuk, A. & Gutiérrez, C. (2021). Historia y evolución de la Inteligencia Artificial. En Revista Bits de Ciencia, (21), pp. 14-21.
Aristóteles (2010). Ética nicomaquea. Trad. de Eduardo Sinnott. Buenos Aires: Colihue.
Bardají, T. (2018). Subdivisión formal del Holoceno. Cuaternario y geomorfología, pp. 7-8.
Botticelli, S. (2024). Los algoritmos y sus “sugerencias verdaderas”. En Botticelli, S., Cleves, F. R. M. & Saab, A. Exploraciones posthumanas. Del algoritmo al robot plantoide. Buenos Aires: Ed. Teseo, pp. 19-42.
Cela-Conde, C. J. & Ayala, F. (2018). Las herramientas nos hicieron humanos. El papel de la tecnología en la evolución biológica y social del género Homo. En Revista Sociología y Tecnociencia, 8(2), pp. 1-25.
Costa, F. (2021). Tecnoceno. Algoritmos, biohackers y nuevas formas de vida. Buenos Aires: Taurus.
Crutzen, P. J. & Stoermer, E. F. (2000). The Anthropocene. En IGBP Newsletter: Boletín de Programa Internacional Geósfera-Biósfera, (41), pp. 17-18.
Derrida, J. (2008). El animal que luego estoy si(gui)endo. Madrid: Ed. Trotta.
Foucault, M. (1999). Nacimiento de la medicina social. En Estrategias de poder. Obras esenciales. Vol. II. Buenos Aires: Paidós (pp. 363-384).
Foucault, M. (2006). Seguridad, territorio, población. Curso en el Collège de France 1977-1978. Buenos Aires: Fondo de Cultura Económica.
Foucault, M. (2008). Historia de la sexualidad I: La voluntad de saber. Buenos Aires: Siglo XXI Editores.
García, M. et al. (2004). Las concepciones de la tecnología. En Revista Ciencia, Tecnología y Sustentabilidad, pp. 1-16.
Haraway, D. (2004). Manifesto for Cyborgs: Science, Technology, and Socialist Feminism in the 1980s. The Haraway Reader. Nueva York: Routledge.
Henríquez Herrera, I. R. (2023). La relación persona humana y técnica: ensayo de antropología jurídica. En Revista chilena de derecho y tecnología, 12, pp. 1-18.
Kuhn, T. (2004). La estructura de las revoluciones científicas. Ciudad de México: Fondo de Cultura Económica.
Landínez Torres, Á. Y. (2010). Evolución biológica y cultural: una mirada a la tecnología. En Cultura Científica, (8), pp. 75-82.
Observatorio Nacional Big Data (2021). Big Data: Análisis comparado sobre estándares regulatorios a nivel regional. Buenos Aires: Secretaría de Innovación Pública.
Odum, E. P. (2006). Fundamentos de ecología. Ciudad de México: Cengage Editores.
Pérez, S. (2012). Origen y evolución de los humanos: La historia de la divergencia de los primates. En Ciencia Hoy, 22, pp. 22-30.
Puche-Riart, O., Ortiz-Menéndez, J. E. & Mazadiego-Martínez, L. F. (2017). The Third International Geological Congress, Berlin (1885). Episodes Journal of International Geoscience, 40 (3), pp. 249-257.
Rodríguez, P. (2018). Gubernamentalidad algorítmica: Sobre las formas de subjetivación en la sociedad de los metadatos. En Revista Barda, Universidad Nacional del Comahue, 4(6), pp. 14-35.
Rouvroy, A. & Berns, T. (2018). Gobernabilidad algorítmica y perspectivas de emancipación: ¿lo dispar como condición de individuación mediante la relación? En Ecuador Debate, (104), pp. 123-147.
Russell, S. J. & Norvig, P. (2008). Inteligencia Artificial: un enfoque moderno. 2.° edición. Madrid: Pearson Educación.
Sadin, E. (2020). La Inteligencia Artificial o el desafío del siglo: anatomía de un antihumanismo radical. Buenos Aires: Caja Negra.
Steffen, W., Grinevald, J., Crutzen, P. & McNeill, J. (2011). The Anthropocene: conceptual and historical perspectives. En Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 369(1938), pp. 842-867.
Torrano, A. & Balcarce, G. (2023). Aportes desde los feminismos del sur/latinoamericanos a los debates posthumanistas. En Resistances. Journal of the Philosophy of History, 4(7).
UNESCO (2022). Recomendación sobre la ética de la Inteligencia Artificial. París: Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura.
Zengotita, A. (2016). Nietzsche y Darwin: el valor de un discurso como ficción útil. En Estudos Nietzsche, 7(1), pp. 56-79.
- Para una discusión más profunda sobre el status de la teoría darwiniana y sus implicancias teleológicas, recomiendo la lectura del trabajo de Alonso Zengotita (2016). “Nietzsche y Darwin: el valor de un discurso como ficción útil”. En Estudos Nietzsche, vol. 7, n.º 1, pp. 56-79. Allí el autor establece una lectura de la teoría de Darwin a partir de la interpretación de Friedrich Nietzsche.↵
- El Holoceno fue precisamente el período de expansión del Homo sapiens fechado hace aproximadamente once mil años, momento de la última extinción masiva, lo que significó la pérdida de la megafauna del período Pleistoceno. Para muchos especialistas el Holoceno como categoría geológica conserva su vigencia hasta nuestros días (Bardají, 2018, p. 7).↵






