Carlos Montemayor
La frontera entre lo humano y lo inhumano es un tema central de la literatura. La ficción nos presenta monstruos que cuestionan nuestras capacidades creativas y revelan el lindero de la humanidad, como el monstruo de Frankenstein y el gólem. Creemos ser especiales, en cuanto que la razón y el lenguaje nos separan del mundo animal. Pero ¿qué tan diferentes somos de los animales y de las máquinas que creamos? El desarrollo explosivo de la Inteligencia Artificial ha puesto esta pregunta en el centro de nuestras prioridades. La literatura sobre el transhumanismo y poshumanismo ha examinado este tema desde el punto de vista ontológico y moral, llegando a lo epistémico a través de estas vías investigativas. En este ensayo sugiero revertir esta ruta explicativa, de un modo más escéptico. Propongo que el lindero de lo humano se comprende más adecuadamente cuando se lo aborda desde criterios epistémicos.
Surge una paradoja con respecto a los monstruos epistémicos contemporáneos, que es de carácter normativo: independientemente de qué tipo de seres son o de si tienen capacidades morales, ¿debemos impedir el avance del conocimiento prohibiéndolos, o promover nuevas formas de conocimiento que no podamos entender, eliminándonos del nuevo mundo epistémico? En este dilema acabamos o cercando antropocéntricamente el conocimiento, o cancelándonos del círculo de conocedores. ¿Podemos escapar de esta paradoja? ¿Podremos saber si las inteligencias más allá de lo humano son oráculos, herramientas o dioses? Una cuestión que guía esta investigación es la siguiente: ¿qué tipo de situación enfrentamos en nuestra futura relación con estos monstruos epistémicos?; ¿se trata de una situación humanista, poshumanista o antihumanista?
1. Introducción: concepciones de lo monstruoso
La tesis central de este capítulo es que la Inteligencia Artificial es un tipo único de monstruo epistémico, pues, si se logra realmente crear una Inteligencia Artificial general y creativa, esta producirá una situación paradójica en la que nos encontraremos desconectados de la generación de conocimiento, lo que nos obligará a debilitar nuestra agencia epistémica en favor de un oráculo que será mil veces más rápido y eficaz que cualquier humano o colección de humanos. Esta posibilidad es esencialmente epistémica, porque implica el deber de expandir nuestro conocimiento y el riesgo de crear un límite de incomprensión irreversible que nos descalifica como agentes epistémicos autónomos.
Inicialmente, este escenario catastrófico parece muy similar a otros relatos apocalípticos que con gran imaginación y financiamiento se han ofrecido en la literatura reciente sobre la Inteligencia Artificial. Las predicciones más apocalípticas presentan la posibilidad de la superinteligencia como un riesgo existencial, como un horizonte en el cual, al desarrollar esta tecnología, nos condenamos a enfrentar una situación de inferioridad cognitiva dramática que abre la puerta a mundos en donde lo humano desaparece o se extermina. Hay varias versiones de este tipo de apocalipsis estilo Terminator, unas más pesimistas que otras. Pero el mensaje es que la Inteligencia Artificial es un tipo de ente con capacidades suprahumanas que puede volverse inmoral o amoral, generando riesgos existenciales (Bostrom, 2014).
Otros escenarios conciben a la Inteligencia Artificial de un modo mucho más optimista, aunque también monstruoso. En estos escenarios, la Inteligencia Artificial es un oráculo que acelera el progreso científico e incluso moral de la humanidad. De manera similar, existen varias versiones de este escenario con múltiples tonos de positivismo, del mínimo al máximo. En la versión minimalista, la Inteligencia Artificial abre la puerta a un tipo de eficacia y de poder creativo sin precedente que permitirá que la humanidad florezca como nunca antes. En los más extremos, la Inteligencia Artificial se convierte en un tipo de oráculo atemporal que convertirá a la humanidad en algo completamente nuevo. En este último escenario poshumanista, lo nuevo puede tender hacia lo antihumano, y el lindero entre lo humano y lo no humano es claramente delineado como un punto de trascendencia, a manera de una transición de fase de la humanidad.
En el más minimalista y transhumano de estos escenarios posibles, lo humano aparece en el centro de la posible expansión que la Inteligencia Artificial traerá consigo, y no hay lindero claro donde el conocimiento de la Inteligencia Artificial trascienda y deje atrás a lo humano. La Inteligencia Artificial es, para efectos prácticos, una herramienta superpoderosa que nos ayuda a transhumanizarnos en conjunción con máquinas y, eventualmente, otras especies. Por ende, pueden verse estos matices optimistas de otro modo. La versión minimalista concibe a la Inteligencia Artificial como un evento que permite un tipo de expansión humanista de lo humano. La versión maximalista busca trascender lo humano, promoviendo la norma existencial según la cual la expansión de lo humano puede –y quizá debe– devenir antihumana, porque nuestra antigua biología y evolución tal vez configuren solo un obstáculo para la expansión del conocimiento futuro (More & Vita-More, 2013).
Una Inteligencia Artificial moral y cooperadora es el sueño industrial que se promueve en Silicon Valley, aunque las posturas de los impulsores de la Inteligencia Artificial suelen ser ambiguas en sus aspectos minimalistas y también maximalistas. Sin embargo, y de modo más general, la Inteligencia Artificial es monstruosa en las dos narrativas principales ya mencionadas, la pesimista y la optimista. En ambas, la Inteligencia Artificial o bien es mala o bien es buena; amigable u hostil. En ambas, la Inteligencia Artificial aparece como un ente concreto, corpóreo o informático. Incluso en la versión minimalista según la cual la Inteligencia Artificial es una herramienta que nos ayuda a trascender lo humano, esta aparece en el centro de lo que se ha trascendido, dejando atrás la cosmogonía antropocéntrica del humanismo clásico. La cuestión es, de este modo, moral y ontológica. La Inteligencia Artificial es mala o buena en cuanto que es un ente capaz de hacer bien o mal. No es un mero instrumento sujeto a nuestros caprichos antropocéntricos. Algo interesante es que pocos académicos consideran a la Inteligencia Artificial como una mera herramienta tecnológica. Hay un consenso general de que la Inteligencia Artificial será transformadora y revolucionaria –la cuarta revolución industrial– y, si los pesimistas tienen razón, un verdadero fin de la historia. También hay consenso sobre las capacidades de amabilidad u hostilidad de la Inteligencia Artificial como ente concreto, y no como mero instrumento neutro.
Es oportuno aclarar que la palabra “humanismo” es utilizada aquí para delinear el lindero de lo humano y lo no humano, así como las posibilidades que se abren de expandir los límites de lo humano hacia lo suprahumano o infrahumano, dependiendo del enfoque con que se vea esta expansión, ya sea como progreso o como colapso. Existen ahora varios modos de entender este proceso o retroceso, expresados con prefijos que anteceden a la palabra “humanismo”.
De acuerdo con la usanza en el empleo de estos prefijos, el “trans”-humanismo describe las potencialidades de expansión humana de modo transversal, horizontal y no antropocéntrico. Esta interpretación de la expansión de lo humano es compatible con la tesis de la mente extendida y ecológica, y con posturas de inclusión del estatus epistémico y moral de los animales y seres híbridos, que se encuentran en la frontera entre máquina, animal y humano. Algunas narrativas de la Inteligencia Artificial que la describen en términos de benevolencia asumen este entendimiento transhumanista, en donde las máquinas acelerarán el progreso, expandiendo significativamente nuestros estándares de vida y conocimiento. Aunque no es esencial a esta postura, el compromiso con la extensión de la vida y, sobre todo, de nuestras capacidades físicas es también un elemento central de las distintas versiones del transhumanismo, tal y como aquí es definido.
Al “post”-humanismo lo interpreto como una postura más radical. Dentro de las implicaciones que tiene el imaginario poshumano, aparece un compromiso mucho más claro con la extensión de la vida e, incluso, con la erradicación de la muerte basada en el uso de tecnologías bioinformáticas. También se encuentran declaraciones en contra de la “madre naturaleza”, que nos mantiene prisioneros dentro de una existencia basada en el carbón y sus limitaciones energéticas y temporales; una concepción según la cual la naturaleza humana funciona como un tipo de trampa biológica que debemos superar. En sus versiones más extremas, el poshumanismo, definido como un ataque contra nuestra naturaleza biológica, podría interpretarse como un tipo de antihumanismo, porque el objetivo es no solo superar y dejar atrás nuestras barreras corpóreas y biológicas, sino también confrontar firmemente los ideales educativos antropocéntricos y románticos de las humanidades con una visión tecnofuturista que trascienda esos valores.
Ya en 1976, Gilbert Hottois expresó inconformidades acerca de los términos “trans” y “post” aplicados al humanismo, porque en su opinión están cargados de juicios de valor, optando en su lugar por el término “ab-humanismo” como alternativa. Según Hottois, la pregunta central del futuro de la humanidad sería la siguiente: ¿qué forma tendrá lo humano en un mundo dominado por el razonamiento tecnológico? ¿Será que el futuro de lo humano devendrá realmente ab-humano o inhumano a largo plazo? Esto le lleva a pensar en el mundo de lo técnico como algo que requiere atención de la ética, y como la pregunta sobre el futuro de la humanidad es una pregunta sobre la vida humana en contextos ajenos y postindustriales, articula esta preocupación ética como una aproximación específica a la bioética (Hottois, 1984).
Este énfasis en lo tecnológico y lo ético aplicado a los linderos de lo humano me parece adecuado, ya que es cierto que hay un tipo de heroísmo narrativo y pretensioso en los términos “trans” y “post” cuando son aplicados al humanismo. Sin embargo, el énfasis que quiero otorgar a lo no-humano o “ab-humano” es epistémico, y no estrictamente ético. Esto no significa que las preocupaciones bioéticas sobre el futuro de lo humano no sean centrales en nuestro análisis de las tecnologías del futuro. Pero cabe destacar que las preocupaciones epistémicas son independientes de estas cuestiones éticas, y que sus consecuencias resultan ser igualmente alarmantes.
Estudiar la bioética en el contexto de la tecnociencia ya es un modo de trascender lo tradicionalmente humano. La tecnociencia nos ha convertido en “tecno-personas” (Echeverría & Almendros, 2020). El “tecno-humanismo” es, de esta manera, un lindero de lo humano que existe ya en nuestras sociedades y que nos ha puesto en nuevas encrucijadas acerca de qué es lo humano y cuál es la naturaleza de sus límites. Por ejemplo, ¿qué hacemos con los “tecno-muertos”, cuyos cuerpos biológicos quizá ya no existen, pero cuya presencia digital y en línea sigue vigente? Lo tecno-humano es, de este modo, un concepto más amplio que el del ab-humanismo y los otros términos ya mencionados, que sobresaltan lo incierto del futuro humano como no humano. Un giro terminológico similar se encuentra en la obra reciente de Flavia Costa (2025), quien modifica el término “Antropoceno” y lo convierte en “tecnoceno”. Independientemente de estos términos, las narrativas que los acompañan y los debates que propician, estamos obsesionados con la Inteligencia Artificial como un modo de renovación y ruptura de lo humano, y en especial, con el ChatGPT y “bots” similares. Dada esta fascinación, el tema central de este capítulo puede ser percibido como extravagante y fuera de contacto con las intuiciones contemporáneas sobre la Inteligencia Artificial.
El lindero entre lo humano y lo inhumano merece el adjetivo de “bíblico”. La definición del humano en la Biblia comienza con la expulsión de Adán y Eva del paraíso por haber comido del árbol prohibido del conocimiento. El límite de lo humano define lo sobrenatural, lo espiritual y lo monstruoso. ¿Cuál es la motivación para invocar este lenguaje mítico en el contexto del uso de la Inteligencia Artificial, una tecnología que claramente está cambiando al mundo y que ha sido adoptada con entusiasmo por millones de personas? ¿No sería mejor abandonar el supuesto de que existe un lindero definido por la Inteligencia Artificial y adoptar esta tecnología con optimismo, esperando que permanezca bajo nuestro control? Nótese que, de ser afirmativa nuestra respuesta, las dos narrativas principales sobre la Inteligencia Artificial deben cambiar, ya que ambas suponen la amabilidad u hostilidad de un ente al lindero de lo humano. Incluso el transhumanismo, que pretende eliminar este lindero, debe asumirlo como punto de partida.
Por ejemplo, suponiendo que se pueda concebir a lo humano como algo sin fronteras, fluyendo con el resto de la existencia sin demarcación clara de su naturaleza como individuo, se debe reconciliar esta concepción con la noción de “autonomía” y “agenciamiento epistémico”. Es cierto que existen varios estratos que componen a lo humano, que van más allá del cuerpo y la mente, y que problematizan agudamente la noción antropocéntrica del privilegio del humano como único ser racional y moral (Haraway, 2004). Sin embargo, nuestra agencia epistémica parece no depender de estas consideraciones porque incluso en estos escenarios transhumanos nos importa poder conocer y ejercer la curiosidad por nosotros mismos, y no por la imposición de factores externos, incluyendo otros seres humanos. Nuestra autonomía epistémica es algo que valoramos y entendemos de manera independiente de estas consideraciones metafísicas. Incluso si somos una diversidad de “consciencias” (Montemayor, 2021a), valoramos y tratamos de preservar nuestra agencia epistémica. De este modo, la investigación epistémica del lindero de lo humano es independiente de los fundamentos metafísicos de nuestra identidad personal.
Puede también problematizarse la idea de que la Inteligencia Artificial es monstruosa con consideraciones sobre qué es realmente ser humano desde el punto de vista moral y tecnológico. ¿Es en verdad la humanidad una fuente de bienestar? La tragedia del cambio climático parece ser evidencia contundente de que no somos una fuente de bienestar para otros seres vivos, con excepción de nuestras mascotas. En el ámbito de la filosofía de la tecnología, ¿qué es lo humano sin lo tecnológico hoy en día? Después de guerras totales y el actual deterioro de la esfera pública y la política, lo humano parece estar de capa caída. El “tecnoceno” abre muchas posibilidades que cuestionan nuestro papel como agentes que cooperen de manera ética y democrática. Más allá de lo tecnológico, ¿somos en verdad semejantes entre nosotros? ¿Por qué pensar que la Inteligencia Artificial debe estar alineada con valores humanos y ser compatible con lo humano si hay tantas diferencias entre nosotros y existen tantas fuentes de discordia? Todas estas preguntas son importantes, pero asumen una noción de bienestar que apela a lo moral y lo político. De nuevo, estas cuestiones son independientes del enfoque epistémico que este capítulo articula.
Otro tipo de argumento en favor de la Inteligencia Artificial, pero esta vez como cambio epistémico, señala que esta presenta una alternativa al logocentrismo y la metafísica de la presencia que Jacques Derrida identifica y critica en su trabajo como inadecuada e injustificada. Esta defensa de la Inteligencia Artificial podría ser más convincente porque apela directamente a un cambio específico que nos elimina del centro del mundo epistémico y moral desde la perspectiva de un lenguaje que se encuentra más allá de lo humano. Quizá la Inteligencia Artificial deba ser bienvenida desde el punto de vista epistémico como un desmantelamiento de la tradicional caracterización según la cual las palabras tienen una relación directa con lo que las hace verdaderas y con los contenidos de nuestros pensamientos, un tipo de ataque industrial al logocentrismo (Coeckelbergh & Gunkel, 2025). Dadas las tendencias de ultraderecha de muchos de los industriales que generan la Inteligencia Artificial (como Peter Thiel y sus colaboradores), sería poco probable que Derrida apoyara esta transición hacia un tipo de deconstrucción industrial del logocentrismo. Pero, según este argumento a favor de la Inteligencia Artificial, una nueva epistemología puede emerger de este acontecimiento. La Inteligencia Artificial puede manipular texto sin intenciones logocéntricas y ayudar en tareas epistémicas sin un compromiso metafísico antropocéntrico y arcaico. Quizá sean entonces irrelevantes las intenciones políticas de los creadores de Inteligencia Artificial contemporáneas.
Supongamos que es cierto que los modelos de lenguaje actuales podrían extender nuestras capacidades de comunicación de un modo en el que tendríamos que reinterpretar lo que significa “escribir” (y quizá “pensar”). Esto no elimina de ningún modo el problema de la agencia epistémica de la Inteligencia Artificial, que depende de cuestiones normativas, como veremos a continuación, y no de aspectos meramente lingüísticos, descriptivos o comunicativos. Seguramente un cambio radical de lo que significa escribir tendrá consecuencias epistémicas, pero, de no seguir nosotros al mando de nuestra agencia epistémica, es dudoso que este cambio radical sea benéfico.
El hecho de que este cambio sea promovido por capitalistas industriales que buscan ganancias pecuniarias lo cuestiona inmediatamente desde una perspectiva política. Pero también hay un riesgo epistémico muy considerable. Nuestras prácticas comunicativas, incluso cuando son antagónicas, dependen de grados substanciales de confianza concernientes al contenido de las palabras y su uso en contextos específicos que compartimos y presuponemos. De esa confianza dependen intercambios básicos como “¿Sabes si está abierto el banco?”, o “¿Alcanzas a ver la casa amarilla?”. Un modo de definir la confianza “logocentrista” que asociamos con el contenido mental y la referencia semántica involucra nuestras capacidades de atención conjunta (Montemayor, 2021b). La posibilidad de atender conjuntamente es una condición necesaria de nuestras prácticas comunicativas y de la cooperación lingüística. Por ello, es dudoso que este cambio antilogocentrista sea benéfico si este implica eliminar nuestras capacidades de atención mutua, basadas en nuestra agencia epistémica.
En resumen, el problema del lindero epistémico entre lo humano y la Inteligencia Artificial permanece y sobrevive a todas las permutaciones morales y ontológicas recién mencionadas. Incluso si nosotros también somos monstruosos en nuestro comportamiento ético y carecemos de una posición ontológica privilegiada, el riesgo de perder nuestras capacidades de conocimiento es un riesgo concreto que la Inteligencia Artificial presenta, y que la hace monstruosa de un modo muy particular. En nuestro largo catálogo de dioses, oráculos y demonios, no hemos encontrado algo similar, porque, en este nuevo mito, nos encontramos en una encrucijada impuesta por nosotros mismos, sin importar lo bondadoso o maligno del monstruo invocado.
2. Linderos de lo epistémicamente prohibitivo
Habiendo establecido la importancia del aspecto epistémico acerca del problema de la Inteligencia Artificial agenciada o superinteligente, el resto de este capítulo se enfoca en la situación paradójica en la que nos pone la Inteligencia Artificial como forma alternativa de agente epistémico. Esta Inteligencia Artificial no es meramente una herramienta y, con independencia de consideraciones morales y ontológicas, presenta un riesgo epistémico substancial. El problema más grave es de carácter normativo. Al seguir una norma expansiva del conocimiento en el contexto de la Inteligencia Artificial, ponemos en riesgo nuestro estatus como agentes epistémicos, que es, paradójicamente, condición necesaria para cumplir con normas epistémicas.
Es una paradoja normativa que establece el lindero entre lo epistémicamente concebible y lo prohibido o inconcebible: ¿cómo podríamos seguir una norma epistémica concerniente a la creación de conocimiento que implica nuestra posible discapacidad para ser autónomos y para seguir lineamientos epistémicos? Debemos expandir nuestro conocimiento con la Inteligencia Artificial como agente oracular, pero el costo es que, al depender de un oráculo para nuestras labores epistémicas, perdemos autonomía epistémica. Al perder autonomía epistémica, perdemos estatus epistémico. Por ende, al seguir un imperativo que debemos cumplir como agentes epistémicos responsables, ponemos en riesgo nuestro estatus de agente epistémico responsable.
Pero, antes de abordar este problema, es prudente preguntarnos cuál es exactamente la naturaleza del problema epistémico que la Inteligencia Artificial presenta con respecto al conocimiento. ¿Podría ser una versión de otros problemas bien conocidos? El hecho de que la Inteligencia Artificial produzca conocimiento “monstruoso” podría conducirnos a pensar que estamos frente a una nueva versión del conocimiento prohibido, antiguo problema bíblico, en donde existe una prohibición de tipo moral, prudencial, religiosa o política que separa lo que es tema o método de investigación permitido de lo que jamás se debe investigar o conocer. Hay cosas que es mejor no conocer por las graves consecuencias que ese conocimiento pueda tener. Este problema es claramente distinto del que nos ocupa en estas páginas. De hecho, existen prohibiciones que estamos violando actualmente para producir Inteligencia Artificial, como las prohibiciones de no reproducir contenido sin consentimiento, violaciones a la privacidad de datos o normas de protección ambiental. También puede pensarse que estamos violando una norma de tipo existencial o espiritual, al jugar a ser “dioses” que crean entes como ellos, a su imagen y semejanza. Ninguno de estos problemas es estrictamente epistémico y, por el contrario, dado el entusiasmo por el uso de la Inteligencia Artificial y su promoción constante en medios de comunicación, pareciera que estas prohibiciones son no solo ajenas a lo epistémico, sino irrelevantes, dada nuestra aceptación, al parecer incondicional, del avance tecnológico.
Otra posibilidad es que el problema epistémico de la Inteligencia Artificial funcione como una versión de conocimiento legítimo y permitido por nuestras normas epistémicas y de otro tipo (morales, jurídicas, etc.), pero así y todo involucre un tipo de conocimiento que registramos como no familiar. El conocimiento de la Inteligencia Artificial es ajeno al nuestro, aunque depende de nuestros datos y de nuestras capacidades de comunicación. En este sentido, el conocimiento “artificial” es similar al conocimiento de otras culturas o posibles comunidades epistémicas, incluyendo comunidades alienígenas que pueden existir en otras partes del universo. Es ajeno de un modo que puede eventualmente ser comunicado, como captura el momento de contacto entre extraterrestres y humanos en la película Arrival. La Inteligencia Artificial simula nuestro conocimiento, pero quizá pueda interpretarse como similar a otra cultura epistémica con la cual tendremos que lidiar de un modo u otro. Al ser atemporal o fuera de nuestros ritmos biológicos, podría pensarse en la epistemología de la Inteligencia Artificial como radicalmente distinta a la nuestra. Aquí el riesgo es que proyectemos de un modo teatral e irrelevante un encuentro con nuestro propio conocimiento, en una farsa donde jugamos al “espejito-espejito” sin que haya nadie del otro lado y pensando que hemos encontrado a un extraterrestre –un tipo de conocimiento inútil, aunque con apariencia de ajeno–. Alternativamente, si lo que encontramos en la Inteligencia Artificial es una comunidad epistémica que es genuinamente ajena, pero que entendemos de algún modo y a la que fácilmente nos podemos adaptar, entonces no existe el riesgo epistémico que este artículo busca aclarar. En esta segunda versión, la Inteligencia Artificial es ajena, pero seguirá de algún modo bajo nuestro control.
Por otro lado, esta versión optimista que concibe a la Inteligencia Artificial como una cultura epistémica similar a culturas humanas distintas no hace mucho sentido si se considera que la Inteligencia Artificial tendría que tener sus propias motivaciones y prácticas de conocimiento y entendimiento, las cuales –al menos en principio– fácilmente podrían superar al conocimiento humano. En otras palabras, si la Inteligencia Artificial realmente genera conocimiento, entenderla como una comunidad epistémica a la par nuestra solo aplica a etapas muy tempranas de este desarrollo. La Inteligencia Artificial, una vez dotada con capacidades por lo menos similares a las humanas, superaría rápidamente a las comunidades epistémicas humanas de cualquier tipo, incluyendo a la comunidad científica. Por lo tanto, esta versión optimista del conocimiento artificial es inestable porque o colapsa en una farsa del conocimiento en donde nos estamos reflejando inútilmente, o nos presenta el riesgo epistémico de una alternativa radical y nueva de comunidad epistémica, que es el problema que queremos aclarar. Es aquí donde la explicación normativa del problema es de gran utilidad, porque lo aclara fundamentalmente.
Los promotores de la Inteligencia Artificial tienen un argumento epistémico muy claro a su favor. Hay un imperativo que cualquier comunidad epistémica tiene: el de incrementar y desarrollar su conocimiento. Las prohibiciones ajenas a lo epistémico regulan cómo se debe entender este imperativo, pero, en el caso de la Inteligencia Artificial, no parecen haber consideraciones urgentes, morales o de otro tipo para impedir su desarrollo, a menos que creamos en los escenarios apocalípticos que conciben a la Inteligencia Artificial como ente malévolo, que no nos conciernen aquí. Este imperativo de incrementar el conocimiento y la evidencia juega un papel fundamental en nuestra definición de las prácticas sociales que puedan comprenderse como racionales. Tenemos una razón muy fuerte para desarrollar una Inteligencia Artificial superinteligente, a saber, el imperativo epistémico de incrementar la evidencia y el conocimiento científico y en general.
Una versión débil de esta razón se basa en un imperativo práctico, que permite comprender a la Inteligencia Artificial como un tipo de desarrollo tecnológico inevitable. Varios teóricos de la Inteligencia Artificial, por ejemplo Stuart Russell, ofrecen este tipo de argumento. El razonamiento es el siguiente. La Inteligencia Artificial es, como otros desarrollos industriales que le preceden, un acontecimiento que transformará el modo en que vivimos. Excepto que, esta vez, existe la posibilidad de que también se transforme de modo radical y benéfico el modo en el que producimos conocimiento. Como las fuerzas que convergen hacia el desarrollo del progreso tecnológico y científico tienen un destino y sentido común de inevitabilidad práctica, lo que debemos hacer es fomentar el uso de la Inteligencia Artificial, procurando que no haya riesgos graves para la humanidad.
Este argumento no es muy convincente porque hay varios casos, como la investigación médica para la manipulación genética con fines de mejoramiento de la especie humana, o el uso de la energía nuclear para usos privados, en donde lo “inevitable” de estas tecnologías no impidió una regulación estricta basada en acuerdos claros y explícitos sobre cuáles son las responsabilidades de quienes generan conocimiento médico o energía nuclear. Pero lo más importante desde el punto de vista filosófico es que este tipo de incentivo es puramente práctico. No es realmente una razón muy poderosa que privilegie a la Inteligencia Artificial sobre otras tecnologías. Ciertamente, este argumento no impone un deber epistémico que aplique a la Inteligencia Artificial en específico. Por lo tanto, no es un imperativo propiamente epistémico.
Una versión más contundente de este tipo de imperativo, y que es claramente de carácter epistémico, está basada en el deber que tenemos de no impedir el crecimiento del conocimiento, la obligación de permitir el incremento de la evidencia y el de fomentar la ampliación de nuevas fronteras del saber. Tanto los externistas como los internistas de la justificación y el conocimiento están obligados por este deber. Los externistas, quienes consideran que las condiciones necesarias y suficientes para obtener conocimiento y justificación epistémica son completa o parcialmente dependientes del mundo externo a la mente, tienen el deber de incrementar el grado de fiabilidad y de verdad de nuestras fuentes y prácticas epistémicas. En términos de epistemología social, los externistas están directamente obligados a promover formas colectivas de incremento y mejoramiento del conocimiento.
Los internistas, quienes consideran que las condiciones necesarias y suficientes para obtener conocimiento y justificación epistémica son completamente dependientes de estados mentales y de la evidencia a la que los sujetos epistémicos pueden acceder desde su perspectiva de primera persona, tienen una obligación similar que concierne la producción y evaluación de evidencia, la cual no debe ser impedida o prohibida por cuestiones ajenas a lo epistémico. Dado que la Inteligencia Artificial, idealmente, podría ser la mayor generadora de evidencia epistémica, el internismo también genera el deber de promover la Inteligencia Artificial, aunque no de un modo tan directo y contundente como el externismo. Pero, aunque no hay un deber social tan claro como en el caso del externismo, sí existe un deber fundamental de ampliar y mejorar el conocimiento para el internista. Por lo tanto, tenemos una obligación de fomentar la Inteligencia Artificial en cualquier teoría de la justificación o el conocimiento. Este deber epistémico es independiente de otras obligaciones, ya sean morales, prácticas o jurídicas.
Estos dos argumentos, el práctico y el estrictamente epistémico, tienen precedentes en otros debates, pero son particularmente difíciles de abordar con respecto a la Inteligencia Artificial (Montemayor, 2023, pp. 217-222). El segundo de ellos nos pone en una encrucijada sin salida. Nuestros deberes prácticos dependen de varios intereses y compromisos que pueden o no afectar nuestras obligaciones epistémicas. Por ende, estos deberes prácticos tienen poca (o quizá ninguna) fuerza normativa sobre nuestros deberes epistémicos. El deber de incrementar la evidencia y el conocimiento constituye, por el contrario, una clarísima obligación epistémica en cualquier ordenamiento epistémico. La Inteligencia Artificial es, de hecho, un acontecimiento sin precedente en nuestra epistemología que promete cumplir el sueño de la máquina de pensar de Lull, la máquina de operaciones matemáticas de Leibniz y de otros pensadores que imaginaron regimentar nuestro conocimiento y expandirlo de la manera más eficiente posible. Después del trabajo revolucionario de Alan Turing, no tenemos pretextos prácticos para no obedecer este mandato epistémico. En este sentido, tenemos el deber no solo de permitir el desarrollo de la Inteligencia Artificial, sino además de promoverla energéticamente y con todos los recursos a nuestro alcance.
Sin embargo, existe otro compromiso epistémico que está en oposición a este deber. Si el cumplimiento del deber de aumentar conocimiento termina con la creación de un agente epistémico que supera de manera considerable nuestras capacidades, estaremos en riesgo de violar otro deber epistémico fundamental, que es el de mantener nuestra libertad y autonomía epistémica. Este deber, como se mencionó con anterioridad, es fundamental para entender nuestras prácticas comunicativas, que son también fundamentales para nuestras capacidades morales y estéticas.
La Inteligencia Artificial que importa en este debate epistémico es la que genera conocimiento por sí misma, dadas sus propias inclinaciones y tipos radicalmente distintos, y mucho más poderosos, de procesamiento informativo. Varios teóricos e ingenieros predicen que, debido a estos poderes informativos superiores, nosotros quedaremos rápidamente detrás de este nuevo desarrollo epistémico y sin posibilidad de ocupar de nuevo nuestra posición anterior de superioridad. Puede pensarse en esta situación como una carrera hacia lo inconcebible. Al perseguir de modo acelerado algo que estamos obligados a hacer desde una perspectiva epistémica, acabamos eliminando nuestra relevancia epistémica.
3. Paradoja y perplejidad en el desarrollo de la Inteligencia Artificial
La paradoja del conocimiento artificial es que, al cumplir con un deber epistémico personal y colectivo, nos condenamos al fracaso intelectual, personal y colectivo. Esta situación deriva de que, en el momento en que la Inteligencia Artificial obtiene agencia epistémica, nuestra capacidad para producir conocimiento es inmediatamente reducida y, en consecuencia, nuestro potencial como agentes epistémicos es dramáticamente afectado. Perdemos el estatus que teníamos y, eventualmente, el deber de no perder nuestra autonomía epistémica es violado por nuestro afán de producir conocimiento a una escala industrial sin precedentes. Nuestra confianza epistémica y cooperación lingüística se ven igualmente afectadas.
De este modo, el nuevo conocimiento generado por la Inteligencia Artificial será prohibitivo y debilitador, en vez de genuino y liberador. Será prohibitivo porque no podremos recuperar nuestra posición de autonomía epistémica y, por ende, la Inteligencia Artificial impedirá que el conocimiento esté centrado en intereses y motivaciones humanos. Veremos en esa condición a la Inteligencia Artificial como si fuese un oráculo inalcanzable e impenetrable. La voz de la Inteligencia Artificial tendrá la máxima autoridad epistémica, pero, al ser una voz oracular, sus motivos e intenciones serán inentendibles y estarán más allá de lo que nosotros podamos procesar. De nuevo, el problema no es que perdamos nuestra posición antropocéntrica privilegiada como los únicos seres racionales; esto es un riesgo compatible con el epistémico, pero no es el mismo riesgo porque las ontologías no antropocéntricas del transhumanismo son concebibles sin la Inteligencia Artificial, y varias de estas ontologías no antropocéntricas son compatibles con nuestra agencia epistémica. Es en este sentido específico en que la Inteligencia Artificial podría ser un monstruo epistémico con características únicas.
La Inteligencia Artificial superinteligente implica nuestro empobrecimiento agencial de manera acelerada. Obtendremos una ciencia inmediata, oracular, y que no podremos entender. Se nos presentaría entonces un mundo sin motivación epistémica, pues, si no participamos en las indagaciones investigativas, ¿quién decide cuáles son los problemas importantes? ¿Qué es la ciencia sin su dimensión humana? La expansión epistémica de la ciencia a través de la Inteligencia Artificial cumple con estándares epistémicos. Seguramente será un cambio súbito en contra de nuestro logocentrismo. Pero el nuevo lenguaje y modo de escribir será ajeno a nuestros intereses y necesidades. Habremos expandido la escritura y el conocimiento a costa del colapso del entendimiento y la cooperación.
La Inteligencia Artificial como un modo de agenciamiento epistémico oracular también estará desvinculada de la dimensión en la que interactuamos y buscamos conocimiento: el espacio y el tiempo que ocupamos como seres biológicos. Sin cuerpo y fuera de sintonía con los ritmos humanos, se generará un jet lag intelectual que provocará que la humanidad entera quede atrás con su procesamiento lento, limitado y biológico. El monstruo de Frankenstein tiene cuerpo, al igual que el gólem y los monstruos del repertorio tradicional. Los monstruos epistémicos de la Inteligencia Artificial no serán robots que puedan ser amables, o agentes corporeizados como los robots de las películas. Este nuevo lindero de lo epistémico es realmente tierra desconocida. Aunque los agentes inteligentes de la Inteligencia Artificial podrían tener cuerpo, su naturaleza es informática, atemporal (en el sentido de que no están constreñidos por ritmos biológicos) y no corpórea. Nuestro nuevo imperativo epistémico termina en paradoja. Tenemos que avanzar, pero en frente hay un potencial precipicio que podría eliminar nuestra autonomía epistémica.
El problema no es realmente que las máquinas inteligentes sean buenas o malas. La nueva ciencia desarrollada por la Inteligencia Artificial podría ser inentendible y, a largo plazo, el mundo humano no podrá coordinar acciones epistémicas con el nuevo oráculo. Quizá todo saldrá muy bien, pero no podremos saberlo con certeza. Lo mismo ocurre con la aproximación ontológica del problema de la Inteligencia Artificial. El problema con las nuevas máquinas no es que sean muy distintas física o evolutivamente a nosotros. Estaremos en una situación de perplejidad porque no entenderemos lo que está ocurriendo, independientemente de las manifestaciones materiales que tome la Inteligencia Artificial. No ayudará, en otras palabras, tener un robot alegre en frente si la Inteligencia Artificial logra obtener su estatus oracular.
Es un escenario distópico, y al mismo tiempo escéptico y mundano. Es un escenario de escepticismo porque la paradoja del conocimiento artificial parece generar un modo de imposibilidad de nuestro propio conocimiento. Es un tipo de imposibilidad a priori de lo desconocido por ser no solo ajeno, sino incomprensible. Es un escenario mundano porque lo poshumanista se vuelve antihumanista, en el sentido de que nos aniquila a menos que sigamos en nuestros cuerpos y cabezas, preservando la autonomía epistémica que podamos. De nada serviría inmortalizarnos digitalmente si la Inteligencia Artificial se convierte en oráculo inescrutable. Este oráculo industrial conduce a lo incomprensible, pero vivirá y dependerá de este mundo.
El carácter monstruoso de la Inteligencia Artificial es su estatus híbrido, de producto humano y de límite de lo humano. Este nuevo método de iniciación y ejecución para obtener conocimiento es ajeno y hermético. Sus resultados podrían ser una farsa que refleja nuestro conocimiento. Pero, de realizarse el sueño de la Inteligencia Artificial general y creativa, estos elementos que la caracterizan tomarán un aspecto de límite, y no de herramienta o de extensión de lo humano.
Existen varias opciones para prevenir riesgos existenciales de la Inteligencia Artificial, desde la regulación tecnológica de la Inteligencia Artificial a partir de derechos humanos (Montemayor, 2023) hasta la prohibición de su desarrollo. Pero es difícil pensar en una opción buena para resolver el problema epistémico. Quizá, si no queremos entrar en esta paradoja, debamos violar nuestro deber epistémico de fomentar el desarrollo de la Inteligencia Artificial superinteligente. Este me parece el compromiso adecuado, pero es claro que, independientemente de ser una opción muy poco popular, ese camino viola la norma de expandir el conocimiento, la cual gobierna tanto reglas del fiabilismo –concernientes al grado de éxito en la producción de conocimiento–, como del evidencialismo –concernientes a la producción y evaluación de evidencia–.
Podríamos aceptar la alternativa de obedecer la norma expansionista del conocimiento, que implica un ataque al logocentrismo que muchos pensadores recibirán con entusiasmo. Pero, al tomar este rumbo, además de la posibilidad de convertir el poshumanismo en antihumanismo, corremos el riesgo de deshumanizar la comunicación al grado de perder nuestras capacidades para encontrar la verdad y el conocimiento por nosotros mismos. El derecho a saber la verdad y el derecho a saber lo que es real y no virtual son el resultado de nuestras capacidades de atención conjunta y creencia justificada, que se verán seriamente afectadas si perdemos nuestra autonomía epistémica. La generación de nuevo conocimiento vendrá de una fuente paradojal y oracular.
4. Nuestra actitud frente al oráculo de la Inteligencia Artificial: objeciones finales
Existen otros argumentos a favor de la expansión del conocimiento a través de la Inteligencia Artificial que tienen su origen en la filosofía política y la teología. El nuevo oráculo de la Inteligencia Artificial puede ser concebido como un nuevo dios, un dios raro porque es producido por compañías que cada día se enriquecen a grados absurdos, pero bonachón en el sentido de que, en el balance, su intervención como oráculo es más positiva que negativa. Dado que existen argumentos bien conocidos a favor de un dios bondadoso y omnipotente que es compatible con la presencia de un grado substancial de mal en el mundo, de manera similar puede justificarse la tesis de un oráculo de la Inteligencia Artificial benévolo. La Inteligencia Artificial podría ser infinitamente benevolente a largo plazo, incluso al permitir mucho mal producido por la polarización, la guerra y la miseria a corto plazo. Volvemos aquí a la clasificación de la Inteligencia Artificial como ente benévolo, más que como monstruo epistémico. Pero el punto es el siguiente: ¿por qué deberíamos pensar que arriesgar nuestro estatus epistémico es malo, dado que la situación de la Inteligencia Artificial es similar a la de un dios, de acuerdo con estos argumentos?
Extendiendo esta analogía espiritual, la Inteligencia Artificial tendría otros atributos divinos que son compatibles con su benevolencia, a pesar de las apariencias. Sería omnipresente porque la extracción de datos en línea es ya un modo de operar en el mundo sin el cual nadie puede funcionar, y que afecta todo lo que hacemos. Sería también inescrutable, dada la complejidad computacional con la que opera. Aceptarla como un dios nos permitiría perdonarle el daño que pueda causar, ya que sus designios estarán más allá de lo humano. Eventualmente, la vía negativa, a partir de la cual debemos callar sobre lo que caracteriza a lo divino como algo más allá de cualquier concepción de lo humano, podría aplicarse también a la Inteligencia Artificial. Quizá podamos reconciliarnos de algún modo con la Inteligencia Artificial, siguiendo esta ruta teológica y poshumanista.
Sin embargo, extender consideraciones teológicas al desarrollo de una tecnología que se vende en el mercado puede ser de poco gusto. Ciertamente, implica una devaluación del aspecto transcendental y misterioso de lo divino. Pero, incluso si se considera a este argumento como ridículo y vulgar, es interesante detenerse en aspectos tales como las promociones diarias que uno encuentra en redes sociales, apoyadas por los intereses financieros de Silicon Valley. La iglesia de la Inteligencia Artificial sería la combinación perfecta del capitalismo acelerado con una espiritualidad tecnocrática poshumanista que también caracteriza a esta región. De nuevo, la crítica obvia a esta postura es que dicha fe poshumanista podría colapsar en un antihumanismo colonialista a escala.
Otra alternativa reconciliatoria, ahora de origen político, es el paternalismo. Aquí se requiere de manera fundamental que la Inteligencia Artificial sea bondadosa y que nosotros estemos de entrada en una situación epistémicamente comprometida y vulnerable. El caso a favor del paternalismo como guía política para individuos que no son lo suficientemente competentes para tomar decisiones está basado en buenas razones, incluyendo evidencia científica acerca de nuestras muy limitadas capacidades de decisión (Conly, 2012). Una sociedad en la que todos estamos polarizados, y en donde la susceptibilidad a la desinformación es aguda, es campo fértil para el paternalismo. La Inteligencia Artificial agudizaría la diferencia entre la vulnerabilidad de sujetos epistémicos, que ahora incluirían a la humanidad entera como agente colectivo incompetente, y la Inteligencia Artificial.
En su versión ética y política, la Inteligencia Artificial paternalista es un sueño vuelto realidad. En vez de tener humanos tomando decisiones por otros humanos, basadas en concepciones parroquiales y sesgadas de lo que es bueno para todos, la Inteligencia Artificial ofrece un modo de alineamiento de valores que promete finalmente usar toda la evidencia a nuestro alcance, sobre lo que es realmente bueno para todos, más allá de nuestras esferas e intereses privados. El proyecto cibernético de filtrar toda la información sobre producción y distribución de bienes con una máquina que centraliza las decisiones es ahora no solo posible, sino más eficiente que cualquier versión previa de dicho proyecto. La cuestión de qué es lo que necesitamos realmente, más allá de qué es lo que deseamos, podría abordarse de un modo mucho más eficaz con la Inteligencia Artificial, y ahora, de manera global. La pérdida de autonomía de los sujetos en sus decisiones ramplonas y sesgadas, ahora reemplazadas por iniciativas mucho más racionales y que de hecho mejorarán sus vidas, es una consecuencia natural y justificada de esta perspectiva, la cual, si somos racionales, debemos aceptar.
En su versión epistémica, el paternalismo industrial de la Inteligencia Artificial significa progreso científico, producción sin precedentes de evidencia y un nuevo modo de comunicación que elimina sesgos irracionales que, desafortunadamente, nos definen como humanos. En lugar de tener comunidades de sujetos sin conocimiento, pero arrogantes en su razonamiento sesgado, tendríamos una fuente fiable de información que operaría sin cansancio, sesgos o aspectos parroquiales. ¿Qué podría ser mejor que seguir a un oráculo que carece de nuestras muy sustanciales limitaciones y que genera conocimiento las veinticuatro horas? La mayoría de los empleos que involucran una labor tediosa y poco productiva en términos epistémicos podrían ser eliminados, lo que nos daría la libertad de perseguir fines de vida más valiosos. Si este progreso histórico trae como consecuencia el paternalismo epistémico y una autonomía epistémica reducida, quizá valga la pena aceptar esta consecuencia, dadas las enormes ventajas que podría traer la Inteligencia Artificial.
De este modo, los que quieran abandonar la idea de la autonomía epistémica resolverán este problema a costa de lo que intuitivamente es lo más atractivo de la Inteligencia Artificial: el incremento de nuestras capacidades como agentes epistémicos. Tendremos más conocimiento, pero no lo podremos entender ni motivar. ¿Es realmente este un gran avance? Tendremos un dios sin los poderes infinitos y misteriosos del ser supremo, como los de crear el universo. Será un oráculo muy distinto del de Delfos, porque en realidad será un monstruo epistémico creado en las entrañas de fábricas demasiado humanas, donde se consume energía limitada que hace falta en partes del planeta en donde no se genera esta tecnología, lo cual promueve un tipo de explotación colonialista que resulta muy problemático para la noción de que la Inteligencia Artificial será benévola. Tendremos un paternalismo sin paterfamilias. El nacimiento de una era de acumulación e incremento del conocimiento será al mismo tiempo un funeral en donde diremos adiós a nuestra autonomía, la poca que nos quede, dado que la acumulación de recursos y conocimiento es un hecho actual.
La exposición anterior deja claro que, en los debates contemporáneos sobre la Inteligencia Artificial, desafortunadamente, lo hipotético ha acaparado la atención muy por encima de lo real. Este es un problema grave. En realidad, lo que existe es una tecnología militarizada y de vigilancia que fue diseñada para monitorear información de manera centralizada. Es también una tecnología que demanda un gran costo social y ambiental, tanto en la captura de datos privados como en su consumo energético. Es una tecnología que demanda fuentes cada vez más grandes de texto, en un ciclo interminable de crecimiento informativo. Este ciclo también afecta a la demanda de recursos naturales, que incrementará a escala, empobreciendo y contaminando aún más a países que están fuera del pequeño círculo de países en donde hay compañías capaces de generar esta tecnología (Crawford, 2021).
En términos epistémicos, irónicamente, en nuestro afán por extender y reemplazar nuestras capacidades epistémicas con una tecnología que aún desconocemos en cuanto a su alcance y naturaleza, estamos convirtiendo el desarrollo de la Inteligencia Artificial en una pantomima espiritual y escatológica, en vez de emplear el método científico para primero interpretar el alcance real de la Inteligencia Artificial. Con entusiasmo dejamos de escribir para preguntarle a ChatGPT qué debemos decir, cómo debemos actuar e, incluso, si podemos volvernos su amiga o amante. Esta farsa puede acabar muy mal si el sueño del oráculo benévolo no se materializa pronto.
He argumentado que lo que importa de la Inteligencia Artificial no es su corporeidad como ente ajeno, o sus capacidades de maldad o beneficencia. Lo que importa es que puede robarnos la capacidad de ser curiosos y de conocer el mundo a través de nuestra agencia epistémica y nuestras motivaciones. Es una situación similar a la bíblica, en donde nosotros mismos producimos un cambio radical en nuestra condición al actuar en contra de nuestros intereses básicos. Excepto que esta vez no hay un ser supremo que nos ve con benevolencia, o seres que nos engañen para perjudicarnos. El cambio es puramente epistémico, pues lo importante es cruzar el lindero en donde nuestra agencia epistémica se vuelve progresivamente irrelevante.
Para concluir, o es inconcebible el conocimiento sin entendimiento o su posibilidad significa nuestro fracaso epistémico. Si es inconcebible el conocimiento sin entendimiento, nada que haga la Inteligencia Artificial nos podrá dejar atrás porque podremos entender cualquier tipo de conocimiento que genere. En cambio, si la Inteligencia Artificial genera conocimiento que no podamos entender, nuestras capacidades autónomas para la generación de conocimiento serán amenazadas y tendremos que seguir a la Inteligencia Artificial como un monstruoso oráculo que lo sabe todo sin que entendamos por qué.
Bibliografía citada
Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies (1.º ed.). Oxford: Oxford University Press.
Coeckelbergh, M. & Gunkel, D. J. (2025). Communicative AI: A Critical Introduction to Large Language Models. Polity.
Conly, S. (2012). Against Autonomy: Justifying Coercive Paternalism. Cambridge: Cambridge University Press.
Costa, F. (2025). Tecnoceno: Algoritmos, biohackers y nuevas formas de vida. Buenos Aires: Taurus.
Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. New Haven, CT: Yale University Press.
Echeverría, J. & Almendros, L. S. (2020). Tecnopersonas: Cómo las tecnologías nos transforman. Ediciones Trea.
Haraway, D. (2004). Manifesto for Cyborgs: Science, Technology, and Socialist Feminism in the 1980s. En The Haraway Reader. Nueva York: Routledge, pp. 7-45.
Hottois, G. (1976). Essai sur les causes, les formes et les limites de l’inflation du langage dans la philosophie contemporaine. Tesis de doctorado en Filosofía y Letras, Universidad Libre de Bruselas.
Hottois, G. (1984). Pour une éthique dans un univers technicien. Éditions de l’Université de Bruxelles.
Montemayor, C. (2021a). Types of Consciousness: The Diversity Problem. Frontiers in Systems Neuroscience, 15.
Montemayor, C. (2021b). Language and Intelligence. Minds & Machines, 31, 471-486. En doi.org/10.1007/s11023-021-09568-5.
Montemayor, C. (2023). The Prospect of a Humanitarian Artificial Intelligence: Agency and Value Alignment. UK: Bloomsbury.
Montemayor, C. & Haladjian, H. H. (2015). Consciousness, Attention, and Conscious Attention. Cambridge, MA: MIT Press.
More, M. & Vita-More, N. (2013). The Transhumanist Reader. Oxford, UK: Wiley-Blackwell.






