Sus diferencias, su contexto de producción y sus derivaciones políticas y económicas
Eduardo Luis Bianchini
En junio de 2008, Chris Anderson, editor jefe de la revista estadounidense Wired, publica un artículo que habilita una polémica. En ese texto, Anderson analiza el modelo de negocios de Google y muestra que todos los servicios que ofrece dicha empresa, basados en un procesamiento algorítmico del lenguaje que Frédéric Kaplan llamó “capitalismo lingüístico” (Kaplan, 2011), se realizan sin ninguna referencia a una teoría del lenguaje (Anderson, 2008). Partiendo de esta constatación, Anderson plantea que, a través del big data –el data deluge (‘diluvio de datos’) al que alude en su artículo–, constituido por millares de datos analizables en tiempo real a través del cálculo algorítmico de probabilidades, es posible prescindir de las teorías e hipótesis científicas y en parte también de los científicos mismos. Afirma Anderson:
Pero en contraste con los datos masivos, este planteamiento de la ciencia –elaboración de hipótesis, modelo, prueba– está volviéndose obsoleto. […] la nueva disponibilidad de enormes cantidades de datos, junto a las herramientas estadísticas que hagan cálculos, ofrece toda una nueva forma de entender el mundo. La correlación sustituye a la causalidad y la ciencia puede avanzar aun sin modelos coherentes, teorías unificadas o ciertamente cualquier otra explicación mecanística. No hay razones para aferrarnos a nuestros viejos usos. Es hora de preguntar ¿Qué puede aprender la ciencia de Google? (Anderson, 2008, p. 2).
El tipo de saberes a los que refiere Anderson –carentes de teoría, de hipótesis, modelos y prueba– no ha dejado de proliferar en los últimos años. Nos rodean completamente en todos los ámbitos: el marketing, las aseguradoras, el crédito, la selección de personal, la seguridad, la guerra y, cada vez más, en la medicina, la psicología y el derecho. Pero ¿qué tipo de “saberes” son estos? ¿Se conforman al objetivo del conocimiento o se desentienden completamente de él? ¿Satisfacen los criterios metodológicos que exige la racionalidad científica? Y como consecuencia de ello: ¿es política y éticamente aceptable tomar decisiones que afecten a la vida y la existencia de las personas sobre la base de estos saberes? Estas son algunas de las preguntas que intentaremos responder en este artículo. Aunque me centraré aquí en las cuestiones de la legitimidad y del ámbito de producción de los saberes generados a través del procesamiento algorítmico, intentaré proyectar los resultados de esa indagación teórica hacia las conexiones políticas y las implicaciones éticas del uso de estos saberes, lo que retomaré en las conclusiones. Dividiré el desarrollo de mi exposición en tres secciones:
- la crítica de la ciencia en cuanto mecanismo inductivo, en la que abordaré y discutiré ciertos tópicos clásicos sobre la metodología científica aplicándolos al procesamiento algorítmico automático;
- la distinción entre hecho (quid facti) y derecho (quid juris), común a la ciencia y al derecho, y los requerimientos de validación del conocimiento que se derivan de ello;
- el Estado como medio asociado al conocimiento científico, en contraposición al mercado como medio asociado a los “saberes” generados por el procesamiento algorítmico.
1. La crítica de la ciencia en cuanto mecanismo inductivo
Teniendo en cuenta que se trata de modelos probabilísticos, podríamos suponer que Anderson propone una nueva defensa del viejo método inductivo que perfeccionó Stuart Mill y que constituyó parte de la concepción de la ciencia del positivismo lógico. En apariencia, esta metodología basada en el big data y las herramientas computacionales que realizan cálculos estadísticos contiene varios puntos de contacto con el positivismo y la metodología inductivista: búsqueda de datos puros, no contaminados de teoría, supuestamente neutros e imparciales, inferencias inductivas puramente mecánicas realizadas sobre esos datos, pretensión de neutralidad y objetividad. En 1966, Carl G. Hempel, en un texto ya clásico denominado Filosofía de la ciencia natural, emprende una crítica de esta metodología inductivista, apartándose parcialmente de algunos postulados iniciales del Círculo de Viena. A fin de mostrar la necesidad de que la investigación comience por el planteo de hipótesis y no por la pura recolección de datos, tal como indicaba la concepción inductivista de la ciencia, Hempel cita un párrafo del economista Albert B. Wolfe publicado en The trend of economics, as seen by some American economists en 1924, el cual establece como modelo para mostrar las limitaciones de lo que denomina “inductivismo estrecho”. Es interesante retomar esta cita en el contexto del procesamiento automatizado de datos y los “saberes” que este supuestamente genera:
Si intentamos imaginar cómo utilizaría el método científico […] una mente de poder y alcance sobrehumanos, pero normal en lo que se refiere a los procesos lógicos de su pensamiento, el proceso sería el siguiente: En primer lugar, se observarían y registrarían todos los hechos, sin seleccionarlos ni hacer conjeturas a priori acerca de su relevancia. En segundo lugar, se analizarían, compararían y clasificarían esos hechos observados y registrados, sin más hipótesis ni postulados que los que necesariamente supone la lógica del pensamiento. En tercer lugar, a partir de este análisis de los hechos se harían generalizaciones inductivas referentes a las relaciones, clasificatorias o causales, entre ellos. En cuarto lugar, las investigaciones subsiguientes serían deductivas tanto como inductivas, haciéndose inferencias a partir de generalizaciones previamente establecidas (Wolfe, 1924, citado por Hempel, 1973, p. 27).
Hempel distingue en este texto cuatro estadios de la investigación científica:
- observación y registro de todos los hechos (paso que Wolfe parece en realidad atribuir a una mente sobrehumana);
- análisis y clasificación de estos;
- derivación inductiva de generalizaciones a partir de ellos; y
- contrastación ulterior de las generalizaciones.
Subsecuentemente, Hempel pasa a mostrar que la investigación descripta de este modo es impracticable, dado que
ni siquiera podemos dar el primer paso, porque para reunir todos los hechos tendríamos que esperar […] hasta el fin del mundo; tampoco podemos reunir todos los hechos dados hasta ahora, puesto que éstos son infinitos tanto en número como en variedad (Hempel, 1984, p. 28).
Sin embargo, el big data sobre el que trabajan los algoritmos computacionales parece al menos debilitar el argumento hempeliano de la completa impracticabilidad de este método. La Inteligencia Artificial, casi como esa “mente sobrehumana” a la que hacía referencia Wolfe, haría al menos concebible la posibilidad de obtener un saber a partir de un verdadero diluvio de datos apelando exclusivamente a inferencias inductivas. Pero la verdadera cuestión no es la impracticabilidad del método inductivo, sino la del tipo de “saber” que podríamos obtener ateniéndonos exclusivamente a la pura inferencia inductiva, lo cual queda de manifiesto en el cálculo estadístico computarizado. Lo que caracteriza a este saber puramente inductivo es que, en la medida en que lo concebimos como una regla mecánica resultante del puro procesamiento probabilístico de los datos, no proporciona ninguna explicación comprensible de los hechos o datos a partir de los cuales se ha generado. Como afirma Rouvroy, no podemos obtener ninguna explicación de los hechos a partir de meras correlaciones estadísticas. El objetivo de la ciencia no es meramente predictivo, sino fundamentalmente explicativo, por lo que se debe mantener la distinción entre correlación y causa. Lo que la pura inducción nos proporciona alcanza su más depurada expresión en el cálculo estadístico automatizado. La anticipación que busca el cálculo estadístico computarizado no supone la permanencia y regularidad de las causas expresadas en las leyes e hipótesis científicas, sino la correlación detectable en tiempo real entre ciertos datos que se suceden o se presentan juntos con cierta frecuencia que puede ser medida en términos de probabilidad. Es decir, lo que el algoritmo computacional nos proporciona no es, por ejemplo, la causa por la que hierve el agua, sino los datos o variables que, en un tiempo t1 determinado, preceden con cierto grado de frecuencia la aparición del dato “El agua hierve”. La probabilidad de estas correlaciones no nos permite establecer cuál es la causa por la que hierve el agua y, por otra parte, ateniéndonos a los puros datos actualizables en tiempo real que procesa el algoritmo computacional, las correlaciones podrían variar, así como su grado de probabilidad, e incluso esa correlación podría simplemente desaparecer en un tiempo t2 determinado, sin que se haya por ello “refutado” ninguna ley o hipótesis causal.
2. La distinción entre hecho (quid facti) y derecho (quid juris)
En la Crítica de la razón pura, Kant (1979) compara la justificación de los juicios jurídicos con los juicios de la ciencia, indicando que se pueden presentar ante ellos dos cuestiones relativas a su justificación: la cuestión respecto de lo que es de hecho (quid facti) y la cuestión acerca de lo que es de derecho (quid juris), exigiendo pruebas de ambos. Mientras que la primera cuestión se resuelve por recurso a la experiencia, la segunda se resuelve por recurso a una cierta deducción. De la Crítica surge que la cuestión acerca de la validez de lo que es de hecho –los conceptos y juicios empíricos– está implicada en la cuestión de la validez de lo que es de derecho –las categorías y los principios del entendimiento puro–.
Más allá de las críticas al sujeto del conocimiento kantiano, esta distinción entre lo que es de hecho y lo que es de derecho está necesariamente implicada en el intento de justificar la pretensión cognitiva de cualquier enunciado. En la discusión que se abre en torno al artículo de Anderson, Kevin Kelly sostiene que, detrás de toda aprehensión automatizada de hechos, hay una teoría oculta, conocida o desconocida y, en este último caso, a la espera de formulación (Kelly, 2008). Pero, como afirma otro participante del debate abierto por Anderson, Sam Carroll,
a veces será duro, o imposible, descubrir modelos sencillos que expliquen las inmensas colecciones de datos enmarañados tomados de los fenómenos ruidosos y no lineales. Pero eso no significa que no debamos intentarlo. Las hipótesis no son sólo herramientas útiles en algunas visiones de la ciencia potencialmente obsoletas; lo son todo. La teoría es comprender, y comprender nuestro mundo es de lo que trata totalmente la ciencia (Carroll, 2008, p. 8).
Según Stiegler, esto nos devuelve a la distinción kantiana entre hecho y derecho, es decir que lo afirmado por Kelly podría expresarse diciendo que, detrás y más allá de todo hecho, hay un derecho (Stiegler, 2015). Stiegler entiende este derecho que trasciende a los hechos como una cierta comprensión, que es, sin embargo, una constante interrogación. Esta comprensión, siempre a su vez interrogativa, implica también para Stiegler la interiorización de las posibilidades noéticas abiertas por una cierta tecnología, como lo fue en su momento para el desarrollo de la matemática la simbolización geométrica y numérica, y aún más básicamente la escritura misma. Pero toda tecnología es también, según Stiegler, un phármakon (remedio y a la vez veneno) ya que, al exteriorizar ciertas capacidades humanas, las transforma en propiedades del producto técnico, volviendo los comportamientos noéticos humanos implicados comportamientos ciegos y automatizados. Stiegler denomina a este proceso “proletarización”: la pérdida del saber (en el triple sentido de un saber teórico, un saber hacer y un saber vivir).
Así lo había advertido Platón en el Fedro respecto de la invención de la escritura. Esta suplementa la memoria orgánica y la prolonga más allá del tiempo de vida de los individuos. Convierte a la memoria en un objeto físico que se exterioriza fuera del alma, la cual, a partir de ese momento, solo puede olvidar. Mientras que el pensamiento, por su parte, termina acostumbrándose a discursos que no responden preguntas ni pueden defenderse a sí mismos.
Derrida, quien ha recuperado y renovado el sentido de ese diálogo en “La farmacia de Platón” (Derrida, 1997), destaca la paradoja del enriquecimiento y a la vez empobrecimiento noético que implica la técnica de la escritura, lo que hace de ella un phármacon. Según Stiegler, la llamada “Inteligencia Artificial generativa” (IAG), como lo fue en su momento la invención de la escritura, permitirá desarrollar un nuevo potencial de formulación teórica y a la vez una nueva distinción entre hecho y derecho, pero ello solamente cuando se desarrolle la “cura” que posibilite “des-automatizar” el phármakon que empobrece o “proletariza” la capacidad noética humana, que es la IAG en cuanto exteriorización sin interiorización posterior –siempre con retardo– del pensamiento humano.[1] Pero eso implica combatir tanto teórica como políticamente las propuestas como la de Anderson, las cuales suponen que esta “proletarización” del espíritu humano es insuperable.
Como afirma Stiegler, la tesis de Anderson es en última instancia que “no hay más ciencia en absoluto, sino un estado de hecho mantenido por un sistema de captura que vuelve caduca la diferencia entre hecho y derecho” (Stiegler, 2015: 64). La ausencia de esta distinción entre hecho y derecho o entre los estados de cosas inscriptos en este sistema de captura y procesamiento de información y la interiorización noética “comprensiva” de esos estados implica una pérdida de interrogación por el saber y por los criterios que lo legitiman, interrogación que es análoga a la que puede formularse en la esfera de la práctica por los criterios que legitiman la validez de las decisiones jurídicas y de los comportamientos que consideramos éticos.
Esta correspondencia entre criterios de legitimidad jurídica y epistémica –sobre la que volveremos en la sección siguiente– es la que se expresa en lo que Antoinette Rouvroy y Thomas Berns denominan “gubernamentalidad algorítmica”. Según estos autores, la gubernamentalidad algorítmica –como toda forma de gubernamentalidad en el sentido de Foucault– pone en funcionamiento ciertas tecnologías de poder fundadas sobre estadísticas. Pero, a diferencia de la concepción clásica de la estadística, la gubernamentalidad algorítmica es anormativa en el sentido de que el datamining en que se basa está orientado a la elaboración de perfiles sobre una lógica de la correlación entre diversos rasgos desperdigados, pero sin remitirlos a ninguna “media” o norma general, como sería por ejemplo el hombre medio de Quetelet.[2] Según Rouvroy, este tipo de gubernamentalidad implica un nuevo régimen de verdad digital que “se encarna en una pluralidad de nuevos sistemas automáticos de modelización de lo ‘social’ a distancia y en tiempo real” (Rouvroy & Berns, 2016, pp. 88-89). Pero, como señala Stiegler, no se trata en realidad de un régimen de verdad, sino de la promesa técnica de un régimen de verdad aún en potencia:
… es una promesa, o un derecho potencial, más bien que una realidad. La realidad es el estado de hecho, este [estado de hecho] es por el contrario la negación de esta promesa: lo que nos dice en efecto este estado de hecho es que ya no necesitamos más de la verdad. Basta tener “resultados”, y que estos sean performativos, pero esto no está dicho, y todavía menos analizado (Stiegler, 2015, p. 119).
Lo que Foucault llama un régimen de verdad produce la verdad a través de una aleturgia, es decir, un conjunto de prácticas y discursos que producen lo verdadero diferenciándolo de lo falso. Esto implica, según Stiegler, algún tipo de proceso heurístico, aunque históricamente determinado y por lo mismo limitado. Pero el “saber” digital, tal como Rouvroy y Berns lo describen, está desprovisto de toda heurística; y, como el “saber” que describe Anderson, supone un estado que ha abolido toda diferenciación entre el hecho y el derecho. Esta abolición de la diferencia entre hecho y derecho, entre empíria y teoría, entre performatividad de ciertos enunciados y la verdad –o, al menos, la suposición de una verdad–, sobre la base de algún criterio de legitimación que acredite esos enunciados como un saber, puede –siguiendo a Rouvroy– exponerse mediante dos características del tratamiento computarizado de datos y de los supuestos “saberes” que generan: la indistinción entre correlación estadística y causa, y la ausencia de la noción fallo. Respecto de lo primero, afirman Rouvroy y Berns:
hay una condición sine qua non de un ethos científico y político: conservar una duda, mantener una desconfianza respecto de la suficiencia de las correlaciones, mantener la distinción entre correlación y causa, desconfiar de los “efectos” auto performativos de las correlaciones (su capacidad retroactiva), evitar que decisiones que produzcan efectos jurídicos sobre las personas o que las afecten significativamente, se tomen sobre el único fundamento de un tratamiento automatizado de datos (Rouvroy & Berns, 2016, p. 94).
Tenemos aquí, por un lado, un criterio epistémico que es a la vez ético y político, ya que implica una responsabilidad del sujeto cognoscente que está ausente en el procesamiento algorítmico de datos. No existe criterio alguno que permita atribuir causalidad a las correlaciones probabilísticas entre datos que efectúa el algoritmo y, sin embargo, ello no es obstáculo para que se tomen decisiones sobre la base de esa mera correlación. La correlación se justifica simplemente por su performatividad. Una vez más, vemos que el hecho se legitima a sí mismo –la pura performatividad entendida como la capacidad del algoritmo de modelar los comportamientos de quienes interactúan con él–. Se trata de un “saber” donde el hecho equivale al derecho, siendo la performatividad su único criterio de legitimación, sin consideración alguna de la verdad, ni requerimiento argumentativo de fundamentación. Incluso cuando el algoritmo anticipa algún tipo de deseo del individuo –si esto fuera posible–, de acuerdo con el perfil o doble algorítmico que construye de él y que el individuo desconoce a pesar de que le es aplicado, el algoritmo no intenta ajustar la demanda a esos deseos, sino más bien ajustar esos deseos a la demanda disponible. El objetivo es impulsar al sujeto a deslizarse en esa demanda, sin que medie una reflexión por parte de él, evitando activamente toda demora reflexiva. Según Rouvroy, esta performatividad retroactiva actúa también a la inversa de la performatividad corriente, ya que las correlaciones y los perfiles elaborados a través de ellas que genera el algoritmo se legitiman a sí mismos, no solo por las acciones que promueven, sino porque todo acontecimiento que ocurre en el mundo –cuya huella digital se conserve– valida y afina los perfiles que habrían podido anticiparlo:
Articulada a un régimen de operacionalidad, más bien que a un régimen de validez, o aún de legitimidad, o incluso aún, de eficacia (la cual no puede ser evaluada en la medida en la que no hay ningún proyecto identificable), ella [la operacionalidad algorítmica] es “performante”, de una performatividad a la inversa que consiste en lo que surge del mundo, todo acontecimiento “valida” y afina los “métodos” de interpretación, o más bien los modelos o perfiles que pudieron haber servido para anticiparlo (Rouvroy, 2011, p. 7).
Esta adaptación en tiempo real, por la cual el algoritmo se afina y perfecciona a través de toda interacción con el mundo, nos conduce a nuestra segunda consecuencia de la indistinción entre hecho y derecho: la ausencia de la noción misma de fallo. El algoritmo no falla, simplemente se remodela en tiempo real, sin que en ningún momento el saber encuentre el límite de una refutación: “El fallo no puede poner en ‘crisis’ el sistema, es inmediatamente vuelto a engullir (réingurgité) con la finalidad de refinar los modelos o perfiles de comportamientos” (Rouvroy & Berns, 2016, p. 97).
Así como en el saber surgido del procesamiento algorítmico de datos no tiene lugar alguno la noción de verdad, tampoco lo tiene la noción de falsedad. Por otra parte, como señalan Rouvroy y Berns, los dispositivos algorítmicos en su aplicación actual –detección de fraudes, terrorismo, etc.– tienen por objetivo no perder ningún verdadero positivo, sin importar los falsos positivos (Rouvroy & Berns, 2016, p. 97). El sistema apunta a la detección, no al diagnóstico, por lo cual los “falsos positivos” jamás son interpretados como fallos. Esta ausencia del fallo es a su vez la ausencia de la experiencia dialéctica del saber, es decir, de la experiencia de la negatividad que acompaña al saber y que cuestiona la pura positividad de lo que de hecho se cree saber, abriendo con ello la posibilidad de un nuevo saber. Como afirma Stiegler recordando la dialéctica del amo y esclavo hegeliana, solo la posibilidad de la “muerte” del sujeto del saber, en cuanto capacidad de sacrificio de sí como sujeto del saber, rompe la automatización del saber –su ceguera dogmática y su existencia puramente exterior, encarnada en sus realizaciones técnicas– y abre la posibilidad histórica del surgimiento de un nuevo sujeto del saber.
3. El Estado como medio asociado al conocimiento científico, en contraposición al mercado como medio asociado a los “saberes” generados por el procesamiento algorítmico
Fundándonos en la homología entre la ciencia y las leyes jurídicas respecto de una legitimidad de derecho (quid juris) que suponen sus enunciados, intento aquí dar un paso más y sugerir que la ciencia presupone el espacio público como su medio asociado, del mismo modo que un bote supone el agua o un avión, el aire. En La verdad y las formas jurídicas, Foucault (2003) ha mostrado cómo a través de la historia la ciencia reproduce en su seno y refina los procedimientos de validación que se han generado en el ámbito jurídico. Aquí prefiero referirme al espacio público y no al Estado, en cuanto el espacio público puede adquirir formas diferentes a las correspondientes al Estado moderno, o volverse casi inexistente en un Estado autocrático o dictatorial. Foucault concibe el surgimiento de las formas de saber, de sujetos de conocimiento y de formas de establecer la verdad a partir de las prácticas jurídicas, pero, a diferencia de Foucault, quisiera poner aquí el acento en otro aspecto de las prácticas jurídicas. Sin cuestionar el aspecto constrictivo o limitativo que tienen las prácticas jurídicas –en cuanto relaciones de poder– en la constitución de sujetos, en particular en cuanto sujetos de saber, así como en la constitución de órdenes de saber y de verdad, quisiera poner el acento en dirección al juego de la libertad que tanto el derecho como la ciencia habilitan.
Por una parte, este juego de la libertad está dado sobre los sujetos del derecho, presumiendo en ellos capacidades de entendimiento y voluntad que hacen de ellos sujetos morales. Y lo mismo podríamos decir de la interpelación de la ciencia a sus sujetos, sean cuales sean sus limitaciones históricas y estructurales, lo cual no ocurre con los “saberes” a través de los cuales la gubernamentalidad algorítmica intenta modelar sus conductas. Por otra parte, hay en el derecho y en la ciencia una voluntad de no clausurar la incertidumbre, y la potencia de la vida y del mundo (Rouvroy, 2011), como lo hace la racionalidad inductiva algorítmica al excluir por la misma lógica de su funcionamiento lo improbable. Tanto el derecho como la ciencia permanecen abiertos a la negatividad, ya sea del mundo físico o de la vida humana, a conformarse a la ley física o a la norma jurídica. Rouvroy caracteriza esta negatividad para el caso del derecho –pero su definición, como la anterior, puede aplicarse indistintamente a las ciencias– como las “recalcitrancias de la vida”, “el exceso del mundo sobre lo real”, como lo afirma Luc Boltanski.[3] Estas recalcitrancias de la vida, dice Rouvroy, “son las que interrumpen la efectuación de lo prescripto por la ley, permitiendo su puesta a prueba y, llegado el caso, su revisión legislativa” (Rouvroy, 2011, p. 12).
El derecho, como la ciencia, debe en consecuencia confrontarse con estas recalcitrancias de la vida donde la ley prueba y se pone ella misma a prueba. Por ello, dice Rouvroy, mientras que la gubernamentalidad algorítmica no se pone a prueba o, más bien, “evita cuidadosamente toda forma de puesta a prueba de sus propias producciones” (Rouvroy, 2011, p. 12), el derecho tanto como la ciencia asumen el arduo trabajo o el esfuerzo, costoso en tiempo y dinero, de buscar las causas, de administrar las pruebas y de interpretar el significado de los acontecimientos. Así como la ciencia debe “interrogar el mundo físico para hacerle decir las potencias, posibilidades, potencialidades que oculta” (Rouvroy, 2011, p. 9), el derecho tiene necesidad de remitirse al testimonio, la declaración, la confesión. La razón algorítmica, en cambio,
no tiene ninguna necesidad, de remitirse al testimonio, la declaración, la confesión, el discurso del experto o de la autoridad, o el relato de la experiencia. No tiene necesidad tampoco, para anticipar lo que puede advenir, de esforzarse por identificar las causas de los fenómenos, o incluso las intenciones de los individuos. La inducción algorítmica dispensa de todo esfuerzo hermenéutico (Rouvroy, 2011, p. 9).
Evitar el trabajo de la interpretación de las causas y de la intencionalidad de los acontecimientos para centrarse en la pura performatividad de las incitaciones comportamentales generadas por el algoritmo asimila el procesamiento algorítmico al funcionamiento del mercado y nos permite conjeturar que es este el verdadero campo de su producción o incluso el medio asociado de estos saberes, así como el Estado y el espacio público lo son del saber científico. Para constatar esto, proponemos comparar el funcionamiento de la razón algorítmica con lo que Hayek describe como el funcionamiento del mercado capitalista. Según Hayek, el mercado puede concebirse como un mecanismo para comunicar información a través del sistema de precios. Esta información, correspondiente a los recursos con los que cuenta el sistema económico, se encuentra dispersa entre una multitud de individuos, pero el sistema de precios permite comunicar la información necesaria que estos necesitan para coordinar sus acciones y ajustar sus planes, sin que nadie tenga que decirles qué hacer. El sistema de precios, dice Hayek, funciona –esto es para él “más que una metáfora”– como
una especie de maquinaria para registrar el cambio, o un sistema de telecomunicaciones que permite a los productores individuales observar solamente el movimiento de unos pocos indicadores, tal como un ingeniero puede mirar las agujas de unos pocos medidores, a fin de ajustar sus actividades a los cambios acerca de los cuales puede que nunca sepan de ellos más que lo que está reflejado en el movimiento de precios (Hayek, 1945, p. 165).
El procesamiento automático de datos y especialmente los que se realizan a través de la IAG, de manera análoga al mercado, constituye un mecanismo que procesa en tiempo real unos datos que son información dispersa, constituida por las huellas dejadas por distintas operaciones individuales, del mismo modo que el mercado a través del sistema de precios, como un sistema de “telecomunicaciones”, transmite la información dispersa, poseída por los diferentes agentes desconectados entre sí, de la oferta o demanda existente para los diferentes bienes. Sobre la base de estas indicaciones, los agentes desvinculados pueden coordinar sus acciones, sin necesidad de conocer las causas de los acontecimientos mercantiles, ni perder tiempo y dinero en buscarlas. Del mismo modo, la IAG proporciona unas indicaciones en tiempo real del estado de un cierto sistema o campo a través de correlaciones probabilísticas y perfiles que pone a disposición de los usuarios. Estos, a su vez, utilizarán esas correlaciones y perfiles para tomar decisiones o más bien serán incitados por ellas a tomarlas sin buscar ninguna otra interpretación del fenómeno y sin que jamás puedan ni les interese saber cuáles son las causas objetivas que fundamentan esas correlaciones estadísticas. Este “método” que podríamos denominar “mercantil” proporciona un cierto “saber” completamente distinto del de las ciencias. No pretende darnos a conocer las causas de los fenómenos, sino solamente proporcionar cierta información que incita a actuar de cierto modo sin requerir ni solicitar otra interpretación de la situación.[4] La IAG y los bots proporcionan esa información en tiempo real superando ampliamente la capacidad de recolección y procesamiento de información de los agentes, lo cual acelera y vuelve cada vez más inmediatistas las decisiones de los inversores –inmediatismo que no solo comparten también los consumidores, sino que se contagia a los usuarios de otros campos como la seguridad, las acciones militares o incluso el derecho–, o bien las deja directamente en manos de los bots financieros. De esta forma, la IAG y los “saberes” que genera no solo funcionan como el mismo mercado, sino que lo suplementan y transforman en parte sus características, de un modo que contradice la pretensión de autonomía de los individuos postulada por Hayek. Por una parte, proporciona perfiles comportamentales de los diferentes agentes –consumidores, inversores, potenciales estafadores o terroristas, etc.–, lo que permite actuar sobre ellos sobre la base de su perfil correspondiente. Pero, por otra parte, permite suplantar parcialmente al agente individual, cuyo conocimiento de tiempo y lugar era para Hayek esencial para el funcionamiento del sistema mercantil en cuanto garantizaba el ejercicio de la libertad del individuo para lograr sus fines empleando su propio saber. En proporción creciente este saber es suplantado por dispositivos automáticos que no solamente procesan en tiempo real la información existente registrando sus cambios, sino que toman las decisiones que evalúan adecuadas a esos cambios.
Un ejemplo de las consecuencias negativas de esta suplantación del decisor individual, que actúa sobre la base de su saber y experiencia propia, por sistemas automatizados o robots lo proporcionó Alan Greenspan, presidente de la Reserva Federal de los EE. UU., cuando debió presentarse ante la Cámara de Representantes para explicar por qué no había podido prevenir la crisis de las subprimes que desató la catástrofe financiera de 2007. Según Greenspan, esa crisis se debió a las decisiones de los robots financieros, sobre la base del cálculo de riesgos realizados por esos mismos sistemas. Si bien los expertos conocían que los datos tomados por los robots correspondían a las dos últimas décadas caracterizadas por la euforia financiera, por lo cual podían no resultar válidos para la situación actual en que esa euforia estaba decayendo, se privilegió la evaluación de los robots, partiendo de la base de que los anteriores períodos de estrés habían ocurrido precisamente a causa de que, en esos períodos, no existía el cálculo financiero robotizado.
4. Conclusiones
El recorrido que hemos realizado nos ha permitido diferenciar las características epistemológicas que diferencian a la ciencia de los productos del procesamiento automatizado de datos. Estas diferencias nos posibilitan constatar que dicho procesamiento automatizado no responde a los mismos problemas ni a los mismos objetivos de la ciencia, por lo cual no puede superarla ni suplantarla.
Por otra parte, hemos podido advertir una homología estructural entre el método de la ciencia y el método que rige la práctica de las instituciones jurídicas estatales, poniendo de manifiesto la importancia que en ambos se atribuye a la búsqueda de las causas y al error o al fallo, en cuanto condiciones del cambio de las normas y de los procesos de transformación de sus sujetos, dentro de un campo de juego que habilita su libertad.
Correlativamente, hemos visto la homología estructural entre el método del mercado tal como lo describe Hayek y el método que deriva en los “saberes” producidos por el procesamiento automatizado de datos, señalando además la suplementación y los cambios que estos dispositivos introducen en él. Sobre este último punto, nos hemos limitado a su aspecto epistemológico y a la comparación con el proceder científico, sin poder abordar la complejidad de aspectos que encierra y su relación con el llamado “capitalismo de plataformas”.
Acerca de esto quisiéramos, sin embargo, dejar algunas consideraciones que se siguen de los puntos tratados. El capitalismo de plataformas, que se basa en las posibilidades abiertas por el procesamiento automatizado de datos debido a su posición cada vez más predominante dentro del capitalismo actual, tiende a generar una sobrevaloración de estos “saberes”, a la vez que un cierto debilitamiento, como se aprecia en las afirmaciones de Chris Anderson, del valor y la autoridad de la ciencia. Esta actitud respecto de la ciencia se conecta con las políticas neoliberales, especialmente en su posición extrema representada por los llamados “libertarios” –posición a la que adhiere Anderson, por otra parte–, que intentan adelgazar o incluso suprimir el Estado privatizando la mayor parte de sus funciones. En correspondencia con ese planteo político, los “saberes” producidos por el procesamiento automatizado de datos, que han emergido del funcionamiento del mercado, se presentan como alternativas a las funciones jurídicas y políticas del Estado, suplantando el arduo trabajo de la prueba e interpretación jurídica, así como el no menos arduo trabajo de generación de hipótesis, búsqueda de las causas y administración de la prueba, que caracteriza a la investigación científica. De este modo, las decisiones basadas en el procesamiento automatizado de información suplantan a las decisiones basadas en el conocimiento científico o el debate jurídico, e incluso pueden ser tomadas por los propios robots.
Por otra parte, así como el “saber” basado en el procesamiento automatizado de datos por medio de los algoritmos abandona la búsqueda de hipótesis que guíen las investigaciones, del mismo modo las aplicaciones políticas de estos “saberes” parecen eludir la noción de “proyecto”, en cuanto concepciones que pueden experimentar fallos, derivar en crisis e interrupciones, producir desplazamientos y desviaciones y con ello hacer historia.
Bibliografía citada
Anderson, C. (2008). El fin de la teoría: El diluvio de datos ¿hará obsoleto el método científico? Tercera Cultura. Ciencia para el debate público.
Boltanski, L. (2009). De la critique. Précis de sociologie de l’émancipation. París: Gallimard.
Carroll, S. (2008). El fin de la teoría: La revolución de los “Grandes Datos” en la ciencia. Wired, 16, 7.
Derrida, J. (1997). La Farmacia de Platón, en La Diseminación. Madrid: Espiral.
Foucault, M. (2003). La verdad y las formas jurídicas. Buenos Aires: Gedisa.
Hayek, F. (1945). El uso del conocimiento en la sociedad. American Economic Review, XXXV, 4: 519-30.
Hempel, C. (1984). Filosofía de la ciencia natural. Buenos Aires: Alianza.
Kant, E. (1979) [1787]. Crítica de la razón pura. México: Porrúa.
Kaplan, F. (2011). Quand les mots valent de l’or. Le capitalisme linguistique. Le Monde diplomatique, 11, en www.monde-diplomatique.fr/2011/11/KAPLAN/46925.
Rouvroy, A. (2011). Pour une défense de l’éprouvante inopérabilité du droit face à l’opérationalité sans épreuve du comportementalisme numérique. Dissensus, 4, 4. En popups.uliege.be/2031-4981/index.php?id=963.
Rouvroy, A. & Berns, T. (2016). Gobernabilidad algorítmica y perspectivas de emancipación: ¿lo dispar como condición de individuación mediante la relación? Adenda Filosófica 1, 88-116.
Stiegler, B. (2015). La Société automatique. 1. L’avenir du travail. París: Arthème Fayard.
- Stiegler retoma y reelabora el concepto de “individuación” potencialmente infinita del ser humano de Simondon, pero reflexiona este concepto a través de la mediación técnica y de la noción de phármakon que extrae de Derrida. ↵
- Para Adolphe Quetelet (1796-1874), hay una excelencia de la media como tal. El más bello rostro es aquel que se obtiene tomando la media de los rasgos totales de una población, como la conducta más sabia es aquella que se aproxima mejor al conjunto de los comportamientos del hombre medio. ↵
- Luc Boltanski hace una distinción conceptual entre la “realidad” y el “mundo”. La realidad es lo que permanece y conserva su orden por su sola fuerza. El mundo, en cambio, como lo caracteriza Wittgenstein, es “lo que adviene” y conforma un fondo incierto, completamente irreductible a la realidad. Ver Luc Boltanski (2009). ↵
- Rouvroy distingue la predicción que realiza la ciencia a través del conocimiento de las cusas de los acontecimientos de la “prelación” (préemption), que es propia de las correlaciones que realiza el algoritmo, las cuales solo indican algo así como lo más “cercano” a un cierto evento, como lo primero que tomar en cuenta dentro de un cierto orden de correlaciones estadísticas. ↵






