Otras publicaciones:

saenz-gabini_frontcover1

9789877230024-frontcover

Otras publicaciones:

9789871354894_frontcover

9789877230253-frontcover

Inteligencia artificial y democracia

Daniel Innerarity

Frente a un discurso muy convencional que circula por el ambiente que plantea la necesidad de monetizar los datos, es decir que nos tienen que pagar por los datos, yo subrayo el hecho de que la realidad de los datos es una realidad nueva que no cuadra bien con la idea clásica de propiedad y esto se ve muy claramente cuando comprobamos que, por ejemplo, el nivel de protección de datos que yo doy por válido condiciona el nivel de protección de datos de los demás: hay muchos datos personales que si yo los revelo, revelan datos de otras personas (desde el punto de vista genético es muy claro, pero también existen otros ejemplos). Por tanto, y esto puede sonar muy revolucionario pero no lo es, yo creo que tenemos que ir a una especie de expropiación o de política común de datos más que a un esquema privado.

El tema que se plantea como transversal es el asunto de la inteligencia artificial desde la perspectiva de qué impacto puede tener en la democracia. Democracia cuyo núcleo normativo consiste en el gobierno del pueblo y por tanto la decisión colectiva. Y en este punto ya nos encontramos con un poderoso mecanismo o procedimiento que de alguna manera parece “subcontratar” nuestra capacidad de decidir, delegar nuestra capacidad de decidir, por tanto esto, de entrada, plantea no pocas preguntas de legitimidad. Yo creo que es un tema de enorme importancia que no podemos abordar con frivolidad, que tenemos que considerar con innovación, sobre todo conceptual, ya que podría generar algún inconveniente grave si no diseñamos bien el ecosistema de las decisiones políticas.

En el año 2013 la revista de tecnología del MIT tituló uno de sus números así: “Los grandes datos van a salvar a la política”; cinco años después, la misma revista, bajo la impresión del escándalo de Cambridge Analítica, pone en su cubierta “La tecnología está amenazando a la democracia, ¿cómo la salvamos?”. Como ven, en cinco años un panorama completamente distinto, hemos pasado del entusiasmo digital en el entorno de las primaveras árabes —y ahora más con una guerra que tiene como protagonista a Rusia— a pensar el espacio de internet como un espacio de intromisión.

Si preguntáramos por la calle con qué asocia la gente internet, a lo mejor hace diez años lo asociarían con la libertad de expresión y la horizontalización de la política; ahora mismo flota en el ambiente más bien todo lo contrario, una amenaza, una manipulación, una libertad para los discursos de odio, etcétera. Este vaivén, esta oscilación entre entusiasmo, a veces un poco ingenuo, y un pesimismo radical en el fondo se explica, como ocurre con otras tecnologías y con otras encrucijadas de la sociedad democrática, porque estamos ante un gran interrogante, no sabemos cómo va a evolucionar; no sabemos cuál va a ser nuestra respuesta, cuál va a ser nuestra capacidad; si la idea de control sigue teniendo sentido en entornos de robotización, de digitalización, de automatización; no sabemos cuál va a ser su impacto en el mundo del trabajo, estamos empezando a estudiarlo. Y por tanto esto, a mi juicio, explica la razón de esa oscilación entre la tecnofilia y la tecnofobia. Yo creo que frente a este vaivén tenemos que hacer una reflexión de fondo que se pregunte fundamentalmente por cuál es el lugar que le corresponde a la libre autodeterminación, a la capacidad humana de decisión en entornos parcial o altamente automatizados. Entornos en los que, por cierto, vamos a transitar a gran velocidad, no es algo que se pueda parar, no lo van a parar los Parlamentos, no lo van a parar los comités de ética, no lo vamos a parar las universidades, esto es algo que tenemos que acompañar. Es un proceso que, además, no debería estar presidido por ideas de tipo de control o prohibición, sino más bien de capacidad de configurar un ecosistema en el que lo tecnológico evolucione acompañado, críticamente en ocasiones, con los valores, con el derecho, con la protección de bienes comunes, como la naturaleza (por cierto donde también la digitalización tiene un impacto bastante negativo).

En aquel famoso discurso de Gettysburg, Abraham Lincoln decía que la democracia era un sistema de gobierno en el cual el pueblo estaba presente como el propietario, como el sujeto y como el destinatario de la acción política. Me gusta decir que necesitamos un discurso de Gettysburg para la era de la democracia artificial, que no lo tenemos. No sabemos qué significa “del pueblo”, “por el pueblo”, “para el pueblo” en la época de la inteligencia artificial, sabemos que a eso no queremos renunciar (no creo que haya nadie en su sano juicio y con sensibilidad democrática que quiera renunciar a esos tres grandes principios), pero tampoco sabemos muy bien cómo pronunciar este discurso, quién lo tiene que pronunciar, en qué términos, qué significa el pueblo, ese pueblo que tiene esas tres funciones en una democracia digitalizada, en un entorno digital.

Estamos ya, de hecho en buena medida, gobernados algorítmicamente. Cuestiones como la regulación del tráfico, la concesión de un crédito, la medición de los impactos y muchas medidas administrativas están mediadas por algoritmos. Estamos metidos en procesos en los cuales cada vez más va a haber decisiones automatizadas, robotizadas, digitalizadas, y si yo tuviera que juzgarlo ahora mismo, diría que es una cosa buena sobre todo porque es una ingenuidad pensar que podemos hacer frente a la complejidad del mundo sin la ayuda de un gran impulso tecnológico. Necesitamos más tecnología, no menos, ese sería mi punto de partida porque no soy ningún pesimista ni ningún tecnófobo, más bien me inclino por lo contrario. Creo que tenemos necesidad de que la tecnología, el conocimiento, los datos nos ayuden a tomar mejores decisiones.

La cuestión que esto nos plantea es que estamos hablando de política, y concretamente de política democrática, es decir, una política en la cual el pueblo y sus representantes, o la sociedad humana en su conjunto, tiene que tomar las decisiones, y no máquinas. Entonces, seguramente, no es muy razonable partir de una oposición entre humanos y máquinas, porque se entiende mal el ecosistema que estamos configurando si lo pensamos como dos enemigos, David contra Goliat (depende de a quién consideremos cada cual, dónde se quiera poner cada uno), cuando no son dos cosas completamente distintas; los humanos somos ya tecnología, la tecnología está humanizada desde que empezó la historia de la humanidad y creo que no es buen punto de partida su radical oposición, pero sí es verdad que esto plantea muchas promesas y límites.

Las promesas son bastante evidentes: los algoritmos prometen una gran objetividad en lugar de los humanos llenos de prejuicios y con sesgos ideológicos. Vienen a decir los defensores de esta tecnología: “ahora vamos a poder medir bien, vamos a poder analizar y especificar e identificar bien las demandas sociales, las preferencias, los intereses de la gente sin las gafas ideológicas que los deforman, y además vamos a ser capaces de responder en tiempo real a los deseos de la gente”. Hay quien ha propuesto que, en lugar de votar cada uno de nosotros, podría llegar un momento en que el Siri y el Alexa votaran por nosotros. Y eso no es una tontería, es un desafío para pensar, porque Siri y Alexa nos conocen mejor que nosotros a nosotros mismos, nosotros nos conocemos muy mal. Siri y Alexa monitorizan nuestro comportamiento, nuestro consumo, nuestra movilidad, nuestra actividad en las redes sociales, etcétera, y tienen además la capacidad de leerse todos los programas electorales (cosas que casi ninguno o ninguno hacemos), conocer a todos los candidatos, etcétera. Entonces por qué no delegar en Siri y Alexa esa capacidad, ¿no lo harían mejor que nosotros? ¿No sabrían qué es, en el fondo, lo mejor? ¿Qué es lo que nos conviene? Y además todo esto lo podríamos hacer midiendo mucho mejor el impacto de las políticas públicas. Esto efectivamente es una gran ventaja, pero tiene muchos obstáculos, de los cuales me limitaré a mencionar tres.

Fundamentalmente, ese cómodo paternalismo de las sociedades algorítmicas consiste en que nos da a nosotros lo que queremos; nos ofrece, a través de una economía que identifica muy bien nuestras preferencias, lo que supuestamente deseamos, pero si eso lo trasladamos a la política, no sería muy grave si no fuera por el hecho de que esas prestaciones suelen suponer el sacrificio de alguna esfera de libertad personal, y aquí ya entramos en un terreno peligroso, cuestionable desde un punto de vista democrático.

Además, habría otro asunto que me parece muy relevante: es verdad que la digitalización y los algoritmos satisfacen muchos de nuestros deseos, es verdad que nos dan muchas veces lo que queremos, nos ofrecen productos, servicios, etcétera, pero creo que uno de los puntos más cuestionables de esto es que esa prestación se realiza a cambio de una cierta renuncia a reflexionar sobre esos intereses y sobre esos deseos. Los Parlamentos son, precisamente, un lugar de reflexión acerca de nuestros intereses; desde mi punto de vista no son un lugar de negociación de intereses establecidos (o no solo eso), sino que también son un lugar de descubrimiento y de reflexión acerca de nuestros intereses porque puede ser que entremos en la Cámara con un interés ya prefijado y en el diálogo con otros, un diálogo a veces intenso y conflictivo, descubrimos, matizamos o pensamos la compatibilidad de ese interés, el interés de otros, y sobre todo pensamos en el tipo de sociedad al que nos queremos dirigir. Una Cámara es un lugar de reflexión, y estamos hablando aquí de mecanismos que tendencialmente nos arrebatan o limitan esa capacidad reflexiva porque suponen automatismos, nos lo dan a cambio de nada, de alguna manera sustituyen la voluntad explícita de la ciudadanía por la voluntad implícita del consumidor. Creo que mantener esta distancia es muy importante.

Hoy en día la política se hace con una lógica de consumidor en muy buena medida (en mala medida, diría) pero eso no justifica que sacrifiquemos el modelo y la idea de que un ciudadano no es un consumidor, no es exactamente un consumidor aunque a veces se lo parece y aunque a veces lo tratemos como si se pareciera.

Otro de los grandes límites de la gobernanza logarítmica tiene que ver con el hecho de que el análisis de datos sobre el que se basa parte de la idea de que el futuro será lo más parecido al pasado, es decir, todas las previsiones de los algoritmos (que tienen su alimentación en los datos del presente y del pasado porque no hay datos futuros) dan por supuesto que nuestras preferencias futuras van a estar en continuidad con nuestro comportamiento anterior. Eso, en muy buena medida, es verdad; generalmente los humanos nos comportaremos dentro de un tiempo como nos comportamos ahora pero en la vida personal y en la vida colectiva hay cambios, hay transformación, hay rupturas, hay revoluciones (o como la queramos llamar), y eso no queda bien registrado en los datos. Suelo poner un ejemplo que nos resulta un poco incómodo pero creo que es verdadero: si hoy en día entráramos en YouTube y buscáramos videos de cómicos de hace 20 o 30 años seguramente nos avergonzaríamos de pensar que algunas cosas nos hicieron entonces gracia. Había mucho componente en el sentido del humor de, por ejemplo, desprecio machista, y a lo mejor esas cosas hace 30 años nos hacían una cierta gracia y nos han ido dejando de hacer gracia y ahora nos parecen abominables. Eso significa que en este punto nuestras sociedades han tenido una gran transformación. Como experimento mental imaginemos que ningún gobierno del mundo hubiera tomado ninguna medida para contravenir esta tendencia, imaginémonos que no hubiera habido una lucha feminista tan constante y tan persistente en estos últimos 30 o 40 años, imaginemos por tanto que los algoritmos del presente se siguieran alimentando con datos del pasado, hoy tendríamos unos algoritmos que serían absolutamente machistas (en parte lo son pero lo serían muchísimo más), ¿cómo se explica este cambio? Este cambio se explica porque ha habido una voluntad expresa de cambio, de ruptura con un pasado que nos avergonzaba, que nos parecía que era algo de lo que había que huir.

Por tanto, aquí habría un gran tema, la gobernanza algorítmica es una gobernanza que muy fácilmente puede conducir hacia una oclusión del futuro. Decía Shosana Zuboff que los algoritmos no nos pueden robar el futuro  y yo lo pongo siempre en relación con una gran filósofa del siglo XX, Hannah Arendt, cuando decía que los seres humanos nos caracterizamos fundamentalmente porque tenemos la capacidad de hacer cosas nuevas, ella hablaba incluso de milagros, de generar novedades no previstas, imprevisibles. Ese carácter imprevisible del comportamiento humano, que puede ser muy angustioso por otro lado, al mismo tiempo es lo que hace de la historia humana un espacio abierto y de la democracia un sistema político abierto a la novedad, al cambio, a la alternativa. Deberíamos pensar, cuando estamos hablando de democracia algorítmica del gobierno o de gobernanza algorítmica, cuál es el lugar que le corresponde al verdadero futuro, no al futuro como mera prolongación o extrapolación del presente o del pasado, sino al futuro radical; alguna dimensión de ruptura, de transformación, de cambio o por lo menos su posibilidad hay que dejarla abierta incluso aunque pensemos que estamos en un sistema político bien gobernado con unas instituciones sólidas.

Cuando se habla de la robotización del trabajo, flota en el ambiente la idea de “reemplazamiento” y la amenaza (percibida como real por sectores muy concretos de nuestra sociedad) de ser sustituidos, simplemente reemplazados. Esto que pasa con el trabajo no es muy correcto como sentimiento porque las máquinas reemplazan tareas pero no ocupan puestos de trabajo, son dos cosas distintas: una cosa es el task y otra cosa es el job, una cosa es el puesto de trabajo y otra cosa es la tarea, y esa diferenciación es importante.

Con esto no quiero desdramatizar el hecho de que la digitalización, y la automatización y robotización del trabajo van a implicar unos enormes sacrificios a cambio de unas enormes promesas, pero debemos pensar muy bien cómo se realiza ese cambio y sobre todo qué sectores de la sociedad van a soportar más negativamente esta transición, precisamente para protegerlos. Porque son transiciones, como lo está siendo la transición ecológica que también ha tenido sus réplicas negativas, estoy pensando en la protesta de los chalecos amarillos en Francia que se ha extendido hasta las elecciones presidenciales con un rebote que tenemos que interpretar, fue una protesta de algunos sectores del ámbito rural que no se sentían bien protegidos ante el aumento de los impuestos, del diesel principalmente, que era fundamental para tareas agrícolas.

Es verdad que hay cosas con las que habrá que pagar más impuestos y habrá que poner incentivos o desincentivos para ciertos modos de consumir, pero también es cierto que a quién va a ser más afectado por esto le debemos dar una respuesta que consista, primero, en una protección específica y segundo, en una conciencia de que los costes y los beneficios se van a repartir de una manera equitativa.

Entonces me parece que hay en el ambiente alguna idea, un poco exagerada, de que en el fondo lo que se va a producir con la digitalización, con la inteligencia artificial es una gran sustitución. Estábamos los humanos y ahora va a haber máquinas; donde había trabajadores, va a haber robots; donde había diputados y diputadas, va a haber algoritmos que toman decisiones. Esta idea de una enorme y gigantesca sustitución me parece que es completamente equivocada, tenemos que pensar con un poco más de finura el paisaje al que nos dirigimos, que es un paisaje de hibridación entre lo humano y lo tecnológico, qué tipo de hibridación, con qué costes, con qué beneficios… Es un asunto que habrá que discutir pero me parece que es mucho más interesante y mucho más productiva intelectualmente la idea de hibridación, lo cual no significa que no genere graves inconvenientes, problemas de justicia, de desequilibrio, etcétera, sobre los que tenemos que estar muy atentos, y muy especialmente el Poder Legislativo, pero me parece mucho más interesante esto que pensar en términos de una sustitución, porque si hubiera tal sustitución, entonces sólo podríamos estar a favor o en contra.

El origen de esto, esta sería mi tesis, es que nos encontramos ante dos tipos diferentes de inteligencia y de decisión: la inteligencia humana y la inteligencia artificial. Personalmente todavía no sé por qué la seguimos llamando así, no tengo ninguna propuesta de sustitución pero me parece que ni es tan inteligente ni es tan artificial, la inteligencia artificial es mucho más material de lo que parece, lo que pasa es que tenemos un lenguaje muy espiritualista cuando hablamos de inteligencia artificial: hablamos de la nube como si la nube fuera eso, una cosa atmosférica, y la nube es un lugar específico, que por cierto consume muchísima energía, generamos una enorme basura digital, tiene un coste energético brutal, y ahí no está mirando casi nadie pero es un asunto muy importante. Y la inteligencia artificial tampoco es tan inteligente, es decir, en el fondo, me parece que la inteligencia artificial es muy hábil, es imbatible en relación con la inteligencia humana para un tipo de problemas y muy torpe para otros, y lo que sería la fórmula del éxito es que acertáramos a identificar bien para qué asuntos es muy inteligente la inteligencia artificial y para qué otro tipo de asuntos somos muy inteligentes los humanos, con todos nuestros defectos y nuestras limitaciones. Y al revés, que hiciéramos un catálogo muy preciso de los errores típicos de la inteligencia artificial y otro catálogo de los errores humanos porque siempre los humanos cometemos el mismo tipo de errores. Si acertáramos y —en cualquier asunto, un trabajo, una proposición legislativa, una medida de gobierno— consiguiéramos que los errores de unos se compensaran con los errores de otros, o que la inteligencia de uno colaborara con la inteligencia del otro, si tuviéramos un buen ecosistema de inteligencia artificial, esto sería un éxito impresionante en la historia de la humanidad.

Estamos convocados a esta tarea, no a pensar en términos tecnofílicos o tecnofóbicos, tenemos que dejar el miedo a un lado, tenemos que pensar muy bien cómo realizamos esta transformación porque es verdad que la inteligencia artificial nos puede ayudar a, por ejemplo, desideologizar un poco la política. Tenemos una política muy ideologizada, muy polarizada se suele decir, y es posible que una cierta desideologización de la política estaría muy bien, y se podría realizar a través de decisiones más automatizadas y algoritmos más precisos.

Ahora bien, pensemos que hay gente que cuando habla de desideologizar la política en el fondo lo que está pensando es despolitizar la política. Hay gente que a veces dice: “a mí me da igual que gobierne la izquierda a la derecha, lo que quiero es que se gobierne bien”. Y uno se queda perplejo ante esa afirmación, como diciendo “¿y me explicas cómo el calificativo de bueno aplicado a la política tiene sentido si no es con una cierta referencia ideológica?”. Los humanos hemos soñado siempre con la objetividad pero tenemos una subjetividad que ha explicado nuestra instalación en el mundo y que nos hace diferentes, nos hace también ideológica y políticamente diferentes y eso no se va a superar, y además creo que es bueno que siga ahí porque la diversidad de puntos de vista, la variedad de alternativas es mucho más importante que el consenso y el acuerdo.

Hay dos maneras distintas de pensar y de decidir, las máquinas piensan muy bien cuando hay que pensar linealmente. Una máquina necesita muchísimos datos para la toma de decisiones, en cambio los humanos somos capaces de tomar buenas decisiones en entornos de ambigüedad, de incertidumbre y con pocos datos. En estos casos los humanos no somos comparables a las máquinas, una máquina no es capaz de tomar una decisión si no ha examinado todas las posibilidades. Pensemos en el juego del ajedrez o el go, para los cuales las máquinas necesitan realizar una cantidad de operaciones de la que nosotros no somos capaces, ni siquiera mentalmente, y por eso nos ganan; pero eso no significa que sean más inteligentes, significa que son capaces de un mayor procesamiento de datos, lo cual no es exactamente lo mismo. Ahora bien, si pusiéramos a una máquina y a un humano a tomar una decisión importante en un entorno de pocos datos, ambiguo, borroso, incierto, con grandes incertidumbres, ¿a quién preferiríamos para decidir? Sin duda los humanos decidiríamos mejor.

Para quitarle a todo esto carácter abstracto pondremos el ejemplo de una de las decisiones que en las historias de los seres humanos tiene mayor trascendencia, que es la de tener una pareja o casarse. Es una decisión que los humanos tomamos en medio de un contexto informativo bastante deficiente y con pocos datos y nos sale bastante bien. Cuando en España se introdujo la ley del divorcio mi madre me dijo: “¡Qué horror! He leído en el periódico que esto va a suponer que no van a sobrevivir más que la mitad de los matrimonios”, y mi respuesta para tranquilizar a mi madre fue: “¿Y no te parece que el porcentaje de éxito es bastante alto teniendo en cuenta el tiempo, la información, los datos que nos hemos tomado para una decisión tan relevante?”. Creo que no convencí a mi madre pero me convencí a mí mismo de que había que seguir reflexionando, en el fondo, sobre dos maneras de decidir.

Ahora que somos tan negativos en relación con los sesgos humanos, los prejuicios de los seres humanos a la hora de tomar decisiones y nuestras limitaciones, hay que reconocer que hay cosas para las cuales los humanos somos bastante buenos: por ejemplo, para todos aquellos asuntos que no funcionan con una lógica 0-1, en la que no hay una cantidad de datos, lógicas binarias, etcétera.

Eso tiene mucho que ver con la política, porque lo más propiamente político de la política es la decisión en entornos de ambigüedad. Maquiavelo y el elogio que hace de los grandes personajes de la antigüedad romana tiene que ver con esta propiedad; fueron personas que tuvieron la inteligencia, el olfato, la empatía, la sensibilidad, la intuición de tomar decisiones correctas en espacios de poca información, gran ambigüedad, de mucha incertidumbre y mucho riesgo. Esto en filosofía lo llamamos contingencia, es decir, buena parte de las decisiones políticas, las decisiones más políticas de la política (dejo a un lado la parte técnica que tiene más que ver con decisiones de tipo administrativo) son decisiones que se toman sin que haya una abrumadora cantidad de datos. Pocas veces un político toma decisiones sin un porcentaje de riesgo, y cuando se trata de decisiones específicas de políticas (de esas que son claves en el futuro de una sociedad), son decisiones para las cuales hay muy pocos datos, hay una gran ambigüedad y, en general, todo el mundo escapa de ese tipo de decisiones.

Termino con una reflexión: creo que lo más específico de la política es aquello que hay que decidir una vez que hemos considerado todas las variables, y sigue sin estar claro qué es lo que hay que decidir. Esta sería mi definición de la política, lo cual es perfectamente compatible con el hecho de que un político sería irresponsable si no se hiciera asesorar de la ciencia, de los expertos, de la tecnología, del saber que hay  condensado en una administración; todo eso tiene que formar parte, cada vez de una manera más creciente, del sistema político.

Creo que la complejidad del mundo en el que estamos no nos permite la frivolidad de confiar muchas decisiones al olfato de personas singulares. Creo mucho más, y mi teoría de la democracia compleja apunta en esa dirección, en sistemas, en procedimientos, en instituciones inteligentes que en personas inteligentes. Si pudiéramos prescindir de las personas inteligentes no pasaría mucho pero de lo que no podríamos prescindir es de los sistemas inteligentes y por tanto lo que nos tenemos que preguntar es: este país, esta cámara, este gobierno, esta cultura política, ¿es inteligente o es estúpida?

Para que un sistema funcione bien no hace falta mucha virtud por parte del gobernante; lo que hace falta son instituciones que funcionen, que vigilen, que tengan transparencia, que establezcan protocolos en los cuales el mal comportamiento sea automáticamente castigado, o ni siquiera se produzca porque no vale la pena, porque el propio sistema lo impide. Por consiguiente, creo que esta parte de la política —que sería la decisión última adoptada cuando ya hemos examinado todos los datos y todavía sigue sin estar claro lo que hay que hacer, cuando ya las máquinas han reducido mucho la complejidad— es una parte para la cual los humanos no vamos a poder ser sustituidos nunca por las máquinas, o, si lo somos, lo seremos con una gran deficiencia en la calidad de nuestros sistemas políticos.



Deja un comentario