Otras publicaciones:

DT_Descola_Tola_lomo_3.5mm

estudiarpolicia

Otras publicaciones:

9789871867530-frontcover

9789871867936_frontcover

Nuevas tecnologías y democracia

Cecilia Nicolini

Cuando analizamos el impacto de la tecnología en la democracia, encontramos que la sociedad suele tener una posición bastante dicotómica. Lo que tenemos que pensar es que la tecnología es una herramienta más. Y como tal, obviamente, siempre depende de cómo la usemos, diseñemos y regulemos para poder aprovechar las numerosas ventajas que puede tener para construir sociedades más justas, igualitarias y, sobre todo, con soberanía.

En una investigación del Instituto Pew de Estados Unidos, varios expertos hablan sobre el impacto de la tecnología de acá al año 2030, y sobre cómo va a erosionar nuestras democracias, a partir de tres puntos fundamentales.

Primero, plantean que, de alguna manera, las tecnologías pueden distorsionar la realidad. Esto se refiere principalmente a las fake news, las deepfake y toda la cuestión de la infodemia: la sobrecarga de información que tenemos al momento de informarnos. El segundo punto aborda el declive del periodismo: cómo una función tan fundamental en nuestras democracias como es el periodismo e informarnos, de alguna manera, también está en declive. No solamente por una cuestión económica o de cambio y transformación de la plataforma económica hacia cuestiones digitales, sino también en función de la inversión para trabajar. El tercer punto habla del famoso “capitalismo de vigilancia”, la idea de que nuestros datos y nuestra trayectoria digital o lo que hacemos en las redes se pone a disposición del mercado, es decir que se vende.

Así como tenemos esa postura más negativa en relación con la tecnología, hay otro sector más optimista que cree que aún estamos a tiempo de regularla y de que realmente se vuelva una aliada para fortalecer nuestras democracias y pelear contra estos propagadores de fake news y todo el caos que se genera. Para ver cómo va a impactar en los próximos años, en qué tenemos que ponernos a trabajar y cómo generar las herramientas para poder defendernos, tenemos que ver un poco qué pasó en los últimos diez años y así poder identificar esas amenazas.

Podemos volver a una imagen del año 2011 donde encontramos la Primavera Árabe, el movimiento del 15M en Madrid, llamado también “Movimiento de los Indignados”, o el Occupy Wall Street en Nueva York, donde las tecnologías, de alguna manera, se aliaron con la ciudadanía para derrocar tiranos, para exigir transparencia, para permitir grandes movilizaciones y exigir más y mejor democracia. Pero la realidad es que en los últimos tres años, con el escándalo de Cambridge Analytica, la proliferación de fake news y los ejércitos de trolls, pareciera que la tecnología estuviera destrozando la política y nuestras democracias más que salvándola o siendo aliada como lo era hace varios años. Entonces, lo que hay que plantear es qué pasó en estos últimos años, qué se dejó de hacer para que la tecnología genere esa transformación.

La socióloga turca Zeynep Tufekci plantea que el poder aprende rápido y que las herramientas poderosas, en este caso las tecnologías y las redes sociales, suelen caer en sus manos para dominarlas. En una de las portadas de la revista MIT Technology Review del Instituto Tecnológico de Massachusetts, ya desde 2013, se hablaba de la tecnología como una gran aliada y de que a través de los celulares, Internet y toda esta distribución de información podríamos derrocar tiranos y salvar la democracia. Solamente cinco años después, la misma revista, con otra tapa, plantea que la tecnología es una gran amenaza para nuestras democracias. Ahí es donde, de alguna manera, tenemos que pararnos a pensar para entender qué es lo que pasó, cómo pasaron estas herramientas digitales −útiles para conseguir derechos, cambios políticos− a facilitar la polarización, el racismo, la xenofobia o incluso llegar a influir en elecciones de otros países. En los últimos años, líderes de Google, Facebook y Twitter tuvieron que presentarse ante el Congreso de los Estados Unidos para rendir cuentas no solamente sobre prácticas monopólicas, sino también sobre su influencia en diferentes procesos electorales.

Hay investigaciones interesantes que hablan, por ejemplo, de plataformas como YouTube, en donde el algoritmo (que es una configuración de la o las tendencias que pueden intuir el comportamiento de una persona para tomar una decisión en las redes) comprende cuáles son los gustos, los intereses de acuerdo con las selecciones de cada uno, para, en consecuencia, recomendarle diferentes contenidos relacionados a lo que le gusta. Un estudio de The Wall Street Journal demostró que el algoritmo diseñado por YouTube va recomendando, por lo general, contenido cada vez más extremo respecto de los temas que uno va viendo. Por ejemplo, si a uno le interesa el medio ambiente, el siguiente video puede ser sobre veganismo, el siguiente sobre protestas y el siguiente puede ser sobre dietas radicales para solamente comer una verdura en particular. Son posiciones extremas, que no significa mejores o peores, pero posiciones extremas de algo.

Pero en el caso, por ejemplo, de la elección de Donald Trump en el año 2016 o de los contenidos relacionados con Donald Trump, el algoritmo va recomendando posiciones cada vez más extremas sobre cuestiones relacionadas con la xenofobia, etc. Entonces, lleva a contenidos relacionados con la extrema derecha, con la alt-right extrema en Estados Unidos, etc. Lo que indica, de alguna manera, cómo se empiezan a polarizar contenidos en las redes.

Muestra de interacciones en Twitter de diferentes perfiles en Estados Unidos.

En Twitter también se hicieron bastantes análisis, y una de las cosas más interesantes es cómo están distribuidas nuestras interacciones. Dentro de una muestra de las interacciones en Twitter de diferentes perfiles en Estados Unidos, si vemos el plano vertical izquierdo, en azul, están todas las cuentas relacionadas −cuánto más cercano al cero− con el progresismo, con los demócratas o con ciertas ideas en Estados Unidos. Luego en el eje y pueden verse la cantidad de interacciones que se tienen por día. Entonces, cuanto más cerca de los extremos, al cero o al uno, ya sea hacia la izquierda o a la derecha en términos de los contenidos de esas interacciones, mayores interacciones tienen esas cuentas. Esto muestra, en cierto modo, que todos los espacios neutrales, moderados o donde se pueden generar consensos, casi no tienen interacciones. Mientras que los extremos están “gritando” en las redes sociales, el centro de alguna manera lo que hace es “susurrar” sus ideas. Esto es lo que genera que estos espacios, que tienen gran influencia en las conversaciones y en la construcción de la agenda pública, especialmente en períodos electorales donde se vuelve cada vez más usada como una herramienta también de influencia, puedan generar algún tipo de desafío.

Un caso paradigmático, realmente muy evidente en América Latina, fue la elección de Brasil en el año 2018 con Bolsonaro. Allí se vio una especie de laboratorio o experimentación sobre todo con la red social WhatsApp. Brasil es el segundo país del mundo que más utiliza WhatsApp después de Filipinas, por lo que nos encontramos con una masa de usuarios enorme. Por otro lado, el 90% de los brasileños comparte más de 30 noticias por día, y casi todos se informan a través de estas plataformas. Otra cuestión interesante es que, además, 6 de cada 10 personas creen las noticias que leen en WhatsApp. Entonces la campaña de Bolsonaro volcó casi toda su estrategia digital a la construcción de noticias falsas a través de WhatsApp, generando unas redes de proliferación de esta información como nunca se ha visto en la historia de las últimas campañas. Así, hay una gran variedad de contenidos relacionados con denuncias muy graves, que en ciertos casos se pueden llevar a una corte: temas relacionados con el candidato opositor Hadad sobre pedofilia, sobre cuestiones religiosas, entre otras, proliferaban en todas las redes y generaron una influencia muy sofisticada a la hora de ciertos sectores populares y socioeconómicos de decidir su voto. Incluso cuando Bolsonaro fue apuñalado durante la campaña, hubo una foto muy graciosa donde aparecía una cara photoshopeada en el atacante, para decir que la persona que lo había apuñalado era seguidora de Lula y que había participado en su campaña.

Todo esto genera una situación que lleva a preguntarnos qué está pasando en las elecciones, cómo influyen estas cuestiones en las elecciones, etc. Lo hemos visto también en las elecciones de Argentina del año 2019, con estos ejércitos de trolls, bastante menos sofisticados, con sus frases que incluso no se entendían, bastante risueñas, pero que ponían de manifiesto la inversión que se hace también en este tipo de técnicas.

Lo que más nos preocupa ahora, más allá de que esto lo podemos ir analizando y haciendo más evidente, es lo que se viene: ¿cómo se están utilizando las nuevas tecnologías, sobre todo la inteligencia artificial, para poder crear nuevas realidades o nuevos contenidos que la gente pueda creer?

En un proyecto de la Universidad de Berkeley que se llama Everybody Dance Now,[1] podemos ver cómo la tecnología nos permite crear nuevas realidades y, sobre ellas, agregar lo que queramos. Lo interesante es que a través de un bailarín profesional y trabajando con la inteligencia artificial, el sistema detecta la pose del bailarín y luego, tomando la figura de personas que no saben bailar, puede configurar un nuevo video, una nueva placa con estas personas bailando exactamente igual que el original. Este avance es interesantísimo, sobre todo porque además trabaja sobre movimientos casi imperceptibles como los del ballet clásico. Y si bien uno podría decir que no es perfecto, genera mucha preocupación.

La máxima preocupación que genera es cómo se puede utilizar para campañas políticas. Por ejemplo, se puede tomar la cara y la boca de Obama, ser capaces de identificar los movimientos y agregar a una persona que imite su voz para hacerle decir lo que sea. Una de las creadoras de este tipo de video con inteligencia artificial nos dice que con estos avances uno puede también desarrollar las técnicas que permitan identificar este tipo de video cuando proliferan en la red. Pero la gran preocupación es que, por lo general, cuando nosotros vemos un contenido que creemos que es verdad, luego, aunque nos digan que es falso, la percepción que nos queda sobre ese contenido que vimos o leímos −que activó una parte del cerebro que de alguna manera lo va recogiendo y generando información residual− es que, si bien no lo creemos, de cierto modo luego vamos a estar más predispuestos a consumirlo o a creerlo.

Es decir, de alguna forma, va horadando o erosionando también la confianza, la creencia o incluso influyendo en las decisiones de las personas, sobre todo a nivel electoral. Es uno de los temas que más están trabajando los investigadores en la actualidad, porque si bien todavía la tecnología es un poco torpe y se está desarrollando, la velocidad con que se desarrolla es lo que genera que en el mediano o largo plazo pueda tener realmente un impacto bastante grande. Hay una frase que dice que “solemos sobreestimar la tecnología en el corto plazo”, decimos que va a pasar todo mañana o pasado y cuando no sucede la subestimamos, pero en el largo plazo todas estas transformaciones suelen suceder. Entonces, lo importante es ir siguiéndola y ver qué podemos hacer para modificar la situación.

Hablábamos antes de la cuestión de la inteligencia artificial, que ahora es una de las vedettes de la tecnología. La realidad es que todavía todo lo que es automatización o aprendizaje de las máquinas para poder repetir patrones está avanzando muchísimo, pero se basa, principalmente, en la inteligencia especializada más que en la inteligencia general, que es la que tienen los seres humanos y que realmente puede permitir muchas interconexiones, emociones y demás cuestiones que todavía nos dejan un paso mucho más delante de la tecnología. Sin embargo, la inteligencia artificial nos permite, de alguna manera, trabajar en algo en que nosotros no somos muy buenos, como es la memoria o la capacidad de analizar una enorme cantidad de datos a una velocidad muy grande. Ahí está el gran desafío.

El problema es que ahora se están utilizando algunos softwares con inteligencia artificial en ciertas políticas públicas muy importantes que tienen impacto en la sociedad, pero no se están teniendo en cuenta los sesgos. En inglés se llaman biases de la inteligencia artificial: ¿cómo puede impactar de forma negativa con sesgos, por ejemplo, de raza, de género y de religión? Por ejemplo, un caso muy problemático sucedió en una corte de Estados Unidos, en donde se utilizaba una técnica de inteligencia artificial para poder ayudar a los jueces a impartir condenas a posibles reclusos reincidentes, y esa inteligencia artificial solía recomendar elevar las penas por posible reincidencia en mayor medida a personas de color o personas negras que a personas blancas. Claramente era una inteligencia artificial racista porque se basaba en el color de piel para poder recomendar una pena más alta. De esos hay un montón de ejemplos, como Amazon, que utilizaba un algoritmo para poder identificar posibles empleos para las personas que aplicaban. Los mejores empleos, relacionados con ciencias más duras, con ingenierías o con salarios más altos, solían dárselos también a hombres blancos y de determinado sector social: Amazon tuvo que pedir disculpas y dar de baja ese algoritmo.

Este es uno de los grandes desafíos que se están debatiendo y que en Argentina es necesario que se empiecen a debatir: qué es y cómo regular el diseño de la inteligencia artificial en términos de que esos sesgos no impacten de manera negativa en la población y no amplifiquen las desigualdades que ya tenemos a partir de estos prejuicios de género, de raza, del lugar donde habitamos geográficamente, del nivel socioeconómico, etc. También hay que empezar a investigar cómo trabajar en la regulación del diseño de estas herramientas tecnológicas para que, cuando influyan en la toma de decisiones, no solamente de funcionarios públicos, sino también en el sector privado, sean lo más neutrales posible. Porque, como se mencionó al inicio, la tecnología per se es neutral. Ahora bien, las personas que están trabajando para desarrollar o diseñar esa tecnología no son neutrales, vienen con sus propios sesgos. El desafío es, entonces, cómo hacemos para intentar que esos sesgos no influyan en el diseño de esas tecnologías.

Otro de los grandes temas también, y que en Argentina se empezó a debatir sobre todo en la Ciudad de Buenos Aires, tiene que ver con la cuestión de la hipervigilancia: cómo usamos la tecnología para vigilar a los ciudadanos y hasta qué punto tenemos que regularlo.

En cuanto a la hipervigilancia y el reconocimiento facial, hay un ejemplo de un comercial chino de venta de tecnología que muestra un sistema de compra contactless a través de reconocimiento facial en medio de un centro comercial. Sobre todo por la cuestión del coronavirus, donde se prefiere la utilización de todo lo que sea contactless o con el menor contacto posible con el personal o con el público, ahora se ha puesto muy de moda esa modalidad, saltándose un poco los debates o discusiones que se debían dar, y se han logrado muchos progresos. Lo que demuestra el comercial son los avances de la potencia del reconocimiento facial incluso cuando uno se pone pelucas, se maquilla o intenta pasar desapercibido como otra persona. Lo que dice es “no te preocupes, que la tecnología igual te identifica, pongas lo que te pongas”. Acá es donde tenemos que dar el debate sobre la cuestión de este tipo de vigilancias en las ciudades, en los espacios públicos.

Y esto se relaciona con lo previamente mencionado sobre los sesgos que tienen los algoritmos con los que diseñamos. Hemos visto, también, ciertos casos de detenciones de personas en la calle por reconocimiento facial a través de una cámara. Este también es uno de los temas relacionados con tecnología y la inteligencia artificial que hay que abordar y trabajar. Había una frase muy interesante del entonces primer ministro de Finlandia y que la mencionó la primera ministra de Finlandia cuando hablamos con ella, que decía que por más que no seamos países potencia en términos de desarrollo de tecnología −aunque tenemos nuestro desarrollo no somos los países de punta en este sentido−, lo que sí tenemos que tener en cuenta es, por un lado, informar a las personas que toman las decisiones y, principalmente, regularlo, entender también cuál es el impacto que puede tener en nuestra sociedad y de qué manera lo va a hacer.

Hay cuatro temas que se deben discutir. Uno, que es fundamental, es la cuestión del voto electrónico: la tecnología está avanzando, pero todavía no estamos listos para todo lo que tenga que ver con este tipo de voto. Si bien el voto por correo puede ser una catástrofe, como hemos visto ahora con la elección de Estados Unidos, debemos trabajar mucho y no dejarnos guiar tampoco por el optimismo tecnológico, porque ni siquiera estas plataformas de distribución de información son lo suficientemente seguras o avanzadas como para garantizar que el voto, entre otros temas, pueda ser más seguro utilizando tecnología. Es un desafío que tenemos que tener en cuenta.

Otra de las cuestiones relevantes son los bots. Hablamos mucho de los trolls, con los que tal vez todos nos hemos encontrado en las redes, son personas, por lo general, que están detrás de perfiles falsos y que buscan instigar o polarizar los debates en las redes. Los bots, en cambio, son como la nueva generación de automatización de estos trolls y pueden, entonces, retwittear o favear comentarios y así polarizar esas conversaciones, como decíamos antes cuando hablamos de Twitter.

Lo que más preocupa es cómo una tecnología como el reconocimiento de voz o el procesamiento natural del lenguaje (NLP en inglés) involucra, por lo general, sistemas de software de inteligencia artificial que se van entrenando cada vez más con las conversaciones. Quiero decir: el procesamiento natural del lenguaje es la capacidad que tienen, por ejemplo, los teléfonos cuando hablamos con Siri, con Cortana, o también los asistentes virtuales en nuestras casas. De alguna manera, dichas tecnologías utilizan todas estas conversaciones para ir entrenando algoritmos con el propósito de que, en cierto modo, puedan ir entendiendo cómo es el procesamiento natural del lenguaje de las personas. En última instancia, para que en algún momento esos bots que nos atienden no solamente respondan frases hechas como un asistente virtual de un comercio o un banco, sino que incluso puedan argumentar y responder a cuestiones bastante más elaboradas utilizando incluso la ironía, las diferentes percepciones o el estado de ánimo emocional de las personas.

Se están haciendo bastantes ensayos en algunas selecciones, con cierta preocupación, sobre la posibilidad de que estos bots salgan a las redes a convencer a las personas que presentan un tipo de vulnerabilidad por una u otra opción política. Y es ahí donde tenemos que decidir hasta qué punto ese tipo de técnicas son éticas y las podemos permitir para influir en las decisiones, en los votos y, así, en nuestras democracias.

También hay otras herramientas y situaciones muy positivas que están pasando: por ejemplo, la cuestión de la participación política en Madrid o en Taiwán. Creo que hay un espacio para todo lo que es la participación ciudadana, el crowdsourcing y la utilización de las redes de una manera positiva para construir consenso, para generar estos espacios de debate que sean positivos, aunque sí es importante alertar sobre los temas que puedan tener un impacto más negativo en nuestras democracias.

A modo de resumen, hay tres cuestiones fundamentales que tenemos que tener en cuenta y abordar cuando nos enfrentamos con estos desafíos. La primera es, sin duda, la educación. Y los cursos, los debates son el lugar fundamental. Pero también los colegios, las universidades, las empresas y la función pública. Estamos continuamente lidiando con la tecnología. Estamos desarrollando tecnología, diseñamos tecnología, nosotros como funcionarios públicos y los legisladores, posiblemente, legislando también sobre el impacto de la tecnología. Entonces, el primer paso es poder educarnos: entender cómo funciona la tecnología. A veces parecen estas cajas negras o black boxes que no logramos entender, pero hay maneras muy fáciles para descifrar cómo funcionan. No tenemos que ser expertos, pero sí saber cuál es su impacto para poder regularlo.

La segunda cuestión tiene que ver con volver a la base de que, detrás de todo esto, tiene que haber una ética. Si bien decimos que la tecnología precede, que son herramientas y que es neutral, cómo la abordamos o cómo la diseñamos tiene que tener una ética detrás para establecer dónde está el límite, hasta dónde podemos utilizarla, hasta dónde puede tener un impacto y coartar los derechos y libertades de las personas. En ese sentido, el debate ético hay que darlo.

La tercera cuestión es, sin duda, legislar y regular con responsabilidad. A eso apuntaba la Ley de Responsabilidad Algorítmica en EE.UU, y a la idea de poder trabajar más en profundidad con la Ley de Conocimiento, entendiendo también todo lo que aportan estas grandes plataformas y estas empresas que, sin duda, son una herramienta fundamental para el desarrollo y el crecimiento de nuestros países. Pero también tenemos que tener una mirada de cómo todo ese avance y todo ese desarrollo puede generar una mejor redistribución de la riqueza que se genera.

Porque, al final, lo que estamos empezando a ver es que el gran elemento fundamental y económico −y el gran vínculo de la tecnología con las personas− es la generación de esos datos que ahora se llaman el nuevo petróleo o el nuevo oro. Podemos decir que es incluso mucho más que el oro o que el petróleo, porque nunca en la historia económica hemos tenido un recurso tan abundante, tan barato y que además no es escaso porque abunda en todas las personas. Lo que sí tenemos que debatir es cómo es posible que el 80% de los datos del mundo esté concentrado en solamente cinco empresas −Google, Facebook, Amazon, IBM y Apple−, y cómo realmente tenemos que pensar en modelos en donde los datos tienen que ser ni bienes privados ni bienes enteramente públicos, sino bienes comunes sobre los cuales también la ciudadanía y las personas puedan tener soberanía.

Con esa perspectiva, y con el inicio de todo esto, es que podemos pensar y construir democracias más resistentes: democracias y desafíos para el siglo XXI que realmente puedan ser resistentes frente a estos avances. Cuando hablamos de resistentes, aprovechando ahora la cuestión de la pandemia, hablamos de cómo generamos “vacunas” que puedan inocular a nuestras democracias, para que, justamente, la tecnología pueda ser, o volver a ser, lo que en su inicio habíamos pensado: esa gran aliada para construir confianza, para generar más y mejor calidad de vida para las personas, y, en última instancia, generar más derechos y libertad.


  1. Para ver el video dirigirse al siguiente link: https://bit.ly/3CDtxH7.


Deja un comentario