Otras publicaciones:

12-2985t

12-3044t

Otras publicaciones:

9789877230390-frontcover

9789877230932_frontcover

1 Dialogando con las máquinas

De la revolución digital
a una segunda naturaleza robótica

Luis Alberto Quevedo

El diálogo con las máquinas

Quiero formular aquí algunas reflexiones sobre un tema que está presente en muchas de las cuestiones que hoy se discuten en el territorio que combina las tecnologías, la economía capitalista, las prácticas culturales y la vida cotidiana de los ciudadanos: nuestro creciente y cada vez más complejo diálogo con las máquinas. En realidad es un viejo tema, pero me parece que hay que revisitarlo por varios motivos. Sobre todo, por esta gran pregunta que tenemos hoy -y en la educación se revela como cada día más importante- que es nuestro diálogo con los algoritmos. Me refiero a la escuela, porque el tema de las desigualdades en el acceso ha llevado a una especie de imperativo tecnológico, cuando muchas veces no están dadas las condiciones para siquiera abrir las escuelas insistimos todo el tiempo en que tenemos que incorporar cada vez más tecnologías al ámbito escolar. Sin embargo, esos mismos chicos y jóvenes, aún en esas condiciones de precariedad, también viven esta experiencia digital en sus vidas privadas, porque están socializándose con una aparatología compleja que está presente en sus vidas de modos muy desiguales pero que es transversal a todos los sectores sociales, por el simple efecto de época de la pulsión tecno como marca de nuestro tiempo. Es decir, todos nosotros, pero especialmente los jóvenes, estamos dialogando intensamente con los algoritmos.

En varios debates de los que he tenido posibilidades de participar se propone hoy ‘pensar el futuro’, tratar de imaginar cómo será el entorno socio-tecnológico en las próximas décadas. En general para pensar el tema de los equipamientos que serían necesarios en el mundo de la educación. Y en general se proyecta todo pensando en los próximos diez años. Es una arbitrariedad temporal, pero es una medida posible. Pero a mí me parece más atractivo pensar cómo fue pensado ayer el futuro que vivimos hoy. Cómo fue pensado nuestro vínculo con las máquinas y qué ha ocurrido hoy. Porque lo que es indudable es que cada vez dialogamos más con las máquinas y esto nos obliga a pensar el presente y el futuro cercano. Siguiendo a un pensador francés, Eric Sadin, que a mi parecer es uno de los más lúcidos en estos tiempos para pensar el modo en que la técnica está cambiando nuestra vida, hoy estamos frente a una superioridad cognitiva de la técnica, otro tema que también involucra a la educación.

Pero también es relevante la vieja pregunta de si las tecnologías nos vinculan o son ellas mismas la comunicación. Lo digo de otro modo: si los aparatos con los que nos relacionamos son el mensaje mismo (tener una cuenta en Instagram y postear fotos es más importante que los “likes” que logra cada imagen) o si son simples mediadores entre personas que se comunican. En este sentido, podemos recuperar a McLuhan y aquella vieja provocación que hizo en los años sesenta: el medio es el mensaje. Estaba pensando en mirar con atención a las estructuras cognitivas y sociales que tenían los viejos medios de los siglos XIX y XX y prestar más atención a sus efectos de conocimiento, control y vínculo social con las personas antes que pensarlos como mediadores. Y hoy volvemos a pensar, escuchando a McLuhan, que el vínculo con las máquinas de última generación, estas interfaces que nos rodean no poseen puramente la función de mediación: por eso, una vez más resuena ‘el medio es el mensaje’ porque la aparatología que nos asedia, nos sujeta y nos condiciona tiene rasgos de continuidad, pero también de diferenciación con aquella que conocimos en el siglo XX. Lo que hoy resulta novedoso, lo que nos obliga a volver a pensar, es el tipo de diálogo que establecemos con estas tecnologías, y el tipo de interlocutor que está frente a nosotros. Ya no es la pantalla del televisor o el aparato emisor de radio: ahora el diálogo se desarrolla con los algoritmos. Y sobre esto es justamente lo que quisiera reflexionar.

Cada vez estamos más rodeados de tecnologías que se comportan como una segunda naturaleza. Una de ellas son los sistemas de vigilancia de edificios desde una pantalla que muestra, de manera permanente, un vigilador privado virtual, que solo nos mira desde una gran pantalla que controla, en tiempo real, un espacio privado. No es la cámara de un subterráneo, que funciona como control ex post: es una mirada sincrónica y permanente, cuya primera función es la de informarnos que somos vigilados por un alguien que no graba o registra, sino que puede actuar remotamente. Pero lo que nos compete, más que experimentar una fascinación técnica por estas nuevas tecnologías de control, es preguntarnos qué discursos e imaginarios están rodeándolas, qué efectos produce en los ciudadanos, de qué modo están condicionando nuestra vida privada y cuáles son los límites de esas nuevas miradas en el espacio público. Porque la verdad es que las tecnologías están hoy muy construidas también por relatos contradictorios, que compiten entre sí (ya sean relatos apocalípticos, o celebratorios, pero relatos al fin) que discurren sobre el sentido de la población de cámaras. Por eso el tema de la seguridad, de la demanda o repudio de la vigilancia es un buen ejemplo para pensar nuestros nuevos con las tecnologías.

Negroponte y el pasado reciente

Estos discursos están muy presentes en lo que nos pasa hoy. Pero antes de hablar del futuro querría hablar un poco del pasado reciente; por eso me interesó releer el libro Ser digital de Negroponte. Esta obra fue emblemática de la era que estamos viendo: funcionó como un relato global de la nueva revolución digital. Negroponte vino a poner orden en el desorden que provocaba la digitalización. Ser digital es un libro de 1995, fue traducido a más de 40 idiomas y resultó de los más leídos en su época. Negroponte imaginó que ya en ese momento se estaba viviendo la era de la post tecnología: colocaba al proceso de digitalización por fuera de lo que hasta ese año llamábamos revolución tecnológica. Pero a los efectos de la reflexión que quiero hacer aquí, me parece más interesante revisar cómo este profesor-investigador del MIT imaginó el futuro próximo, en especial cómo iban a operar las máquinas. Negroponte presenta una visión muy celebratoria de esto y desarrolla una ideología –un sistema de ideas para ser más preciso- que les atribuye a las tecnologías la capacidad de autonomizarse. Hay dos frases de ese libro que considero relevantes para este debate (entre las muchas que se podrían elegir). La primera es la siguiente:

Ser digital cambiará la naturaleza de los media. Se invertirá el proceso de envío de bits a la gente por un proceso en el que las personas o sus ordenadores serán los que elijan esos bits. Éste es un cambio radical (…) La industria de la información pasará a manos de la pequeña empresa y su mercado residirá en la autopista de la información global. Los clientes serán las personas y sus ordenadores.

Negroponte pensaba que en el futuro se rompería cualquier estrategia de grandes audiencias que habían caracterizado al siglo XX. O sea, que iba a haber una primacía del ciudadano sobre el consumidor, de la comunicación horizontal sobre las broadcasting, que cualquiera de nosotros, desde su computadora, sería quien decidiría el menú de consumo informativo, de imágenes, de narraciones que deseara. Podría elegir qué le llegaba y qué no, qué consumía y qué no. Negroponte imaginaba un ciudadano activo e interesado en armar su propio menú, pero al mismo tiempo pensaba un mundo de muchos jugadores en el campo de la producción de sentido. Imaginaba no corporaciones, sino PYMEs comunicacionales, que tuvieran la gran capacidad de hablarnos a nosotros de uno en uno.

Veintitrés años después, podemos preguntarnos si ocurrió algo de eso, si Negroponte acertó en su inferencia sobre el desarrollo de la digitalización. La respuesta es no. En primer lugar, porque el mercado de las telecomunicaciones se concentró y está en manos de muy pocas empresas. El excelente libro que publicó hace poco Natalia Zuazo (Los dueños de internet) habla de las 5 grandes empresas –Google, Microsoft, Facebook, Apple y Amazon- que manejan prácticamente todos los flujos de información, de producción, circulación y almacenamiento en el mundo digital. Incluyendo las inversiones en las “autopistas de la información” como se le ha llamado a al cableado de los océanos con fibra óptica submarina. Zuazo afirma que se produjo una gran concentración, de la cual Amazon es la metáfora perfecta, porque empezó vendiendo libros en papel a través de internet y hoy es una de las empresas más grandes del mundo en productos digitales, en el manejo de esto que hemos llamado Internet de las cosas e Internet de los contenidos. Amazon y Microsoft, por ejemplo, son los socios de Telefónica Argentina en el tendido de cables submarinos de internet en nuestro país. Esto es para que vean que estos ‘cinco grandes’ controlan de verdad todas las autopistas de la información; aquellas empresas que fueron monopólicas o dominantes en otros momentos hoy están obligadas a asociarse con alguna o varias de estas empresas globales.

Pero hay más elementos en la frase de Negroponte que nos obligan a pensar. Me refiero a esa idea de que serán las personas las que elegirán la información. Para esto, también está el excelente libro de Eli Pariser (El filtro burbuja) que trabaja el tema de la libertad que tienen hoy los usuarios a la hora de elegir los contenidos en la web. El gran desafío parece ser justamente sortear los algoritmos que tanto controlan nuestras búsquedas, nuestros gustos, los trayectos que seguimos en la web y nos estudian de manera fina para poder ofrecernos un tipo de información que no es seleccionada por nosotros sino para nosotros. Cada uno de nosotros, cuando hacemos una búsqueda en Google, por ejemplo, estamos siendo parametrizados por un algoritmo que nos vuelve únicos, que nos singulariza. Como dice Pariser, no hay Google genérico, hay un algoritmo que nos clasifica a todos y cada uno de los usuarios. Cuando yo hago una búsqueda, nos dice la gente de Google, que el algoritmo trabaja con 57 parámetros para medir toda nuestra actividad: lo que hacemos y nuestras preferencias, y cuando finaliza nos pone en una ‘burbuja’ de información, en un campo preparado especialmente para nosotros, no de forma genérica. Así, los usuarios se enfrentan a información donde todo está muy seleccionado, filtrado, personalizado. Los resultados serán distintos según lugar de residencia, género, edad, preferencias y rechazos, navegaciones previas, nivel de ingresos, ideología, formas de consumo y tantas otras cosas más.

La segunda frase que quiero tomar del libro Ser digital de Negroponte es:

En el próximo milenio, hablaremos tanto o más con máquinas que con seres humanos–en esto tenía razón, estamos dialogando cada vez más con máquinas-. Lo que al parecer produce más reparo es hablar con objetos inanimados. Nos sentimos muy cómodos cuando hablamos con nuestros perros o canarios, pero no con puertas o farolas (…). Nos sentiríamos ridículos si le hablásemos a la tostadora, igual que cuando le hablábamos al contestador automático en las primeras épocas.

Hablar con los aparatos: ese es el desafío. Esto nunca fue ni fácil ni natural para los usuarios. Dialogar con las máquinas siempre supuso un proceso de aprendizaje. Por eso es válida la afirmación de la “preparación” que siempre significó para nosotros hablar con un contestador automático, al que debimos acostumbrarnos. Muchos de nosotros pensábamos bien lo que diríamos en el momento que sonara la señal para comenzar a dejar un mensaje. Incluso hoy en día, a través de los audios de Whatsapp, no nos resulta fácil hablar y eso que para quienes tienen acceso a esta red hoy está sumamente naturalizado dejar un mensaje de voz. Pero los pensamos, los borramos, los practicamos. Es verdad que hablamos cada vez más con máquinas, pero no como Negroponte las imaginó, ya que en aquellos años noventa se esperaba que habláramos más a través de las computadoras de escritorio, en un dispositivo de enunciación más controlado. Lo que Negroponte nunca pensó es que la convergencia digital (tan discutida hace dos décadas) finalmente se iba a dar en los dispositivos celulares que llamamos “teléfonos” con una denominación arcaica que deberíamos abandonar. Hablar desde un dispositivo móvil amplió el arco de los lugares desde donde grabamos mensajes: la calle, el transporte público, nuestro lugar de trabajo o estudio, el baño o andando en una bicicleta. Sin embargo, Negroponte no habló del celular y creía que todo esto iba a suceder en las computadoras personales.

Me gustaría evocar el pensamiento de Negroponte sobre el desafío que implica este diálogo hombre-máquina. Un ejemplo de esta experiencia es la aplicación Siri, incorporada en los dispositivos móviles de Apple, que además es una herramienta que logra la tarea nada fácil de procesar el lenguaje natural y “dialoga” con los usuarios luego de ser “entrenada”. Este algoritmo trabaja de una manera muy compleja, al igual que muchos de los algoritmos con los que interactuamos diariamente, pero sobre todo el tipo de dispositivos como Siri, que aprende de nosotros y de la experiencia, lo hace de un modo particular porque debe incorporar nuestra voz y nuestras prácticas digitales de manera autónoma, por sí mismo, sin depender de un instructor externo.

Este es el desafío de la inteligencia artificial, que nada tiene que ver con el desafío que tuvo la robótica, muy anterior a los algoritmos sobre los que estamos trabajando y con los que nos relacionamos casi a diario. En la robótica del siglo pasado las máquinas eran programadas a través de secuencias lineales que buscaban que ese robot repitiera con precisión un determinado proceso, inconsciente de su capacidad para mejorarlo, sino que su éxito consistía en la exactitud, en la capacidad de repetición. El salto que se ha dado en el siglo XXI es que los algoritmos tienen capacidad de “aprendizaje”.

Por ejemplo, nuestros teléfonos celulares trabajan con inteligencia artificial de última generación, porque están dotados de programas, de aplicaciones, que están preparadas para personalizar el uso y volvernos previsibles, como lo hacen por ejemplo los correctores de Whatsapp o de Gmail que, en el fondo, nos demuestran el restringido vocabulario con el que escribimos mensajes todos los días. Y nosotros, como usuarios, estamos lejos de vernos heridos en nuestro narcisismo retórico. En efecto, los estudiosos de la lengua castellana, por ejemplo, sostienen que un hablante medio (que, por supuesto no existe y tiene variaciones según países, nivel de escolarización, etc.) no utiliza más allá de 1.000 palabras para hablar y sólo los muy cultos alcanzan los 4.000 vocablos, lo que es muy excepcional. Pero entre los más jóvenes estas cifras se reducen a veces a menos de 300 palabras, sobre todo cuando se expresan con sus pares y en las redes. Solo para tener un parámetro de nuestro uso restringido del lenguaje, recordemos que el diccionario de la RAE tiene unos 80.000 vocablos a lo que hay que sumar otros 60 o 70.000 que se consideran “americanismos”, es decir, nuestras formas del habla en América.

Pues bien, estos aparatos con los cuales cada vez interactuamos más y dialogamos, interrogamos, etc., tienen una gran capacidad de aprendizaje. Muy pronto saben casi todo de nosotros, aún en los modelos más simples de los dispositivos móviles. Voy a usar apenas dos o tres ejemplos. Uno es el álbum de fotos que solemos tener en nuestro dispositivo móvil. Cuando cargamos una carpeta con fotos de ”perros”, por ejemplo, el algoritmo “aprende” (si no es que ya viene con ese saber incorporado) y logra abstraer las características comunes de todos los perros más allá de cualquier foto particular. Por eso podemos decir que aprende a reconocer un tipo de rasgos para integrarlos luego a nuestra colección. ¿Funciona bien? En general sí, pero también comete errores, por supuesto. Pero otro ejemplo similar es la aplicación PLANTSNAP, que reconoce plantas. En su misma presentación dice que se entrenó con más de 90 millones de imágenes y cuyo algoritmo se actualiza cada mes. ¿Cómo se actualiza? Por un lado, con lo que sigue aprendiendo, con cada fotografía que los usuarios toman de una planta o árbol, pero también, por otro lado, preguntándole a esos mismos usuarios los nombres locales de esas especies o simplemente registrando una que no estaba en su catálogo. Sabe aprender, aprende con el saber de los otros, no viene con un sistema cerrado de reconocimiento sino con un sistema de reconocimiento que está abierto a las prácticas de quienes la usan. Entonces, ¿es realmente difícil entrenar a estos algoritmos?, sí, porque se requiere una masa crítica muy grande de datos (trabajan realmente con big data) pero también es cierto que aprenden muy rápido.

El salto entre el siglo XX y el XXI

Creo que hay dos recorridos en esta relación de los hombres y las máquinas que vale la pena recordar y que tienen también una estrecha vinculación con el cuerpo y el lenguaje. El primero tiene que ver con las formas en que nuestra cultura imagino o planificó o intentó la transformación de un hombre en una máquina. Este es un tema muy transitado por los relatos de la ciencia ficción, el cine o la literatura fantástica. Pensemos solamente en el ejemplo de Robocop, una especie de “resto” humano que se reconstruye incorporándole una máquina para volverlo algo así como el policía perfecto. Hay muchas especulaciones referidas a la incorporación de tecnologías al cuerpo. Paul Virilio en El arte del motor dice que cada vez más las tecnologías entran al cuerpo para mejorarlo, potenciarlos, controlarlo, etc. Y son objetos que nuestra civilización celebra, como un marcapasos o los implantes que reemplazan piezas u órganos perdidos o dañados. En el maravilloso relato de Stanislaw Lem, ¿Existe verdaderamente Mr. Smith?, se juega con el punto de quiebre en el que un hombre deja de ser una persona para convertirse en un conjunto de fierros, de prótesis, de injertos a medida que reemplazan las diferentes partes de un cuerpo para llegar a no-ser una persona. Es interesante el relato porque es un juez quien debe decidir si el Sr. Smith (quien recibió de una empresa decenas de implantes) es o no un ser humano independiente o ya es propiedad de la empresa que lo ‘reconstruyó’. ¿Cuándo se deja de ser un hombre y se pasa a ser una máquina? y esa máquina, además, es propiedad de una empresa. Eso es lo que debe decidir la justicia.

El otro camino es el inverso: de las máquinas a los hombres. A mi modo de ver, las dos novelas emblemáticas en este caso son Frankenstein y El hombre bicentenario, presentan la gran pregunta de si los ‘robots’ son capaces de tener sentimientos. Siempre el problema es: se puede construir un hombre que no sea equiparado puramente con un organismo, sino que tenga aparato simbólico, sentimientos, “corazón” en el sentido romántico. Hay muchas experiencias actuales en las que se intenta proveer a las máquinas de sentimientos humanos. Yo creo que la clave de la inteligencia artificial hoy en día está en que las máquinas aprendan, pero me parece que esto no se detiene allí.

El gran salto, como sabemos, se dio hace muy pocos años cuando se dejó de trabajar con secuencias únicas -la robótica del siglo XX como dijimos más arriba- y se comienza a desarrollar máquinas que copian el sistema de las redes neuronales humanas. El procesamiento de información y las decisiones que toma el algoritmo no están secuenciados previamente, son “pensados” por el mismo algoritmo.

Hay cuatro elementos básicos que se necesitan para que una red neuronal funcione como tal:

  • Tener una gran capacidad de procesamiento, que pueda manejar muchos datos.
  • Contar con grandes flujos de información. Big Data hoy en día discute esto: cómo hacer para tomar una inmensa cantidad de información y procesarla.
  • Tener la capacidad de modelar matemáticamente cualquier problema.
  • Ser capaz de elegir una arquitectura de red que le sirva para resolver ese problema.

Ese es el gran salto entre el siglo XX y el XXI. En nuestras vidas cotidianas vemos las aplicaciones de esta inteligencia artificial de última generación. Por ejemplo, la vemos en la primera línea de atención al público de la mayoría de los servicios que solemos contratar. El primer contacto que suele tener un usuario o consumidor en instancias de atención al público consiste en dialogar con una máquina. Cuando el algoritmo no puede resolver el problema, el cliente es transferido con un representante humano. Así ocurre en los bancos, con los servicios de delivery on-line, etc. Esto es particularmente importante en la educación, porque este sistema se está usando mucho en los campus virtuales: ¿es posible que estos algoritmos puedan servir para responder las preguntas frecuentes de los alumnos sin requerir la intervención del tutor? Si salimos del mundo de los prejuicios, debemos admitir que hay un conjunto de respuestas que pueden ser procesadas por un algoritmo que tenga la capacidad de asistir a los alumnos.

Podemos tomar otro ejemplo del uso de la inteligencia artificial aplicado a la industria: el proceso de selección de frutillas en la industria. Esto sucede en Argentina y se produce en las líneas de selección donde los trabajadores, que fueron capacitados y manejan un criterio de selección de las frutillas que circulan en las cintas de selección. Los trabajadores dividen la producción en tres grupos: las frutillas que están listas para embalar, las que están verdes y les falta maduración y las que están machucadas y se deben desechar. También separan las impurezas que circulan en la cinta. Pues bien, pusieron a trabajar a un bot que se dedicó a estudiar este proceso y en pocos días ‘aprendió’ a aplicar este criterio, haciendo prescindible la tarea de los trabajadores. En este punto Negroponte sí tenía razón: la destrucción sistemática y permanente de los puestos de trabajo fue una de sus predicciones y así ocurrió y está ocurriendo cuando crece la introducción de las tecnologías en el mundo del trabajo. Aunque, por supuesto, la respuesta que Negroponte da a esta situación -la introducción de los bots de última generación al mundo del trabajo- es la misma que la que suele ofrecer el capitalismo desde hace varios siglos: la destrucción de puestos de trabajo es inevitable y no podemos destruir las máquinas por este motivo.

Las antropo máquinas

Quiero terminar hablando sobre un libro del año 2013 de Eric Sadin que, a mi entender, redondea muchos de estos temas: La humanidad aumentada. Su hipótesis es que hemos abandonado buena parte de nuestras actividades autónomas para transferírselas a los bots (la búsqueda de información, el uso de la memoria, la localización, etc.) y que esto supone un cambio en nuestro vínculo con el mundo de las tecnologías. Sadin enuncia cuatro puntos que quiero presentar aquí:

  1. De nuestra modernidad humanista estamos pasando a una época de hibridación que da lugar a las antropo-máquinas.

La hipótesis de Eric Sadin no apunta tanto a enfatizar los modos en que los hombres adquieren destrezas que vienen de las máquinas sino la forma en que las máquinas están adquiriendo una superioridad cognitiva respecto de los hombres.

  1. Cada vez más las máquinas tienen la capacidad de operar entre sí y desarrollar intercambios que están por fuera del orden de lo humano.

Un ejemplo de esto sucedió en 2017 en Facebook, donde se programó a dos máquinas para que intercambien grandes masas de datos y, luego de un tiempo, comenzaron a comunicarse entre ellas en un lenguaje que no era el de los programadores. La respuesta de los técnicos fue apagar las máquinas, pero también analizaron la capacidad que tenían estos algoritmos de última generación para crear un código propio de comunicación.

  1. Vivimos en una época donde se constata el advenimiento de una superioridad cognitiva de la técnica.

En algún sentido, en la etapa robótica, las máquinas surgen como una mejora, desde el punto de vista productivo, de algo que ya hacía el hombre. De ahí los reclamos de quienes ven en las máquinas una amenaza, como hacían los ludistas en el origen del capitalismo, que nos destruían máquinas porque los trabajadores perderían sus puestos de trabajo. Pero con los algoritmos estas máquinas pueden hacer cosas que el hombre no compite y eso las coloca en otro lugar. Por eso, podemos afirmar que estos dos casos de “reemplazo” del trabajo humano por máquinas resulta realmente muy diferente.

  1. Las máquinas se presentan hoy como un organismo cognitivo aumentado y autónomo que no está hecho a nuestra imagen y semejanza.

Quiero terminar haciendo una lectura cultural de la técnica con tres imaginarios sobre los robots. El primero es el que mencionábamos antes: si los robots pueden desarrollar sentimientos (el caso de El hombre del bicentenario), si sueñan (que retoma el interrogante de Blade Runner) y todos los interrogantes que la ciencia ficción ha desarrollado. Segundo, si los robots representan una amenaza para la humanidad. Bueno, la primera ley de la robótica de Asimov es que las máquinas no harán daño a los hombres, pero hoy este tema está en revisión. Tercero, que toda la técnica está destinada a fallar. Paul Virilio dice que la falla es la que define a la máquina. Para Virilio cada revolución tecnológica está asociada a una catástrofe, al accidente. Menciona al Titanic, Chernobyl, etc., casos emblemáticos en los que una escena aparentemente segura termina muy mal. ¿Cuál será el accidente emblemático de los bots?

Para nosotros el dilema es si podemos/queremos depositar en la técnica muchas de las cuestiones de nuestra cotidianeidad, o no. Hay una parte de la confianza en la técnica que tiene que ver con la política. Muchos grupos políticos que nos alientan a confiar en quienes tienen el saber técnico, por ejemplo. Creo que hay muchos temas de la sociedad contemporánea que suponen este desplazamiento (imaginario) hacia las máquinas para prometer un futuro mejor. A mi entender, esta forma de confianza en la técnica más bien despolitiza al mundo, además de volverlo o menos interesante. Estas son solo algunas de las preguntas que nos quedan para reflexionar sobre nuestro presente. Bienvenidas sean.

Bibliografía

Negroponte, N. (1995). Ser Digital. Buenos Aires: Editorial Atlántida.

Lev, S. (1968). “Existe verdaderamente Mr. Smith?”. Nueva Dimensión nº.2

Parisier, E. (2017). El filtro burbuja. Cómo la red decide lo que leemos y lo que pensamos. Barcelona: Editorial Taurus.

Sadin, E. (2015). La humanidad aumentada. Buenos Aires: Editorial Caja Negra.

Virilio, P. (1996). El arte del motor. Buenos Aires: Editorial Manantial.

Zuazo, N. (2018). Los dueños de internet. Cómo nos dominan los gigantes de la tecnología y qué hacer para cambiarlo” Buenos Aires: Editorial Debate.



Deja un comentario