Otras publicaciones

DT_Chartier_Burucua_13x20_OK-final

9789871867516_frontcover1

Otras publicaciones

12-4583t

12-4430t

6 Y finalmente, se volvió a la tecnología (“It’s the Technology, stupid”)

6.1. Políticas de ciencia y tecnología y prospectiva en el nuevo siglo

En el presente trabajo, hemos analizado las relaciones entre políticas de ciencia y tecnología y prospectiva, su origen similar aunque diverso. Observamos cómo, en América Latina pero también en el mundo, políticas de ciencia y tecnología y prospectiva fueron divergiendo y convergiendo, sobre todo en los períodos de crisis del último cuarto del siglo XX, donde las políticas se redujeron a su mínima expresión y la prospectiva directamente desapareció de los organismos públicos.

Sin embargo, en los últimos años, como vimos en el último capítulo, la tecnología se ha ha ido haciendo un factor cada vez más determinante en el mundo y, por tanto, también su prospectiva. Desde los documentos antes mencionados: Global Trends al presidente de los Estados Unidos, en especial el de 1996; el informe a Clinton de 1997, Science and Technology. Shaping the Twenty First Century, y los Global Technology Future de la Rand Corporation en los 2000, a pedido del National Intelligence Council, también de Estados Unidos, la tecnología se ha ido haciendo cada vez más un elemento central en los estudios de futuro y en las políticas y estrategias de las naciones avanzadas.

De un lado tenemos, todavía al final del siglo pasado, la aparición del concepto de sociedad del conocimiento, que había superado pronto al anterior eslógan de sociedad de la información. Del otro lado, desde el campo de la prospectiva, las visiones de diversos grupos de futuristas que anuncian la cuasi fusión del hombre y de la máquina, el cumplimiento anunciado y según algunos ya cumplido de la prueba de Türing[1] y finalmente el advenimiento del transhumanismo, con su promesa de una vida cuasi ilimitada y la superación, gracias a la tecnología, de muchas de las limitaciones humanas.

Estas visiones y tendencias se han hecho presentes también en el pensamiento de la prospectiva en América Latina. Pero veamos esto en detalle.

En los años 90, la revolución informática en marcha, considerada como el motor de la nueva onda larga Kondratieff (la quinta), como lo predecía Christopher Freeman, se comenzó a hablar de la sociedad de la información. La informática y su convergencia con las comunicaciones (hasta formar las famosas TIC) presagiaban el advenimiento de un mundo donde la capacidad de recoger, procesar y analizar información transformaría los sistemas de producción, empresariales, de gobierno y hasta la esfera cultural y artística. El vicepresidente de Clinton, Al Gore, ya desde los comienzos de esa década, basó su “Reinventing Government” en la revolución de la informática y las comunicaciones, lo mismo que había hecho la “Reingeniería”, que invadió las estrategias empresariales en la misma época, superando o integrando al movimiento de la Calidad Total.

Al movimiento (podríamos llamarlo así) de la sociedad de la información sucedió pronto, ya desde la mitad de los 90, el de sociedad del conocimiento, término con el que se alude a la capacidad de la nueva sociedad de transformar los datos brutos de la información en recursos e inteligencia[2].

Robert Reich, el primer secretario de Trabajo de Clinton, predijo en su libro de 1991 El trabajo de las naciones: hacia el capitalismo del siglo XXI[3] que la profesión del futuro sería la del “analista simbólico”, es decir, los expertos en intermediación estratégica, identificación y resolución de problemas, otra forma de decir la capacidad de transformar la información en conocimiento. La única ventaja competitiva, decía Reich, estriba en la habilidad para identificar, intermediar y resolver problemas. Pero ya antes, Peter Drucker, a quien se identifica como el precursor del concepto de sociedad del conocimiento,

en su libro de 1966 titulado The Effective Executive (traducido al castellano como El Ejecutivo Eficaz), acuñó el término “trabajador del conocimiento” y más adelante en su carrera consideró que la productividad del trabajador del conocimiento sería la próxima frontera del management. Unos años después, en 1969 Drucker, en su libro más conocido La era de la discontinuidad, escribió una sección sobre “la sociedad del conocimiento”. En 1970, el tema del encuentro anual de la American Society for Information Science era “la Sociedad de la Información-Consciente” […] En 1993, escribió su libro Post-Capitalist Society (La Sociedad Post Capitalista), en el que destacaba la necesidad de generar una teoría económica que colocara al conocimiento en el centro de la producción de riqueza[4].

También a mitad de los 90, el Banco Mundial y la National Science Foundation empezaron a trabajar en indicadores de la sociedad del conocimiento. En 2005, UNESCO sancionó este concepto en su Informe Mundial “Hacia las sociedades del conocimiento”.

En América Latina este concepto prendió rápidamente. Junto con el de sistema nacional de innovación se convirtió en el eje y objetivo central de las políticas de ciencia y tecnología, que ahora habían añadido el término de “innovación”. Obviamente son conceptos donde la tecnología es central, pero que exceden el campo de acción de los organismos de ciencia y tecnología: tanto las tecnologías de la información y las comunicaciones (TIC) como la creación de una sociedad del conocimiento dependen de la acción conjunta de personas, instituciones científicas y no científicas (educativas, culturales, etc.), empresas y gobierno. Incluso dentro del gobierno, su esfera de acción está repartida entre los ministerios encargados de la creación de una infraestructura de comunicaciones, los organismos que regulan la gestión pública y el E-Government, los ministerios productivos, el de Educación para crear al nuevo “analista simbólico” (para usar los términos de Robert Reich), además obviamente del de Ciencia y Tecnología. Es un campo propicio para ejercitar lo que Amílcar Herrera, como hemos visto repetidamente, llamó las “políticas implícitas de ciencia y tecnología”, una utopía para los países subdesarrollados y aun diríamos, en el caso de la construcción de una sociedad del conocimiento, para la mayoría de los países desarrollados y emergentes, que continúan sin poder resolver el problema de la “brecha digital”, uno de los grandes problemas que impiden el advenimiento de una verdadera y democrática sociedad del conocimiento.

6.2. La convergencia NBIC (nano, bio, info, cogno)

En esa situación se estaba cuando apareció con el nuevo siglo el tema y la problemática de la convergencia NBIC (Nano-Bio-Info-Cogno). Una publicación de la National Science Foundation preparada por Mihail Roco en 2002 conmovió las estructuras de las políticas científicas de los países desarrollados, con su concepto de que se estaba entrando en la era de la convergencia entre la nanotecnología, la biotecnología, las TIC (info) y las ciencias cognitivas y neurológicas (cogno)[5].

Dos años después, la Dirección General de Investigación de la Comisión Europea respondía al desafío, como ha venido ocurriendo desde el origen de la historia de las ideas sobre ciencia y tecnología, y calificaba el tema, en una publicación propia[6], como la mayor iniciativa de investigación del siglo XXI: Converging Technologies for the European Knowledge Society (CTEKs).

En América Latina la problemática hizo eco en diversos ambientes, aunque sin gran difusión. Pero la Red Iberoamericana de Prospectiva (RIAP), bajo la conducción de los expertos del Centro de Gestión y Estudios Estratégicos (CGEE) Lelio Fellows, coordinador de la Red, y Dalci Maria dos Santos, quien estaba haciendo su tesis de doctorado en la Universidad de Sao Paulo (USP) sobre el tema, propusieron la continuación de la Red, todavía una Red CyTED, pero con el nombre de “Red Iberoamericana de Prospectiva en Convergencia Tecnológica”, con la misma sigla RIAP. Para conformar la nueva Red, se organizó un seminario en México, D. F., en 2008, en la Facultad de Ciencias Políticas de la UNAM, bajo el título de “Una mirada hacia el futuro de una nueva Convergencia Tecnológica: Desafíos y oportunidades para Iberoamérica”. Como resultado de la reunión se acordó la nueva orientación de la Red. El CNPq de Brasil se hizo cargo de su financiación.

En el marco de esta nueva red se emprendieron diversos estudios en cada uno de los países participantes, sobre la situación en ellos de la nueva convergencia tecnológica. Los resultados fueron llevados a una reunión en noviembre de 2011 en Sao Paulo, la Reunión sobre Tecnologías Convergentes, esta vez coordinada conjuntamente por RIAP y el representante de la NSF sobre el tema, Mihail Roco, quien estaba preparando un nuevo libro sobre la situación de la convergencia NBIC en el mundo.

El libro de la NSF define la convergencia NBIC como el estudio interdisciplinario de las interacciones entre sistemas vivos y sistemas artificiales para el diseño de nuevos dispositivos que permitan expandir o mejorar las capacidades cognitivas y comunicativas, la salud y las capacidades físicas de las personas, entre otras aplicaciones.

6.3. El sentido de la convergencia NBIC

Esta convergencia se ha ido dando naturalmente: primero, por lo pervasivo de las TIC en el mundo moderno, donde desde el cálculo hasta la experimentación se basan sobre desarrollos de la informática y las comunicaciones. La biotecnología también obligó a trabajar con lo muy pequeño: el nivel molecular del ADN; finalmente, el gran paso y el origen de la gran convergencia se ha dado con la aparición de la nanotecnología[7], facilitada esta a su vez en gran parte por la búsqueda de la miniaturización de los componentes informáticos y por la robótica.

Es ahí donde se ha podido dar esta confluencia de disciplinas (ciencias y tecnologías informáticas, ciencias y tecnologías de materiales, ingenierías, bioingeniería y ahora ciencias neurológicas y cognitivas) con los campos científicos que están a su base, y sobre todo a medida que han ido apareciendo como factibles las aplicaciones principales de la convergencia: el diseño de nuevos dispositivos aplicables a la salud, a la defensa, a la agricultura, a otras industrias, al monitoreo del medio ambiente, etc. Justamente, ese es el objetivo que aparece en la definición que da la NSF de la Convergencia NBIC: “el diseño de nuevos dispositivos que permitan expandir o mejorar las capacidades cognitivas y comunicativas, la salud y las capacidades físicas de las personas, entre otras aplicaciones”.

Se ha planteado la cuestión de si no se trata de una moda (una hype, se preguntaba Maurice Doorn, el nanotecnólogo holandés que participa en la Red Iberoamericana RIAP). Y es evidente que se ha tratado de una moda. Nadie niega la importancia de la convergencia, pero el peligro por parte de los países de América Latina es comprar esta moda como si todo se tratara de que la gran solución en estos momentos fuera promover el encuentro de disciplinas, de científicos, tecnólogos y productores para desarrollar los famosos dispositivos. No se trata de promover programas o centros de convergencia, sino de buscar oportunidades de desarrollo de innovaciones y soluciones productivas y sociales. La historia de cómo surgió la convergencia en Estados Unidos y otros sitios y el mismo análisis de lo que es esta nueva convergencia nos lleva a concluir que esa interdisciplinariedad que se encuentra en su definición es un proceso que tiene que llegar naturalmente, como llegó en los grandes centros mundiales, en la medida en que se van aplicando las nuevas tecnologías a la solución de problemas o al diseño de productos cada vez más “nano” (ese es tal vez el centro de la cuestión, poder trabajar a nivel nano).

Tampoco se trata de introducir la nueva moda de la convergencia para apabullarnos mostrándonos la distancia a la que nos encontramos de los grandes centros mundiales. Con lo cual no nos quedaría más que asociarnos como podamos a esos grandes centros; como si la brecha tecnológica fuera ya imposible de atravesar: sería otro universo.

6.4. Posibles estrategias para una convergencia

Como resultado de la reunión de Sao Paulo de la Red RIAP en 2011, donde se discutió la situación de la convergencia NBIC en América Latina, se destacó que lo importante es aplicar tecnologías a la solución de problemas o a la búsqueda de oportunidades. Primero irán apareciendo interacciones parciales, como ocurrió con el apoyo de la informática a la biotecnología en el caso de la secuenciación del genoma, o con la bioinformática, o con el apoyo a la neurología para la investigación sobre las bases neurales de la memoria, del lenguaje, de la inteligencia, de la emoción y de la conciencia (por ejemplo, análisis del movimiento de las neuronas a partir de programas propios de computación).

En América Latina también se están dando casos de convergencia fuerte, por ejemplo, con el desarrollo de la bioinformática en varios países: la empresa pública agropecuaria de Brasil, EMBRAPA, creó hace más de 25 años su Programa de Bioinformática, Argentina más recientemente en el INTA. También se están desarrollando en varios países de la región dispositivos tipo sensores (como los MEM, todavía a nivel micro, pero que pueden llegar a hacerse nano), o aun biosensores, para distintas aplicaciones (agro, medio ambiente, salud, etc.). En el caso más nuevo de la convergencia con las neurociencias, también existen investigaciones en la región para crear dispositivos intercraneales de diagnóstico y recuperación[8]. Esto acercaría los esfuerzos al campo propio de la convergencia, el desarrollo de dispositivos de los que habla la definición.

Se trata pues de un proceso que se tiene que dar de forma natural: no a partir de un programa para favorecer la convergencia, sino a través de programas para promover desarrollos en salud, en agricultura, en agroindustria alimentaria y en otras industrias. Programas en que interactúen políticas de ciencia, tecnología e innovación con políticas sectoriales, a partir de un Estado fuerte. Como se ha dicho varias veces a partir de las reacciones contra el neoliberalismo desde comienzos del nuevo siglo, y no se insistirá bastante, un Estado que promueva no sólo políticas horizontales, sino políticas sectoriales, industriales; en ellas, uno de sus componentes centrales será cada vez más el desarrollo de sensores, de robótica, de dispositivos especiales para la salud o para el control del medio ambiente. Es a partir de ahí como se podrá ir generando la convergencia de disciplinas para el desarrollo de soluciones.

6.5. La tecnología del futuro y el “transhumanismo”

La convergencia NBIC tiene como una de sus aplicaciones principales, según se definió en los primeros trabajos sobre el tema, la mejora de las capacidades humanas. Dentro de estas capacidades, se encuentra la de ampliar las capacidades mentales. En esta línea, sobre todo con las nuevas tendencias por el desarrollo de las Big Data, Internet of Things y otras, en las que se hace patente la confluencia de las ciencias neurológicas, las TIC y las nano, se ha potenciado el tema de la inteligencia artificial[9], que después de un empuje inicial en los años 50, había perdido impulso, hasta la aparición de esta nueva convergencia. Como decía Gabriel Baum en un documento preparado para el MINCyT de Argentina, Hacia una nueva ola en la revolución de las Tecnologías de la Información y las Comunicaciones (TIC),

Estamos así en un nuevo escenario de convergencia que está generando las condiciones para profundos cambios en términos económicos, científicos, culturales, etc. Para muestra, bastan algunos ejemplos interesantes, como se muestran en el siguiente recuadro:

Deep Learning: una nueva área de Machine Learning, creada con el objetivo de acercar la disciplina a una de sus utopías fundantes, la inteligencia artificial. Deep Learning se ha convertido recientemente en un foco de investigación y negocios de Google que eventualmente le permitirá obtener ventajas decisivas para sus negocios (viejos y nuevos). El nuevo paradigma aparece entonces como inteligencia artificial repotenciada utilizando redes neurales sobre Big Data para generar servicios sobre dispositivos móviles a escala global[10].

La inteligencia artificial se ha convertido así en uno de los campos más favorecidos por la nueva convergencia tecnológica. Decía el físico teórico Brian Greene hace pocos años:

Varios grupos de investigación han dado ya los pasos iniciales hacia la simulación de un cerebro biológico en un computador. Por ejemplo, el proyecto Blue Brain, una empresa conjunta entre IBM y la École Polytechnique Fédérale en Lausanne, Suiza, está dedicado a modelizar la función cerebral en el supercomputador más rápido de IBM, Blue Gene, como se llama el supercomputador; es una versión más potente de Deep Blue, el computador que triunfó en 1997 sobre el campeón del mundo de ajedrez Gary Kasparov[11].

También se menciona el caso de la computadora Watson, que venció en una competencia de conocimientos a los participantes que habían triunfado en ella en un famoso programa de televisión y que está empezando a ser utilizada para múltiples aplicaciones.

Sobre esta base, se plantea entonces que llegará un momento en que las computadoras podrán superar a la mente humana:

Estimaciones independientes basadas en el número de sinapsis en el cerebro y en sus velocidades de descarga típicas dan velocidades de procesamiento dentro de unos pocos órdenes de magnitud de este resultado, unas 1017 operaciones por segundo […] Cien millones de computadores de mesa o un centenar de supercomputadores, se acercan a la potencia de procesamiento de un cerebro humano […] Casi todos están de acuerdo en que algún día tendremos una capacidad bruta de computación que iguale, y probablemente supere con mucho, a la que ha proporcionado la biología[12].

Se afirma que un modelo simulado completo del cerebro humano (100 mil millones de neuronas) podría construirse en 2020. ¿Quiere decir esto que se borrará por completo la frontera entre los humanos y la tecnología?

Y sigue Brian Greene:

Los futuristas pretenden que dicho salto tecnológico dará un mundo tan alejado de la experiencia familiar que no tenemos la capacidad de imaginar cómo será. Invocando una analogía con fenómenos que están más allá de los límites de nuestras más refinadas teorías físicas, llaman a este cuaderno de ruta visionario una singularidad [concepto tomado de la física teórica para referirse a fenómenos como el Big Bang o los agujeros negros][13]. Esto […] borrará por completo la frontera entre los humanos y la tecnología[14].

Queda por ver si, como dice el mismo autor, la falla principal del intento de crear conciencia por las computadoras es que para ello se requeriría la base biológica y química del cerebro. Sobre todo si se introduce otro tema que divide a los autores, la capacidad de las máquinas de expresar (o “sentir”) sentimientos.

De cualquier forma, estamos en momentos en que algunos han afirmado que se ha pasado ya la prueba de Turing (Test de Turing). Esta fue formulada en 1950 por su autor de esta forma: Existirá Inteligencia Artificial cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas.[15]

La primera vez que un juez confundió a una máquina con un humano fue en el año 2010, cuando el robot Suzette, de Bruce Wilcox, superó la prueba. En junio de 2014, el bot conversacional Eugene Goostman, que participaba en un concurso celebrado en la Royal Society para conmemorar el 60 aniversario de la muerte de Turing, ganó al conseguir que el 33% de los jurados del concurso creyesen que Goostman era humano[16].

Entre los futuristas mencionados por Greene, se encuentra el movimiento denominado “transhumanismo”, nacido hace un tiempo, pero que cobró fuerza en el presente siglo.

El transhumanismo

“El transhumanismo (abreviado como H+ o h+) es un movimiento cultural e intelectual internacional que tiene como eventual objetivo transformar la condición humana mediante el desarrollo y fabricación de tecnologías ampliamente disponibles, que mejoren las capacidades humanas, tanto a nivel físico como psicológico o intelectual. Los pensadores transhumanistas estudian los posibles beneficios y peligros de las nuevas tecnologías que podrían superar las limitaciones humanas fundamentales, como también la tecnoética de desarrollar y usar esas tecnologías. Estos especulan sosteniendo que los seres humanos pueden llegar a ser capaces de transformarse en seres con extensas capacidades, merecedores de la etiqueta ‘posthumano’”.

“El significado contemporáneo del término transhumanismo fue forjado por uno de los primeros profesores de futurología, FM-2030[17], que pensó en los ‘nuevos conceptos del humano’ en ‘La Nueva Escuela’ alrededor de 1960, cuando comenzó a identificar a las personas que adoptan tecnologías, estilos de vida y visiones del mundo transicionales o ‘posthumanas’ como ‘transhumanos’. Esta hipótesis se sostendría en los trabajos del filósofo británico Max More, el cual empezaría a articular los principios del transhumanismo como una filosofía futurista en 1990, y a organizar en California un grupo intelectual que desde ese entonces creció en lo que hoy se llama el movimiento internacional transhumanista”.

“Influenciada por trabajos y obras primarias de ciencia ficción, la visión transhumanista de una futura humanidad diferente ha atraído a muchos partidarios y detractores de una amplia gama de perspectivas. El transhumanismo ha sido descrito por Francis Fukuyama como ‘la idea más peligrosa del mundo’, mientras que Ronald Bailey considera que es un movimiento que personifica las más audaces, valientes, imaginativas e idealistas aspiraciones de la humanidad”[18].

(De Wikipedia, consultado el 21.03.2015).

El transhumanismo, en suma, plantea:

  • Las posibilidades de mejorar el desempeño humano, como han mostrado los trabajos de la NSF y de la Unión Europea sobre la convergencia tecnológica
  • La posibilidad de interactuar el hombre con las máquinas, la aparición de cíborgs y hombres máquinas y la sustitución de hombres por máquinas.
  • Finalmente afirma que, en palabras de Ray Kurzweil, el que viva hasta 2045 no morirá[19]. Es decir, plantea la posibilidad de superar o postergar la limitación máxima de la humanidad, la muerte.

Sobre Raymond Kurzweil dice Wikipedia: nacido en Massachussets, 12.02.1958, es un inventor estadounidense (le llaman el nuevo Edison), además de músico, empresario, escritor y científico especializado en ciencias de la computación e inteligencia artificial. Es actualmente presidente de la empresa informática Kurzweil Technologies, que se dedica a elaborar dispositivos electrónicos de conversación máquina-humano y aplicaciones para discapacitados, y es canciller e impulsor de la Universidad de la Singularidad de Silicon Valley. Escribió La era de las máquinas inteligentes. Cuando las computadoras superen la mente humana (1999) y La Singularidad está cerca (2005).

En la Era de las máquinas inteligentes predijo la caída de la Unión Soviética. Predijo también la derrota de Kasparov en 1997. Otras predicciones no han sido tan acertadas. Kurzweil predice que un ordenador pasará el Test de Turing hacia el 2029, demostrando tener una mente (inteligencia, consciencia de sí mismo, riqueza emocional…) indistinguible de un ser humano.

Kurzweil es uno de los fundadores y líderes de la famosa Universidad de la Singularidad[20]. Desde 2012, Kurzweil es director de Ingeniería de Google, en un evidente esfuerzo de esta firma por hacerse fuerte en el terreno de la IA.

Pero tal vez la afirmación más aventurada de los autores transhumanistas es que la economía mundial va a dejar de ser una economía caracterizada por la escasez para pasar a ser una economía de la abundancia[21]. Esto significaría trastocar todos los manuales de economía, que han definido a su ciencia como la ciencia del manejo de los recursos escasos.

Hasta ahora, dicen los transhumanistas, como señaló en sus informes el Club de Roma, las variables humanas (población, producción, desechos, contaminación, uso de los recursos naturales) han crecido a un ritmo exponencial, mientras que la tecnología lo ha hecho, salvo en la computación –como lo muestra la Ley de Moore– a un ritmo aritmético. Desde ahora, siguen argumentando, la tecnología va a empezar también a desarrollarse a un ritmo exponencial, lo que va a terminar con la escasez, la enfermedad, aun la muerte. En esto consiste la Ley de rendimientos acelerados de Kurzweil. Kurzweil es actualmente director de Ingeniería de Google y ha comprometido a este “motor universal” (¿primum movens?) en la búsqueda del acercamiento entre hombres y máquinas.

Según el Club de Roma, también la tecnología crecía (antes de 1972, fecha en que se publicó su informe) a ritmo aritmético. Pero según los transhumanistas, esto ha cambiado con los nuevos desarrollos y sobre todo con la convergencia tecnológica. Esta, especialmente a medida que se acerque la fecha de la “singularidad”, disminuirá los costos de la tecnología (como lo ha empezado a hacer la Ley de Moore con el aumento de la capacidad de almacenaje de las computadoras), hasta hacer desaparecer la escasez de los bienes económicos (por supuesto, siempre existirían bienes raros, como las obras de arte y algunos metales considerados preciosos).

Frente a esto se plantean serias dudas, como se verá a continuación.

La primera y principal es que los beneficios de la tecnología que se predice serán revolucionarios, ¿podrán alcanzar a toda la población del mundo? ¿Se podrá superar la brecha digital (hoy el 60% de la población mundial no tiene acceso a Internet), el acceso universal a la salud? El desarrollo acelerado de la tecnología, sobre todo de las TIC en los últimos 35 a 40 años, con la aparición de las computadoras personales y la tan mentada Ley de Moore, al parecer no ha hecho sino aumentar la brecha entre ricos y pobres, como lo atestigua el que el salario real en las economías desarrolladas se ha mantenido estancado en este período. Es difícil no pensar en que las posibilidades abiertas por las TIC, por el contrario, han potenciado las capacidades de los ricos mucho más que las de las poblaciones desprotegidas, en gran parte sin duda debido a la financierización de la economía que se ha dado en este período, provocada por las desregulaciones pero posibilitada por la facilidad que la tecnología ha dado a las transacciones instantáneas de dinero, y a la dificultad de los entes reguladores y de los sistemas impositivos para supervisar esta dinámica y corregir las desigualdades que ha generado.

Esto ha sido especialmente grave para América Latina y la mayoría de los países subdesarrollados que no han podido subirse al carro del desarrollo. Un ejemplo: la fuerza de trabajo subempleada en lo que se ha venido a llamar el sector informal de la economía, se estimaba en el Perú durante la década del 80 en un 34% aproximadamente de la PEA (población económicamente activa). En el caso de Argentina era prácticamente inexistente[22]. Sin embargo, alrededor de 34% es la cifra que se calcula actualmente en Argentina en dicho sector, y eso después de haber crecido el país en los últimos 10 años a tasas muy importantes.

Por otro lado, si bien hay sectores de la sociedad que podrán beneficiarse de los indudables beneficios que la convergencia NBIC está trayendo y va a traer, el costo de estos desarrollos haría imposible que toda la sociedad acceda a ellos, y provocaría una brecha mayor todavía de la que existe entre los que podrían hacer uso de estos adelantos y la población marginada del planeta. Si bien es cierto que hay tecnologías que están reduciendo sus costos dramáticamente (la informática y las comunicaciones –esta última relativamente, por las ganancias extraordinarias de las compañías de telefonía móvil–), hay otras, como las de la salud y la producción de medicamentos, en que es difícil prever disminuciones de costos cuando muchos de ellos dependen de las largas pruebas a las que hay que someterlos.

Es difícil, pues, prever cómo se podrán resolver estos problemas para el conjunto de la población mundial, cada vez presa de más desigualdades, en sus niveles económicos, educativos, culturales, etc., con una gran parte de esa población sumida en la marginalidad y en la falta de horizontes.

Es difícil ser optimista respecto de que la sociedad mundial en su conjunto pueda establecer mecanismos para que los frutos de la tecnología alcancen a todos; especialmente cuando vemos que está cada vez más dominada por empresas transnacionales, entre ellas el sistema financiero, que hacen difícil la intervención de los gobiernos donde se asientan[23].

En último término, la esperanza transhumanista de un mundo feliz para todos es una expresión más del viejo “derrame” que auguraba la economía neoclásica ortodoxa. Indudablemente, hay que seguir los avances tecnológicos y promover sus importantes efectos en la salud, el bienestar y la calidad de la vida humana. Pero hay muchas cosas más en juego y, finalmente, no es sólo la tecnología. ¿No es esta la lección del modelo no lineal, sistémico de la innovación? Al final, era falso el subtítulo de este capítulo (“It’s the technology, stupid”).

6.6. A manera de colofón

En los últimos años hemos asistido al interés de la prospectiva (un renovado interés) por el futuro de la tecnología. Evidentemente, y esto nos ha enseñado la historia de la prospectiva, la tecnología no es una variable independiente, y por sí sola, aún menos, no puede resolver los problemas del mundo, como los descubrimientos científicos no pueden por sí solos asegurar que resultarán en innovaciones exitosas. Ciertamente, la tecnología, a raíz de los últimos avances de la ciencia y su cercanía cada vez mayor con desarrollos tecnológicos y con el mundo de la producción, es un factor cada vez más importante en el entramado de las relaciones económicas y sociales del mundo: no en vano se esgrimen con fuerza los eslóganes de una sociedad del conocimiento. Pero la historia de las políticas científicas y tecnológicas y la prospectiva nos han enseñado también la complejidad de las relaciones entre conocimiento, economía y sociedad. El mismo desarrollo de las TIC está utilizando cada vez más la teoría de los sistemas complejos[24]. Mal haríamos en olvidar este hecho.

6.7. Postdata: las tecnologías sociales, ¿una posible solución?

El Sur también existe

Pero aquí abajo, abajo,

Cerca de las raíces…

El Sur también existe.
(Joan Manuel Serrat)

Frente a un mundo que discute hasta dónde se podrá llegar en cuanto a los límites del crecimiento y del poder de la tecnología, la historia de América Latina ha estado signada por la dicotomía entre tecnologías de punta y la imposibilidad de acceder a sus beneficios por parte de las vastas mayorías.

La heterogeneidad estructural de América Latina había sido puesta de relieve sobre todo a partir de los trabajos de Aníbal Pinto para la CEPAL. La Escuela de Pensamiento Latinoamericano en CyT para el Desarrollo tomó esta heterogeneidad como el elemento básico de su descripción del subdesarrollo dependiente de la región.

Recordemos que R. Prebisch, en varios trabajos[25], destacó la relación entre modelos de desarrollo económico y estilos tecnológicos en los países de América Latina. Tanto él como Amílcar Herrera habían puesto de relieve cómo un modelo basado en un crecimiento indiscriminado y que había conducido a una distribución desigual del ingreso provocaba una especialización industrial dirigida a la producción de bienes de consumo duraderos y de lujo, para satisfacer la demanda del reducido sector donde se concentran los elevados ingresos. Esta demanda sólo podía ser satisfecha desde el exterior y/o con tecnología generada externamente. Esta tecnología, a su vez, provocaba un desempleo que no podía ser absorbido por los sectores productores de bienes de capital, insumos básicos e intermedios y tecnología, como ocurre (u ocurría, hasta el momento) en países desarrollados. Pero en países con el modelo de desarrollo mencionado, estos sectores no existen; los medios de producción y la tecnología se importan, porque al ser muy reducida la demanda de los sectores de altos ingresos, esa producción no es rentable.

Por el contrario, un modelo de desarrollo con una distribución del ingreso más equitativa y orientada a la satisfacción de las necesidades básicas generaría una demanda de tecnologías dirigida a un espectro más amplio, desde las más sofisticadas a las más asequibles de generarse localmente, dadas las nuevas dimensiones de escalas, sobre todo para la provisión de medios de producción requeridos por los bienes de consumo básicos. Esto permitiría crear un puente entre el sector tradicional y el moderno, lo que permitiría solucionar la desintegración característica del subdesarrollo, tanto a nivel tecnológico como económico y cultural (la heterogeneidad estructural, en la terminología cepalina).

El diagnóstico de Prebisch y de la Escuela Latinoamericana de Pensamiento y sus propuestas estratégicas consiguientes suponía la absoluta unidad del desarrollo tecnológico y del desarrollo económico-social; en él, el desarrollo de una capacidad tecnológica, la estructura sectorial equilibrada de la economía (con especial atención a los sectores productores de bienes de capital e insumos críticos), el empleo y la distribución del ingreso estaban indisolublemente unidos.

Los mismos elementos se pueden encontrar en los análisis de Aldo Ferrer y otros autores[26].

El mismo Banco Mundial, en la época de McNamara, había insistido en numerosas publicaciones en la necesidad de la satisfacción de las necesidades básicas[27], y de armonizar crecimiento y distribución equitativa del ingreso. Investigaciones del Banco Mundial ponían de relieve en esa época el carácter utópico de las estrategias centradas en el crecimiento y que posponen las medidas de redistribución hasta que la torta haya crecido suficientemente[28], cosa que sus posteriores investigaciones trataron de desmentir, una vez que McNamara dejó el Banco y Reagan redefinió sus políticas, reflotando las teorías del derrame.

En la misma línea de la necesidad de atender las necesidades básicas de la población y de dotarla de las tecnologías imprescindibles para su desarrollo, había surgido en el mundo en los 60 y 70 la corriente de pensamiento de las tecnologías adecuadas o intermedias, corriente denostada desde todos lados, desde derecha e izquierda, unas la acusaron de ir contra la modernización y otras de interpretar que pretendía condenar a las clases marginalizadas al atraso tecnológico.

Ver en Anexo VI una descripción de la corriente de las tecnologías adecuadas e intermedias, que tuvo un relativo éxito en América Latina.

En el mismo anexo se detalla la teorización sobre el sector informal urbano (SIU) que surgió en la región a mitad de la década del 80 en el marco del Programa de Empleo de América Latina y el Caribe (PREALC) por la Organización Internacional del Trabajo (OIT). Este programa surgió en momentos en que en los países latinoamericanos, sobre todo en los andinos, el flujo de migraciones a las grandes ciudades había desarrollado una población que organizó su economía al margen de la economía formal. En aquel momento, en los países andinos se calculaba que este sector comprendía al 34% de la población.

El Programa caracterizó al sector informal urbano (SIU) no por los aspectos individuales de la marginalidad, como se lo había tratado hasta el momento, sino como al conjunto de actividades productivas con una relación capital/trabajo notablemente inferior al de la economía formal[29]:

En consecuencia, se propuso atacar el problema del SIU sobre la base del microcrédito y la asistencia técnica a las empresas y actividades informales. Estos programas, iniciados en algunos países con fuerza, fueron disminuyendo su financiamiento. El vendaval del neoliberalismo barrió con todas estas utopías[30].

Sin embargo, el problema de la pobreza y de la marginalización no desapareció, ni siquiera pudo ser barrido bajo la alfombra. Recién inaugurado el fin de la historia, en 1990, decretado por el filósofo Fukuyama, las diferencias entre ricos y pobres aumentaban más todavía, en un capitalismo sin límites: así es como comenzaron las luchas antiglobalización, e intentos como el de Ricardo Petrella de ponerle límites a la competitividad[31].

6.8. El moderno movimiento de las tecnologías sociales

Es ahí donde comenzaron a aparecer ideas, ya al final del siglo pasado y en el comienzo del actual, para tratar de modificar la actitud de la comunidad científica latinoamericana que apenas había intentado aportar conocimientos y tecnología a los sectores informales de la economía. Uno de los primeros que advirtió sobre este problema fue Renato Dagnino, un actor importante en las reflexiones sobre políticas de ciencia y tecnología y en proyectos de prospectiva tecnológica, desde los tiempos en que trabajó con Amílcar Herrera como subdirector del Núcleo de Política Científica y Tecnológica de la Universidad de Campinas desde su creación en 1981.

En diversos artículos, algunos de ellos en colaboración con Hernán Thomas y otros autores, ha tratado de llamar la atención de la comunidad científica latinoamericana sobre la necesidad de dirigir sus investigaciones a resolver los problemas tecnológicos de los sectores marginales o informales.

Estos esfuerzos de pensadores como los mencionados y otros, como Rodrigo Arosena, de la Universidad de la República en Uruguay y Gabriela Dutrenit, de la Universidad Autónoma de México, han contribuido a dar un nuevo impulso a lo que ahora se llama tecnologías sociales. Hay que decir también que las políticas científicas y tecnológicas de los gobiernos, que como ya mencionamos, parecen haber sido revitalizadas desde comienzos de siglo, junto con la prospectiva, incluyen entre sus prioridades la del desarrollo social y la inclusión y el apoyo a la micro y pequeña empresa.

Un elemento nuevo en este movimiento y que lo distinguiría de los anteriormente referidos (tecnologías adecuadas y programas para el sector informal urbano) es un mayor énfasis en la importancia de la cooperación de las poblaciones objeto del apoyo.

Una de las ideas fundantes de la tecnología social es que no debe surgir de un encuentro entre oferta de tecnólogos por un lado y demanda de tecnología por parte de las poblaciones usuarias, según el modelo lineal de innovación, modelo que la teoría moderna de la innovación demostró falso y que, según Dagnino[32], era uno de los defectos del movimiento de las tecnologías adecuadas[33]. Por el contrario, la tecnología social debe ser realizada a través de un proceso “llevado a cabo colectiva y participativamente por los autores interesados en la construcción del escenario deseable”[34].

El movimiento de las tecnologías sociales, organizado en varios países de la región y al que sus impulsores convocan a la comunidad científica, podría ser la ocasión para corregir las tendencias seculares de exclusión y de diferencias sociales que la tecnología parece que no ha hecho sino aumentar en los últimos 30 años, y para evitar que los peligros que conlleva en sí la nueva convergencia de las tecnologías emergentes, presentada al comienzo de este capítulo, no se convierta en una catástrofe, como prevenía el primer proyecto latinoamericano de prospectiva, el Modelo Mundial Latinoamericano o Modelo Bariloche, cuyo título de publicación fue justamente Catástrofe o Nueva Sociedad.

Las políticas formales, o “explícitas”, de ciencia y tecnología, que tienen entre sus objetivos cada vez más el desarrollo social y la inclusión, están empezando a mirar con interés estas iniciativas, lo que crea expectativas de que dejen de ser simples declaraciones, como lo habían sido hasta no hace mucho.


  1. La prueba de Türing fue formulada por su autor en 1950 (ver más adelante, punto 6.5.) de la siguiente forma: «Existirá Inteligencia Artificial cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas».
  2. “Una sociedad del conocimiento difiere de una sociedad de la información en que aquella transforma la información en recursos que permiten a la sociedad actuar efectivamente, mientras que la información lo que hace es simplemente crear y difundir datos brutos” (Wikipedia, artículo en inglés, traducción propia, consultado el 19.03.2015).
  3. Reich, Robert (1993).
  4. Disponible en https://bit.ly/L1eqfV (consultado el 19.03.15).
  5. National Science Foundation/NSF (2002), Converging Technologies for Improving Human Performance.
  6. European Commission (2004).
  7. La nanotecnología ha sido instrumental para la convergencia, pues las posibilidades de miniaturización que ha introducido han permitido cambios fundamentales en distintos sectores industriales, incluyendo las áreas biomédica, farmacéutica, cosmética, informática, aeronáutica, automotriz, textil, del caucho, agrícola, alimentaria, de la construcción, la industria química y de materiales, etc.
  8. Por ejemplo, en el centro INECO, de Argentina, con el objetivo de crear dispositivos para registros intercraneales en el caso de operados de epilepsia.
  9. Wikipedia define así la inteligencia artificial: es un área multidisciplinaria que, a través de ciencias como las ciencias de la computación, la lógica y la filosofía, estudia la creación y diseño de entidades capaces de resolver cuestiones por sí mismas utilizando como paradigma la inteligencia humana.
  10. G. Baum (2015): 19.
  11. Greene, B. (2011): 375.
  12. Greene, B. (2011): 172.
  13. “Una singularidad es cualquier escenario físico, real o hipotético, que es tan extremo (masa enorme, tamaño pequeño, curvatura espacio-temporal muy grande, agujeros o remolinos en el tejido del espacio-tiempo) que mecánica cuántica y relatividad general se descontrolan y generan resultados similares a los mensajes de error que aparecen en la pantalla de una calculadora cuando se divide un número por cero” (Brian Greene, La realidad oculta, Ed. Crítica, Barcelona, 2011, p. 133). Es decir, empiezan a aparecer infinitos en las ecuaciones.
  14. Greene, B. (2011): 373.
  15. Wikipedia, artículos “Inteligencia artificial”, “Test de Turing”, “Singularidad” (consultados el 21.03.2015).
  16. Nieves, José Manuel (10 de junio de 2014). “Un ordenador pasa por primera vez el test de Turing y convence a los jueces de que es humano”. ABC.es. Consultado el 20 de junio de 2014 (citado en Wikipedia, artículo “Test de Turing”).
  17. FM-2030 fue el nombre adoptado por el filósofo y futurólogo transhumanista Fereidoun M. Esfandiary (15 de octubre de 1930 – 8 de julio de 2000), quien afirmaba sentir una profunda nostalgia por el futuro. En 1989 escribió lo que se considera una de las obras seminales del transhumanismo con el título Are You a Transhuman?: Monitoring and Stimulating Your Personal Rate of Growth in a Rapidly Changing World. También escribió una serie de obras de ficción de temática realista que firmó con su nombre de nacimiento, F. M. Esfandiary (de Wikipedia, artículo “FM-2030”, consultado el 22.03.2015).
  18. Wikipedia, artículo “Transhumanismo”: https://bit.ly/2OnY7u6 (consultado el 21.03.1915).
  19. “En 2045, la inteligencia de las máquinas será mil millones de veces más poderosa que la humana, y nos fusionaremos con esa inteligencia para ser más inteligentes; mejoraremos nuestra inteligencia en 1.000 millones de veces”, dijo Kurzweil en un reportaje a la revista Expansión (https://bit.ly/2Ri00KN), citado por Ulises Hernández, (https://bit.ly/2CFAcEq, consultado el 22.03.2015). Con todos estos adelantos, le preguntó la revista: “¿Cuál será la expectativa de vida en el 2050?”. “Bueno, realmente será indefinida”, asegura el científico. “¿Está usted hablando de la inmortalidad?”, se le cuestiona al científico. “Si nos preocupamos por cuidar la información podemos mantenerla viva, si no nos preocupamos por ella, morirá, y lo mismo sucederá con nuestra propia sobrevivencia. Tendremos los medios para mantenernos vivos, pero habrá que trabajar en ello”, concluye.
  20. La Universidad de la Singularidad es un ámbito en Silicon Valley, fue creada por Ray Kurzweil y financiada por Google, la NASA, INTEL y otras empresas, donde tienen acogida los más recientes desarrollos de la convergencia tecnológica y una prospectiva rica en pronósticos sobre el gran impacto que la tecnología va a tener en la mejora de la salud, el desempeño de los seres humanos y la prolongación de la vida.
  21. En lo que sigue se presentan los puntos principales tratados en la conferencia que brindó en el MINCyT de Argentina en 2011 José Cordeiro, así como las dudas planteadas por los asistentes. José Cordeiro, profesor de la Universidad de la Singularidad y propulsor entusiasta del transhumanismo, participa en la RIAP, es creador de la nueva Red Iberoamericana de Prospectiva RIBER y coordinador del nodo venezolano del Proyecto Millennium.
  22. Estos datos fueron estudiados por Daniel Carbonetto y el programa PREALC (Programa de Empleo de América Latina y el Caribe) de la OIT. En ese momento, el autor, quien se encontraba preparando un proyecto a ser financiado por la OEA y coordinado por el mismo Daniel Carbonetto sobre el sector informal urbano en América Latina (proyecto que finalmente no fue aprobado), consultó a una figura prominente de CEPAL en Uruguay. Este experto, autor de numerosas publicaciones en CEPAL, desestimó la idea del proyecto con el siguiente argumento: “Es un hecho irreversible: el sector moderno va a ir dominando cada vez más la economía de la región: en el año 2000, el sector informal urbano habrá sido absorbido por el sector moderno”.
  23. A la reunión en el MINCyT que mencionábamos más arriba (ver ver punto 6.5.), asistió un empresario, Santiago Bilinsky, que había participado en cursos de la hoy famosa Universidad de la Singularidad. Este empresario, a pesar del entusiasmo por los grandes avances de la tecnología, se mostró pesimista ante las predicciones del transhumanismo. Este pesimismo lo basó en su desconfianza en que la humanidad pueda desprenderse de sus conflictos de intereses y sepa aprovechar los avances indudables que va a tener la tecnología, sobre todo a raíz de la convergencia NBIC. No todo es tecnología, hay factores políticos, luchas de intereses que intervienen en ello.
  24. G. Baum (2015), pp. 25 y ss.
  25. Especialmente Rev. CEPAL, N° 10, y en el N° 12, “Biosfera y Desarrollo”. Ver también su libro Crisis y Transformación, Fondo de Cultura Económica, México, 1981.
  26. Ferrer, A. (1974), Robinson, J. (1979), Marí, M. (1980).
  27. Ver, entre otros, World Bank, Meeting Basic Needs: an Overview, sept. 1980, y P. Streeten y otros, First Things First, Oxford Un. Press, 1981.
  28. Morawetz, D. (1977): 64-65.
  29. Ver el desarrollo teórico sobre el SIU y las propuestas políticas en el Proyecto de CEDEP (Centro de Estudios para la participación) – IDRC, dirigido por Daniel Carbonetto, Lima, Perú, 1983-86. Ver D. Carbonetto (1986).
  30. Los programas de microcrédito nunca tuvieron la amplitud que el problema requería, y se mantuvieron al margen de la economía. El éxito, conocido y divulgado más recientemente, en los primeros años de este siglo, del Banco Grameen para microcrédito de Bangladesh, creado en 1976 por el hoy famoso Muhammad Yunus, volvió a poner sobre el tapete la importancia de estos programas. Pero el problema de la marginalidad se ha hecho tan grave y el compromiso político ha sido tan escaso que apenas se consiguieron mantener los escasos fondos destinados a este tipo de crédito.
  31. Petrella, R. (1996).
  32. Dagnino, R. (2004): 19.
  33. Quedó demostrado en este trabajo que antes que la teoría de la innovación, la ELAPCyTED había ya superado el modelo lineal.
  34. Dagnino, R. (2004): 20.


Deja un comentario