Otras publicaciones:

9789877230406-frontcover

12-3301t

Otras publicaciones:

12-1891t

9789871867691_frontcover

14 Sobre un nuevo tipo de cuasi-objetos[1]

La artificialidad de la vida en el caso de la biología sintética

Pablo Esteban Rodríguez

Este trabajo analiza la emergencia y desarrollo de una nueva corriente de la biología molecular actual, denominada biología sintética. Como su nombre lo indica, esta área de conocimiento pretende crear objetos artificiales a partir de elementos vivientes; se opondría, si se siguiera el camino trazado por su nombre, a una suerte de biología natural. Con el fin de desglosar las múltiples dimensiones que presenta la biología sintética, proponemos analizarla a la luz de los aportes teóricos de Gilbert Simondon, en particular sus nociones de proceso de concretización y de artificialidad, y de Bruno Latour en lo que concierne a los conceptos de híbridos y de cuasi-objetos.

El surgimiento de la biología, entre lo natural y lo artificial

Para abordar el tema de la biología sintética es preciso remontarse a las fuentes mismas de la biología y al lugar peculiar que ocupó esta ciencia desde su surgimiento a fines del siglo XVIII en las separaciones tradicionales de la modernidad entre lo natural y lo artificial. En efecto, antes de la constitución de un saber propio de la vida, para los fenómenos vivientes regía desde el discurso filosófico un tipo de comprensión ligada a la idea que se tenía entonces de lo que eran la materia y la máquina. El mecanicismo recurrió a un proceso de identificación de la vida y el artificio mediante, entre otras, la noción de función aplicada a la actividad de los cuerpos. Los cuerpos funcionan exactamente como las máquinas y las máquinas obedecían a las leyes mecanicistas de la materia.

El nacimiento de la biología es una réplica evidente al mecanicismo de los siglos XVII y XVIII, tal como es admitido por las filosofías más diversas consagradas a las disciplinas biológicas, desde la del francés Georges Canguilhem (1976) hasta la del alemán Hans Jonas (2000). Como señala Andrés Vaccari (2010), la primera teoría articulada y decisiva para la influencia de la biología sobre el resto de las ciencias en el siglo XIX, esto es, la teoría de la evolución, procede a destruir la identidad vida-artificio heredada del mecanicismo cartesiano e invierte el vector epistemológico que va de las máquinas hacia los seres vivos en la medida en que integra el fenómeno técnico dentro de la historia de lo humano, que a su vez está integrada en la historia general de lo viviente. De ahora en más, la técnica misma, y dentro de ella obviamente el mundo de lo artificial, pasa a ser el reino de la materia inorgánica gobernada por lo humano en tanto que pertenece al reino de lo orgánico. No cabe decir que por ello la relación entre vida y artificio se anule; más bien la identidad de los tiempos de Descartes, Hobbes y Newton se transforma en una analogía que da lugar, por ejemplo, a la concepción protésica dentro de la filosofía de la técnica que se extiende hasta nuestros días (cfr. Parente, 2010).

Ahora bien, es posible plantear que, desde la teoría de la evolución hasta el surgimiento de la biología molecular a mediados del siglo XX, la biología desplegó nuevos y fundamentales campos de análisis, a partir de la división aceptada entonces entre individuos, especies, poblaciones y medio ambiente, sin contar por ello con un modelo epistemológico claro que reuniera los nuevos objetos emergentes en un campo unificado. Los microbios, las células, los genes, los virus, las bacterias y los linfocitos, por hacer una lista muy somera, son la base de una ruptura fundamental con la visión centrada en los cuerpos como unidad última de análisis que se aplica, incluso, a la propia teoría de la evolución. Esta ruptura terminará con la formulación de la teoría sintética de la evolución (sintética en el sentido de síntesis y no de artificialidad, como plantea la biología sintética).

La biología molecular

A mediados del siglo XX sobreviene una transformación fundamental por la cual esos individuos constituyentes de los cuerpos serán estudiados a partir de una nueva miniaturización que da lugar al surgimiento de la biología molecular: la biología que estudia aquello que constituye a los genes, a las células, a las bacterias, etc., que a su vez constituían a los cuerpos tanto temporal como espacialmente. Se produce entonces un primer cambio de frente respecto de la situación de la biología respecto de la física, pues ya no hay más ruptura entre lo orgánico y lo inorgánico, sino una integración entre lo físico y lo viviente bajo condiciones absolutamente nuevas. Después de todo, ver la vida dentro de las moléculas supone ante todo echar mano de los conocimientos disponibles sobre el nivel molecular. Esto ha dado lugar a posturas que sostienen que existe una fisicalización de la biología. Si ello fuera así, cabría matizar la cuestión, ya que también es cierto que, por un lado, los desarrollos de la biología molecular influyen decisivamente sobre los caminos de la física contemporánea y, por el otro, que ni la física ni la biología se presentan desde entonces como ciencias unificadas alrededor de principios comunes inalterables. Es preciso preguntarse de qué física y de qué biología se habla cuando se sostiene que hay una “fisicalización de la biología”.

En todo caso, y para complejizar aun más la situación, la biología molecular naciente se dotó de un modelo epistemológico inestable, absolutamente contemporáneo y con relaciones conflictivas con la física: el de la teoría de la información, surgida de la ingeniería en telecomunicaciones. Como ya fue analizado en estudios clásicos (Pichot, 1999; Fox-Keller, 2002) y como podemos comprobar en la vida cotidiana cada vez que se habla, por ejemplo, de la genética, los fenómenos vivientes a escala molecular comenzaron a ser comprendidos como casos de procesamiento de información, dando lugar a una nueva etapa de la influencia de la máquina sobre la vida. Sin embargo, no se trata de una idea de máquina ni de materia como la que predominaba en el siglo XVIII. El modelo de lo artificial no es una máquina mecánica sino una computadora, mientras que la materia dista mucho de ser un hecho marcado por la extensión y por la masa. Nociones como código, programa, memoria, feedback o transmisión aplicadas en la escala molecular muestran que ciertos aspectos de lo viviente son asimilados a una máquina informática, cuya complejidad queda comprobada por el hecho de que todavía hoy se discute, tanto en física como en biología, qué es la información.

En las décadas del 50 y sobre todo del 60 la biología molecular vivió su edad de oro en lo que a imaginación teórica se refiere. El caso más impactante es de la genética. El hallazgo de la estructura molecular del ADN, “sustancia” responsable de la herencia denominada “herencia dura” (transmisión de un orden biológico de un individuo a su descendencia sin influencia de los factores de desarrollo de dicho individuo) fue rápidamente recubierto con un gran número de analogías funcionales con la computadora. El ADN fue postulado como un programa que contiene todo el desarrollo de un individuo en “potencia”, por así decirlo, y que transmite sus órdenes de replicación a las células que van conformando los cuerpos mediante un proceso bioquímico que involucra a otros elementos, como el ARN y las proteínas. Más aun, el ADN contiene un código asimilable a un alfabeto, que muestra la infalible presencia del cristianismo. El libro de la vida, la Biblia de lo viviente, resulta escandalosamente confirmada por el principio más importante de la genética así constituida: la información pasa del ADN al ARN y de allí a las proteínas y nunca a la inversa. ¿Cómo se conoce tal principio? El Dogma Central. ¿Qué es lo que se busca? El Santo Grial de la vida. Si los lamentos de muchos filósofos se dirigen a denunciar que algunos biólogos juegan a ser Dios, cabría responderles que apenas juegan a ser los sacerdotes o, a lo sumo, los apóstoles. A juzgar por la ignorancia que se exhibe en ciertos medios de comunicación, el rol de Dios sigue siendo encarnado por los físicos; de allí que al acelerador de partículas del CERN se lo conozca periodísticamente como “la máquina de Dios”.

Recombinando la vida

En la década del 70 se produce un nuevo hito dentro de la biología molecular que atañe directamente a la relación problemática entre lo natural y lo artificial, que había quedado en cierta manera suspendida por la fuerza de la noción de vida. El nuevo mecanicismo informacional, a diferencia del viejo mecanicismo de Descartes o La Mettrie, comenzó a ser confrontado con la elaboración del llamado “ADN recombinante”, esto es, la creación o invención de un tipo de ADN a partir de moléculas existentes en la naturaleza capaz de ser combinado artificialmente con otros segmentos de ADN. Al poco tiempo de dicho descubrimiento, en 1975, un grupo de científicos organizó la célebre conferencia de Asilomar, en la que se intentó trazar los límites entre lo natural y lo artificial ante la nueva situación. A través de una preocupación muy vinculada a los principios éticos sobre la manipulación de los elementos vivientes, se establecieron allí las bases de la “bioseguridad”, que es necesario explicar con cierto detalle.

A partir del ADN recombinante, la biología se enfrenta ante la perspectiva de “crear vida artificial”, pues hasta entonces toda la experimentación consistía en poder aislar elementos vivientes y tratar de estudiar sus relaciones en situaciones de laboratorio que reproducían situaciones propias de la naturaleza. Sin embargo, seres vivos producidos artificialmente existen desde tiempos inmemoriales, desde los productos de la agricultura hasta los animales domésticos, pasando por los animales creados para fines humanos como los de transporte y alimentación, desde las mulas hasta las vacas. Así, el gran problema pasa a ser una correcta interpretación de la línea que separa lo natural y lo artificial. En este sentido, proponemos que las visiones de Gilbert Simondon y de Bruno Latour permiten ajustar mejor los términos de dicho problema.

En El modo de existencia de los objetos técnicos, Simondon señala que los objetos técnicos se caracterizan por su tendencia a la concretización, a la que define como el proceso que arriba a una coherencia funcional e interna ligada a una cadena circular de causas y efectos que, en los objetos naturales, existe de entrada y sin necesidad de intervención humana. Así, la concretización se plantea en función de la artificialidad, de la cual Simondon brinda una definición interesante:

[…] la artificialidad esencial de un objeto reside en el hecho de que el hombre debe intervenir para mantener este objeto en la existencia protegiéndolo contra el mundo natural, dándole un estatuto aparte de existencia. La artificialidad no es una característica que denote el origen fabricado del objeto, por oposición a la espontaneidad productiva de la naturaleza: la artificialidad es aquello interior a la acción artificializante del hombre (Simondon, 2008, p. 67).

Por su parte, Bruno Latour, que supo reconocer la importancia de los conceptos simondonianos a la hora de pensar su propia teoría, sostuvo en Nunca fuimos modernos que fue justamente en los tiempos del mecanicismo cuando se elaboró una teoría tendiente a separar tajantemente lo natural y lo artificial, que aparecían íntimamente relacionados. Esto produjo procesos incesantes de “purificación” que intentan combatir los híbridos de naturaleza-cultura que constituyen el mundo humano (cfr. Román y López Hanna, 2011).

Quisiéramos mostrar que las reflexiones de Latour y de Simondon encuentran en la biología molecular de los 70, y en los términos de la conferencia de Asilomar, una confirmación completamente literal, evidente, casi sin necesidad de hacer mediaciones teóricas. Ante la posibilidad cierta de generar elementos vivientes, capaces de algún tipo de reproducción independiente de la acción humana una vez realizada su invención, el criterio de bioseguridad para evitar situaciones riesgosas se basó en el compromiso de mantener los seres creados en una situación de dependencia funcional respecto de las regulaciones del laboratorio.

Dicho de otro modo, con indudables reminiscencias de Frankestein, se propuso mantener al ser natural artificialmente creado dentro de un entorno artificial para evitar que se convierta en un ser natural fuera de control. O dicho al modo de Latour, ante la evidencia de una hibridación completa entre lo natural y lo artificial, se propone un nuevo proceso de purificación que impida a lo natural desarrollarse más allá de los límites de lo artificial. O finalmente, dicho de un modo más cercano al sentido común, esos elementos vivientes recombinados a través del ADN serían inventos de lo humano que no responderían completamente a la idea de un invento porque adquieren, valga la redundancia, una vida propia incontrolable ya no bajo la forma del monstruo (Frankestein), ni la de una era de la técnica en la que el hombre pierde las riendas de su creación (Heidegger), sino la de unas moléculas que se recombinan y tienen el potencial de construir ecosistemas inexistentes si no fuera por la mano del hombre.

De allí que fuera posible, a partir de ese momento, no solo hacer ingresar a lo viviente dentro de la lógica de lo fabricado en el patentamiento de seres vivos, sino también intentar comprobar si la febril imaginación de la etapa anterior respecto del ADN todopoderoso estaba o no en lo cierto. Ambas caras del mismo fenómeno tendrán su primera culminación con la realización del Proyecto Genoma Humano hace una década. Por un lado, se impusieron ciertos límites al patentamiento de segmentos genéticos, colocándolos dentro de la noción de bien común de la humanidad, cuando el proyecto de secuenciar el genoma completo de los seres humanos comenzó a tener visos de realización concreta. Por el otro, una vez lograda tal secuenciación basada en el ADN recombinante, se llegó a la conclusión de que no todo estaba escrito en la mágica y gigantesca molécula formada por una doble hélice y que los procesos de codificación y decodificación implicados en la multiplicación celular que está en la base de la reproducción de los seres vivos, o sea, su carácter de fenómenos de información, estaban atravesados por lógicas mucho más complejas que la de la mera transmisión de mensajes a través de canales químicos. Estos dos hechos, más el abaratamiento considerable de los costos del análisis y síntesis de elementos vivientes a nivel molecular, producto de la carrera por la secuenciación de los más diversos genomas existentes en la naturaleza, abrieron el camino a una nueva etapa que se suele denominar “post-genómica”.

En la era post-genómica queda claro que parte de las preocupaciones por la creación de “vida artificial incontrolada” estaban fundadas en una sobreestimación de la determinación genética, a su vez concentrada erróneamente en la estructura, función y acción del ADN, que proviene del significado primario de la idea de programa: conjunto de instrucciones que llevan a cabo una operación, en este caso nada menos que la del desarrollo de un ser vivo. En definitiva, el ADN recombinante hoy no es ni más ni menos que la mula, la vaca o el perro en el pasado: conjuntos híbridos de naturaleza-cultura que solo existen como seres vivientes gracias a la acción artificializante constante del ser humano.

La biología sintética

Este es, pues, el contexto de emergencia de la biología sintética –término que no surge ahora sino en 1912 (Rabinow, Bennett, 2009)–, caracterizado por estos tres hechos: la discusión ética sobre los patentamientos, el fin del predominio absoluto del ADN y la baja de los costos de la experimentación genética. De acuerdo con la presentación en nuestro país de una competencia internacional clave de la biología sintética, organizada por la fundación i-GEM con base en el Massachussets Institute of Technology, la biología sintética

es un campo de investigación joven en la interfase entre la biología de sistemas, la ingeniería, la computación y la biología molecular clásica. Su objetivo es la construcción de sistemas biológicos nuevos y el establecimiento de principios para su diseño racional. Esta tarea es quizá el desafío más riguroso para nuestra comprensión de la biología y nos ayudará a develar los principios de diseño de la naturaleza. Al mismo tiempo, la biología sintética ya ha inspirado grandes esperanzas y promesas, desde la creación de vida a la solución global de los problemas de energía (Nadra y Sánchez, 2011, p. 1).

De acuerdo con un documento de expertos de la Comisión Europea publicado en 2005, la biología sintética es

la ingeniería de la biología: la síntesis de sistemas complejos basados o inspirados en la biología que despliega funciones que no existen en la naturaleza. Esta perspectiva ingenieril puede ser aplicada a todos los niveles de la jerarquía de las estructuras biológicas –de las moléculas individuales hasta células, tejidos y organismos completos (European Commission, 2005, p. 5).

Según Paul Rabinow y Gaymon Bennett, quienes realizaron un artículo de evaluación general de las perspectivas de la biología sintética elaborado desde el interior del desarrollo de esta nueva disciplina, luego de una primera etapa de manifiestos que apelan a una “ingenierización de la biología”, en la actualidad asistimos a una proliferación de corrientes internas. La primera, quizás la más conocida y sobre la que basamos nuestra investigación, es la ya mencionada competencia internacional i-GEM, en la que toman parte grupos de investigación en todo el mundo bajo la premisa de crear, a partir de materiales y reactivos provistos por una fundación, biobricks, “bioladrillos”, que son partes pequeñas que cumplen una función determinada en varios contextos biológicos diferentes; de allí que se los compare con ladrillos. La adición de estas standard parts debería dar lugar a unidades funcionales más complejas; la pared, para seguir con las analogías. Estos “bioladrillos” son archivados en su conformación teórica en bases de datos de acceso público para los biólogos. La competencia i-GEM, en la que intervienen grupos de investigación formados por ingenieros y biólogos aún en su etapa de formación (doctorandos, incluso estudiantes de grado), es evaluada según criterios muy amplios, desde los clásicamente científicos hasta los lúdicos o estéticos. Así, por ejemplo, en las varias ediciones anuales de la competencia ha llegado a obtener premios un biobrick conformado por bacterias que emiten el perfume de una banana o bacterias que son capaces de copiar fotografías mediante procesos de luminiscencia. Aunque pueden verse las aplicaciones futuras en términos de industria, la competencia i-GEM se presenta ante todo como un espacio de “creación” de nuevas formas de vida mínimas, que realizan un propósito claro y limitado, y que serán luego agregadas a la base de datos formando una colección de “bioladrillos”, del mismo modo que el Genoma Humano formaba la colección de los genes supuestamente constitutivos de la herencia de la especie humana. Es fundamental desde el punto de vista epistemológico señalar que gran parte de la investigación está orientada por simulaciones informáticas que buscan, explícitamente, transformar estos “bioladrillos” en una suerte de caja negra: no sabemos lo que pasa adentro de ellos, sino apenas que entregan un mismo resultado en diferentes contextos.

Luego de esta corriente centrada en las partes, existe, siempre según Rabinow y Bennett, otra corriente centrada en los pathways, o “vías”, cuyo objetivo es crear moléculas sintéticas para ser introducidas en células, donde cumplen una función determinada. El caso más conocido es el del laboratorio de Jay Keasling en la Universidad de Berkeley, que logró sintetizar un precursor de artemisina, una molécula que combate el virus de la malaria en las células de organismos superiores. Por este caso la biología sintética recibió su bautismo mediático, y ya no se trata de competencias internacionales de bajo presupuesto con equipos de estudiantes, sino de laboratorios financiados, entre otros, por una de las fundaciones de Bill Gates. Los pathways son efectivamente una “vía” de comprensión rápida de la biología sintética para el gran público, porque se trata en lo esencial de algo que la biología realiza desde el siglo XIX, esto es, el aislamiento de elementos que permitan crear vacunas contra enfermedades; claro que el énfasis aquí está puesto en la producción artificial, ya no en el aislamiento, de dichos elementos. De hecho, la biología sintética centrada en los pathways comparte con la de las partes el énfasis en las analogías fabriles: se trata de introducir en las células “fábricas químicas de microbios” (Rabinow, Bennett, 2009, p. 102).

Una tercera corriente se refiere a los genomas y entronca directamente con las consecuencias de la relativa decepción sufrida luego de la secuenciación completa del genoma humano. De hecho, uno de los principales inversores en la obtención de genomas sintéticos es el J. Craig Venter Institute, siendo Craig Venter uno de los principales impulsores del Proyecto Genoma Humano desde el sector privado; más aun, siendo él uno de los responsables, luego del patentamiento de varios segmentos genéticos, de la reacción de algunos Estados en el sentido de calificar al genoma humano como un bien público universal y, por lo tanto, inapropiable. Como en el caso de los pathways, se trata de insertar genomas sintéticos en células que serían el soporte de la actividad prevista por ese diseño genético. Una de las investigaciones está dirigida a crear un “robot orgánico”. A diferencia de la investigación centrada en las standard parts, aquí se realizan inmunerables experimentos, permitidos, como ya se dijo, por el abaratamiento de los costos de producción, clonación y síntesis de materiales biológicos, para observar y modificar el funcionamiento de un sistema complejo. De hecho, la analogía ya no es la de un ladrillo o una fábrica, sino la más clásica de la clonación, esto es, de la replicación de los sistemas vivientes.

El cuarto tipo de abordaje de la biología sintética implica a los sistemas biológicos dentro de su medio evolutivo. En algún sentido se trata de una contextualización y también un límite para los abordajes anteriores, en la medida en que pone a prueba las standard parts, los pathways y los genomas ya no a nivel intracelular, sino en los sistemas multicelulares, buscando evaluar hasta qué punto las analogías ingenieriles pueden funcionar para comprender procesos que exceden con mucho la intención de fabricación impuesta sobre una materia ciertamente no inerte. Sin embargo, es también una corriente más ambiciosa, pues en lugar de tratar de utilizar las células existentes como base para la introducción de moléculas sintéticas, busca directamente crear células sintéticas. A diferencia de las corrientes anteriores, por el momento se trata de una búsqueda teórica y computacional.

¿Hemos sido modernos?

¿Cómo podemos evaluar lo que significa la biología sintética en el seno de los procesos de concretización (Simondon) que purifican y a la vez también hibridan a los cuasi-objetos (Latour)? En principio, situando a la biología sintética en una etapa de la biología de alguna manera semejante a otros periodos. En la etapa que se extiende entre la formulación de la teoría de la evolución y el surgimiento de la biología molecular, se multiplicaron las teorías, los objetos, los dominios empíricos y las unidades de análisis que definirían el curso de las ciencias biológicas en la segunda mitad del siglo XX, pero todo ello en ausencia de un modelo epistemológico claro que definiera patrones comunes a la investigación.

Por su parte, la biología sintética también multiplica las áreas de investigación, pero la razón es la caída de un modelo epistemológico previo: el de la información aplicada al funcionamiento molecular de la vida, a la cual hay que sumar el importante componente material del abaratamiento de los costos de experimentación. La idea de hacer de la biología molecular un asunto de ingeniería constituye una suerte de “salto hacia adelante” sobre un impasse teórico considerable. En la investigación que hemos realizado sobre la competencia de i-GEM en Argentina, en estos últimos tres años, hemos podido comprobar que así se plantea la biología sintética. En palabras del biólogo alemán Raïk Grunberg, pronunciadas durante los cursos de formación en 2011 para constituir el equipo argentino que compitió en i-GEM, la post-genómica es una etapa en la que se admite que la complejidad de los sistemas biológicos supera en mucho la visión informática centrada en el ADN como máximo responsable de la herencia; por lo tanto, en lugar de apuntar a describir y explicar dicha complejidad, se trata de experimentar todo lo que se pueda para lograr pequeñas zonas de determinaciones. De eso se trata la ingeniería genética: ensayo y error, a falta de un horizonte teórico claro. Puede parecer contradictorio con casi todo lo que uno puede conocer de epistemología, pero así se presentan, por el momento, los dominios de la biología sintética: un saber ingenieril que se nutre de principios ya adquiridos pero al modo de “una caja de herramientas”, esperando que la complejidad misma de los sistemas biológicos entregue certezas a fuerza de experimentación.

Por otro lado, la biología sintética se halla en continuidad con la etapa de oro de la genómica centrada en el ADN, entre los años 70 y principios de nuestro siglo, en lo que hace a la definición de los parámetros de experimentación originados en la invención del ADN recombinante. La creación de vida artificial, sea con partes, vías, genomas o sistemas, está tutelada por comités de ética que participan activamente en la evaluación de los resultados conseguidos, tanto desde el punto de vista más general sobre las condiciones de la manipulación de hechos biológicos que atañen a los seres humanos como de la cuestión más concreta de la “bioseguridad” que se iniciara en los días de la conferencia de Asilomar. De hecho, muchos investigadores de las ciencias humanas implicados en la biología sintética, comenzando por los mismos Rabinow y Bennett que acabamos de citar, pertenecen a laboratorios o a comisiones de investigación encargados de elaborar criterios de evaluación extracientíficos de los logros de la biología sintética. Una de las novedades en este campo, que ha sido tratada, por ejemplo, en los cursos de la competencia i-GEM en Argentina, es que el abaratamiento de los costos de la experimentación, unido al carácter abierto del acceso a los “bioladrillos” y al énfasis en una ingeniería que prescinde de los conocimientos profundos en materia de biología, suscita peligros sobre los garages labs, una forma de hacer biología sin control científico ni institucional, un poco a la manera en que el relato heroico de la informática nos cuenta que Bill Gates o Steve Jobs crearon las computadoras actuales en sus casas.

Sin embargo, hasta donde hemos podido investigar, todas estas preocupaciones están abordadas como una suerte de apéndice a las exposiciones sobre biología sintética que no cambia en nada el curso de los hechos. Hasta el momento, como la biología sintética está en sus inicios y no ha dado lugar aún a la participación de grandes actores económicos y sociales que definan estándares de investigación, la “bioseguridad” en la biología sintética es un asunto menor.

Tomando como criterios de demarcación del problema la división entre lo natural y lo artificial y el viejo problema del mecanicismo, la biología sintética se presenta como una novedad de proporciones. Detrás del aparente oxímoron contenido en “biología sintética”, que significaría “una ciencia de la vida entendida como artificio”, se asume que lo viviente puede ser algo completamente producido por lo humano, que por su lado forma parte de lo viviente. Si, como decía Vaccari, la biología ya desde los tiempos de la teoría de la evolución procedió a romper la identidad entre vida y artificio heredada del mecanicismo, una biología de lo artificial como la actual estaría en condiciones de rehabilitarla o incluso de lanzar más allá la apuesta, como cuando la búsqueda de genomas sintéticos pretende conformar “robots orgánicos”: luego de comprender lo viviente como mecánico (siglo XVII-XVIII) o como algo informacional (siglo XX), ahora resulta que es lo artificial (robot) lo que se define por lo viviente (orgánico). Más aun, allí donde los mecanicismos construían analogías de valor heurístico, el nuevo mecanicismo ingenieril de la biología sintética tiene valor operatorio.

Ahora bien, en cierto sentido se trata de un mecanicismo en busca de un modelo de máquina luego de la caída de la analogía entre el ADN, la computadora y los sistemas de transmisión. Tiene a su favor, a diferencia de las etapas anteriores, años de investigaciones en síntesis de elementos vivientes, esa misma síntesis que a mediados de los 90 escandalizó a la opinión pública con la oveja Dolly, el primer mamífero producto de una clonación. En definitiva, la biología sintética juega al ensayo y error basándose en todo lo que ya se sabe sobre la interacción entre las moléculas que componen lo vivo.

¿De qué manera asume la biología sintética los desafíos planteados en términos de procesos de concretización (Simondon) y de purificación o hibridación de los cuasi-objetos naturales-artificiales? ¿En qué medida esta ingeniería de lo viviente, más extensa aun que la mera ingeniería genética, seguiría siendo una biología? A la inversa, en el estado actual de las investigaciones sobre lo viviente, ¿sigue existiendo la biología como ciencia de la vida cuando la vida es tratada como artificio? Podemos tratar de responder remitiéndonos a Aristóteles, a su famosa distinción entre lo técnico como aquello que no existe ni por naturaleza ni por necesidad, y lo orgánico como lo que contiene en sí el principio de su propio movimiento. El problema de la biología es que a lo largo de su corta historia, o incluso antes, con el intento de aislar componentes orgánicos para hacerlos cumplir determinadas funciones en sistemas complejos como los cuerpos, y finalizando en la formulación explícita de una ciencia de la vida artificial o del artificio viviente, se embarcó en la factura técnica de lo que tiene en sí una teleología. Cuánto más mejore dicha factura, se hará más acuciante la necesidad de mantener a raya lo inventado, de no permitir que esa teleología se despliegue, de mantener la sustancia viva en los límites estrechos de un artificio, cumpliendo una función, sin sinergias excesivas, sin independencia de acción; o, mejor dicho, utilizando dicha teleología en beneficio del invento, para lo cual se precisa al mismo tiempo recortarla.

Esto es lo que está en juego en los problemas de bioseguridad, en cierto sentido análogos a los viejos peligros atómicos que están lejos de estar extinguidos en el terreno de la física. Y la bioseguridad refleja, al mismo tiempo, las cuestiones relativas a la ontogénesis de la transformación técnica. Siguiendo a Simondon, la biología sintética debe ser capaz de frenar a tiempo el proceso de concretización de sus máquinas vivientes porque contienen en sí, por el hecho de ser vivientes, la posibilidad de ir más allá de la concretización técnica; o sea, de mantener a lo viviente dentro de lo artificial, tal como figura en la conferencia de Asilomar, en el sentido de garantizar que el invento producido en el laboratorio no pueda vivir fuera de él. Por otro lado, siguiendo a Latour, la biología sintética representaría un esfuerzo suplementario de purificación ante el fracaso de las purificaciones anteriores.

Frente a la evidencia de la hibridez entre naturaleza y cultura presente en cualquier ámbito de la biología molecular a partir del ADN recombinante, la biología sintética, ya desde su nombre pero sobre todo en su apelación a las imágenes de la ingeniería y de la construcción (ladrillos, vías, factorías), intenta recubrir a la naturaleza con un manto de artificio, de manera que la determinación última de lo viviente sea en definitiva la invención técnica. No se podría explicar de otro modo el recurso al ensayo y error frente a la inestabilidad epistemológica post-genómica, que revelaría una debilidad teórica. Decir que se puede hacer ingeniería de sistemas biológicos complejos cuando se acaba de demostrar que esa misma complejidad barre con el mecanicismo informacional no es algo insensato, sino la admisión de que los híbridos deben caer del lado de la cultura, de que los cuasi-objetos deben volverse objetos y de que ya es hora de dejar de suponer la equivalencia entre vida y naturaleza.

No por nada en Las palabras y las cosas, Michel Foucault marcaba como un hecho central el paso de la historia natural a la biología. Una vez que hay biología, una vez que hay una historia de la vida, deja de ser necesariamente una historia de la naturaleza. La biología no nació por la vocación de conocer lo que es la vida, sino que la vida es el nombre moderno de un tipo de intervención sobre lo natural que lo convierte en artificio. O sea que, si continuáramos la senda de Latour, cabría decir que nunca fuimos modernos si nos escandalizamos cada vez que nos encontramos con un híbrido, como un bioladrillo o la oveja Dolly, o si bramamos porque los científicos “juegan a ser dios”. ¿O más bien cabría decir que siempre lo fuimos porque para nosotros la naturaleza no existe?

Bibliografía

Canguilhem, Georges (1976). El conocimiento de la vida. Barcelona: Anagrama.

European Commission (2005). Synthetic Biology: Applying Engineering to Biology. Report of a NEST High-Level Expert Group. Disponible en https://goo.gl/wXB9t5.

Jonas, Hans (2000). El principio vida. Hacia una biología filosófica. Madrid: Trotta.

Foucault, Michel (1997). Las palabras y las cosas. México: Siglo XXI.

Fox-Keller, Evelyn (2002). El siglo del gen. Cien años de pensamiento genético. Barcelona: Península.

Latour, Bruno (2007). Nunca fuimos modernos. Ensayos de antropología simétrica. Buenos Aires: Siglo XXI.

López Hanna, Sonia y Ernesto Román (2011). “De los inconvenientes de la separación entre lo humano y lo no humano para comprender el ser artefactual”. Rev. iberoam. cienc. tecnol. soc., 19, 7, 179-185. Disponible en https://goo.gl/M6yDfb.

Nadra, Alejandro y Sánchez, Ignacio (2011). Biología sintética. Documento de difusión y presentación del curso impartido por el Dr. Raïk Grunberg en el Departamento de Química Biológica de la Facultad de Ciencias Exactas y Naturales (FCEN, UBA). Buenos Aires: mimeo.

Parente, Diego (2010). Del órgano al artefacto. Acerca de la dimensión biocultural de la técnica. La Plata: Edulp.

Pichot, André (1999). Histoire de la notion de gène. Paris : Flammarion.

Rabinow, Paul y Gaymon Bennett (2009). ‟Synthetic biology: ethical ramifications”. Systems and Synthetic Biology (2009) 3. DOI 10.1007/s11693-009-9042-7, 99-108. Disponible en https://goo.gl/R2xSsK.

Simondon, Gilbert (2008). El modo de existencia de los objetos técnicos. Buenos Aires: Prometeo.

Vaccari, Andrés (2010). “Vida, técnica y naturaleza en el pensamiento de Gilbert Simondon”. Rev. iberoam. cienc. tecnol. soc., 14, 5, 153-166. Disponible en https://goo.gl/IgqqeB.


  1. Agradecemos la colaboración de los biólogos Diego Ferreiro, Alejandro Nadra e Ignacio Sánchez y de la artista Laura Olalde en los debates para dilucidar qué es y qué se puede esperar de la biología sintética.


Deja un comentario