Otras publicaciones:

9789877231304_frontcover

9789871867936_frontcover

Otras publicaciones:

12-4227t

9789877230055_fullcover

1 Realismo vs. Antirrealismo Científicos

Orígenes del debate

En 1543, a instancias de uno de los discípulos más cercanos de Copérnico, veía la luz la primera edición de De revolutionibus orbium coelestium. Su autor coexistió apenas unos meses con su obra publicada, y se tiene por cierto que su deteriorada salud le impidió llegar siquiera a conocer alguno de sus ejemplares. A pesar de la prudencia que resultaba de uso por aquellos días, Copérnico dejó traslucir en varios pasajes del libro su intención de postular el sistema heliocéntrico —aunque tal vez convenga el nombre ‘heliostático’, ya que el sol no se encontraba precisamente en el centro— no sólo como un sistema de cálculo que superase las dificultades que el modelo ptolemaico arrastraba desde hacía siglos, sino como una descripción del comportamiento físico real de los cuerpos celestes. Sin embargo, este espíritu realista se vio opacado durante algunos años por un prólogo sin firma que antecedía a la obra, y que se atribuyó sin más al mismo Copérnico. En dicho prólogo se aclaraba explícitamente que las hipótesis expuestas a lo largo del texto habían sido concebidas con el sólo objeto de calcular los movimientos celestes a partir de los principios de la geometría, y que “…no es necesario que estas hipótesis sean verdaderas, ni siquiera que sean verosímiles, sino que basta con que muestren un cálculo coincidente con las observaciones” (1987:33). Esa advertencia había sido introducida por el teólogo alemán Andreas Osiander, como un modo de atemperar las posibles reacciones adversas que el revolucionario sistema copernicano pudiera suscitar. Pese a su anonimato, serían precisamente esas líneas las que terminarían por darle a su nombre un lugar destacado en la historia de la astronomía, y de la ciencia en general. Aun cuando sus rasgos coyunturales la dotaban de un carácter más bien político que filosófico, muchos han visto en la advertencia de Osiander el primer antecedente explícito de una posición antirrealista respecto de una teoría científica: el heliocentrismo copernicano no necesitaba ser una teoría verdadera para ser empíricamente adecuada. De hecho ni siquiera pretendía serlo, por lo que al postulado antirrealista que desliga el éxito predictivo de la verdad se agregaba otro netamente instrumentalista: la construcción del sistema no tenía por objeto brindar ningún relato acerca del mundo sino sólo una herramienta de cálculo, por lo que no debía “tomarse como verdad lo imaginado para otro uso” (1987:33).

Otros, como por ejemplo Duehm, han rastreado las manifestaciones de esta postura mucho más lejos. Para él, las posturas realista e instrumentalista se remontan a dos tradiciones alternativas en la historia de la astronomía. Por una parte, una tradición de cuño platónico que, partiendo de la convicción de que los astros se desplazan describiendo órbitas circulares y a velocidades uniformes, pretendía elaborar modelos geométricos que permitieran dar cuenta del movimiento aparente de los planetas, sin que ello tuviese un correlato con la estructura física del universo real. En esa línea Duhem ubica los sistemas de esferas homocéntricas de Eudoxo y Calipo (siglo IV a. C.). Por otra parte, una tradición de espíritu aristotélico en la que los meros artificios matemáticos para describir los movimientos celestes no resultan suficientes si no se los constriñe al criterio más riguroso de la realidad física. A sabiendas de que un mismo movimiento podría ser descripto a través de sistemas distintos, la explicación aristotélica requería de la apelación a la naturaleza de los elementos que entraban en esa explicación, y por ende a la realidad misma de esos movimientos. Es por ello que Aristóteles juzgaba reales las esferas postuladas por Eudoxo y Calipo, y por supuesto a las de su propio sistema.

En esta arqueología del realismo/antirrealismo científicos no han faltado las voces que buscaron relacionar diferentes episodios de la historia de la ciencia y la filosofía con los términos de la polémica actual. Con razón o sin ella, y por más notable que el caso de Osiander sea a la mirada contemporánea, debe admitirse que los debates en torno al realismo científico han estado profundamente imbricados en las disputas generales acerca del realismo y el idealismo, y no han cobrado real independencia ni densidad filosófica hasta fines del siglo XIX y, principalmente, comienzos del XX.

Es allí, en coincidencia con el surgimiento de algunas de las teorías más importantes e influyentes para la ciencia contemporánea, que se abre el juego a interpretaciones y reflexiones filosóficas acerca de esas teorías y de la ciencia en general. Con todo, no es sino hasta mediados del siglo XX, con la declinación del positivismo lógico como referencia filosófica dominante, que el campo de batalla entre realistas y antirrealistas científicos comienza a tomar la forma que hoy nos resulta familiar.

Fuentes del Realismo Científico moderno

Como sugerí en el apartado precedente, más allá de las posibles reconstrucciones conceptuales del modo en que las raíces del realismo científico moderno se hunden en la historia, dos son las fuentes principales a partir de las que se ha instituido como un campo de debate autónomo. Por una parte, los intentos que algunos científicos con vocación filosófica han llevado a cabo por defender alguna interpretación (realista o instrumentalista) respecto de teorías sobre el mundo inobservable, de cara a la constante afluencia de nuevos resultados experimentales. En esta línea, cabe reconocer dos momentos fundamentales. En primer lugar, el debilitamiento paulatino de las interpretaciones fuertemente instrumentalistas de la teoría atómica a fines del siglo XIX y comienzos del XX ante los avances obtenidos por la física y la química. En segundo lugar, el complejo campo de disputas que sostuvieron los padres de la teoría cuántica respecto de sus posibles interpretaciones a lo largo de su rica y ardua historia, disputas que hoy día siguen siendo de las más desafiantes para cualquier filósofo de la ciencia. En este punto es de vital importancia considerar los fundamentos de la resistencia que realistas como Einstein y Schödinger mostraron hacia la llamada interpretación de Copenhage de la mecánica cuántica -que a pesar de no ser una posición compacta y unificada hegemonizó el campo de la filosofía de la física por décadas-, y sus posteriores derivaciones en las disputas en torno al principio de localidad luego de los influyentes resultados alcanzados por John Bell. Asimismo se hace necesario poner el acento sobre algunas controversias en tono a aparentes consecuencias metafísicas de la teoría cuántica.

Otra fuente no menos relevante para la configuración actual de las piezas en el tablero del realismo/antirrealismo científico está dada por el polo crítico generado en torno al positivismo lógico a partir de los años sesenta y el posterior desarrollo del campo filosófico en las décadas siguientes. El foco en este caso amerita ser puesto sobre el modo en que la polarización de los filósofos de la ciencia -en torno a reconstrucciones de la actividad científica de espíritu realista o más cercanas a la historia y la sociología de la ciencia- contribuyó al desarrollo más preciso y detallado de alguno de los argumentos centrales en favor del Realismo o Antirrealismo Científicos.

Nuevos retos de la ciencia

La idea de que la realidad física pudiese explicarse a partir de la postulación de pequeñísimas unidades indivisibles no ha sido en modo alguno extraña a occidente. Desde Leucipo hasta Newton muchos filósofos y científicos defendieron una u otra forma de atomismo. Sin embargo, fue la obra del químico inglés John Dalton la que instaló las hipótesis atomistas en el centro de la escena científica, lugar que (al menos en sentido amplio) no han abandonado hasta nuestros días. Varios son los factores que pueden mencionarse como concurrentes a esa consolidación. En cuanto a los méritos estrictamente vinculados a su producción, Dalton pudo conjugar satisfactoriamente la doctrina atómica con el todavía difuso concepto de elemento químico para dar cuenta de muchas observaciones conocidas sobre las reacciones químicas. Así se enfrentó a la llamada teoría de las afinidades, que postulaba disposiciones o tendencias intrínsecas de los elementos a combinarse en ciertas proporciones, que en sus diversas formas había monopolizado el campo de la química durante el siglo XVIII. Asimismo su propuesta permitía explicar muchas regularidades empíricas vinculadas con las reacciones químicas, algunas de las cuales habían sido recogidas en leyes ya conocidas, como la Ley de Proust, que describía el modo en que dos o más elementos se combinan dando un determinado compuesto siempre en una relación de masas constantes. Así, dicha ley era explicada a partir de las proporciones definidas del número de átomos de cada elemento que se combina. Por otra parte, el atomismo de Dalton era notoriamente funcional al cada vez más pujante mecanicismo de raigambre cartesiana que dominaba el clima científico de la época, circunstancia que no debe omitirse al considerar las razones de una acogida que, si bien no fue inmediata, se expandió con notoria rapidez. Sin embargo, a pesar de que su poder explicativo y valor heurístico fueron ampliamente reconocidos, en modo alguno las hipótesis atómicas fueron tomadas por más que meras ficciones útiles. Las tablas de pesos atómicos y las leyes de equivalencia para la formación de compuestos que Dalton había derivado a partir de ella tenían plena concordancia con los resultados experimentales, pero la opinión general de la época era que eso sólo bastaba para aceptar un atomismo químico, esto es, la explicación de los procesos de composición por medio de la adscripción de pesos a las partículas atómicas, pero no era suficiente para sostener un atomismo físico en el que dichas partículas elementales fueran consideradas como entidades físicamente existentes. Los aportes de Maxwell y Boltzmann al desarrollo de la teoría cinético-molecular de los gases a partir de 1850, hicieron de la discusión en torno a los átomos un tema de difusión generalizada también en física. A pesar de la concordancia de muchos resultados obtenidos en el marco de esta teoría con las propuestas originales de Dalton (como la atribución de pesos atómicos a partir de la hipótesis de la paridad en el número de moléculas en volúmenes iguales de gases, defendida por el físico italiano Amedeo Avogadro) todavía a fines del siglo XIX muchos de los exponentes más salientes de la ciencia de la época se mostraban escépticos respecto de la realidad de los átomos. Wilhelm Oswald, en parte como respuesta al creciente fervor atomista, pero también como rechazo al mecanisismo imperante en física, desarrolló una alternativa centrada en la reducción de toda explicación mecánica a los principios de la termodinámica, que bautizó energetismo. El concepto mismo de materia debía ser desalojado de las explicaciones físicas en favor de la más plástica noción de energía; el vocabulario referente a átomos era, en el mejor de los casos, un modo abreviado de expresar las operaciones reales de la energía. Estas ideas, si bien no directamente inspiradas en algunos presupuestos del fenomenalismo de Mach, habían claramente sufrido su influencia. También en esa línea, aunque aceptando una versión moderada del energetismo, se encontraba Pierre Duhem, para quien los enunciados acerca de átomos (como acerca de cualquier otra entidad inobservable) no son pasibles de ser verdaderos ni falsos, sino “cómodos” o “incómodos”, es decir, más o menos convenientes para la investigación según la convención vigente. Los únicos enunciados que portan valores veritativos son aquellos que refieren a “hechos de experiencia”. Así, su convencionalismo positivista derivaba en una posición instrumentalista respecto al atomismo. Con las variaciones propias del marco de su pensamiento, idéntica era la posición de Poincaré al respecto, para quien la hipótesis atómica era una suerte de metáfora, un medio para hacer cálculos empíricos por medio de imágenes del entendimiento.

Tal vez el ya aludido fenomenalismo de Mach sea la posición filosóficamente más rica a la hora de listar las evaluaciones críticas de la teoría de Dalton. Frecuentemente insistió en que el átomo no debe ser considerado más que como un signo o función que remite a fenómenos y que los ordena de cierta forma, y que por ello “debe permanecer como una herramienta (tool) para representar fenómenos, como las funciones de las matemáticas” (1886:403). De hecho su reduccionismo fenomenalista no se restringía a los aspectos teóricos, sino que se trataba de una tesis ontológica de carácter general. Todos los objetos de la experiencia son meras abreviaturas conceptuales de cierto rango de fenómenos, los que son en última instancia los únicos constituyentes de la realidad. Así que aun cuando se aceptase la existencia de los átomos (concesión a la que él se resistía) éstos no serían diferentes a las piedras en cuanto a ser sólo signos mentales que reúnen cierta conjunción de experiencias.

La nueva física que comenzó a tomar forma a partir de principios del siglo XX no decidió la controversia entre mecanicismo y energetismo, de hecho la materia y la energía fueron declaradas equivalentes por la teoría de la relatividad y así fue diluida toda pretensión de prioridad ontológica de una respecto de la otra. Sin embargo, la explicación que Einstein brindara en 1905 sobre el movimiento aleatorio de partículas en un fluido, conocido como movimiento browniano, inclinó la balanza en favor de la existencia real de los átomos y las moléculas para buena parte de los actores del debate. Según el artículo, el desplazamiento medio de las partículas podía ser calculado a partir de una constante que representa el número de moléculas que hay en un mol. En la década posterior a su publicación varias investigaciones hallaron valores para esa constante por métodos independientes al ensayado por Einstein, y éstos resultaron sorprendentemente aproximados al original. A menos que tal coincidencia fuera fruto del mero azar, las moléculas, y por tanto los átomos, debían existir. De ello se convencieron tanto Oswald como Poincaré, aunque Mach y Duhem permanecieron siempre escépticos al respecto.

El relativo consenso alcanzado sobre la realidad física de los átomos no cambió la impronta de neutralidad metafísica de la que los filósofos intentaron dotar a la ciencia en aquel momento. Pero la teoría cuántica puso nuevamente bajo la mirada de la comunidad científica una serie de problemas metodológicos y metafísicos que se tenían por superados. Buena parte de la importancia que el debate Einstein-Bohr sobre los fundamentos ontológicos de la teoría cuántica ha tenido para la historia de la ciencia, reside en ser testimonio de la vastedad y profundidad de las discusiones filosóficas que, abiertamente o enmascaradas bajo cuestiones técnicas, acompañaron la marcha de los revolucionarios desarrollos de la teoría cuántica.

La nueva generación de físicos aceptaba de buena gana la realidad de los átomos, para Bohr, por ejemplo:

Las dudas expresadas con frecuencia respecto de la realidad de los átomos eran exageradas, gracias a que el desarrollo del arte maravilloso de la experimentación nos ha permitido estudiar los efectos individuales de los átomos. Con todo, ha sido el reconocimiento mismo de la divisibilidad limitada de los procesos físicos, simbolizada por el cuanto de acción, lo que ha justificado las dudas (…) relativas al alcance de nuestras formas ordinarias de intuición cuando se las aplica a fenómenos atómicos. Ahora bien, puesto que en la observación de esos fenómenos no podemos despreciar la interacción entre el objeto y el instrumento de medida, de nuevo pasan a primer plano las cuestiones que se refieren a las posibilidades de observación. Así, nos enfrentamos aquí, bajo una nueva luz, al problema de la objetividad de los fenómenos que ha suscitado siempre tanto interés en las cuestiones filosóficas” (Bohr, 1988: 134)

Los problemas ahora se habían trasladado a los procesos microfísicos dentro del mundo atómico, en donde muchos de los conceptos de la física clásica y de la intuición ordinaria (cuyo origen bien puede atribuirse al tratamiento cotidiano con entidades macroscópicas) parecían ya no ser aplicables debido a una serie crecientemente compleja de fenómenos que requirieron (y requieren aún) de una precisa interpretación. El primer problema con el que se toparon los teóricos cuánticos fue la interpretación de la función de onda de Schödringer. Dicha función es una forma de representar el estado físico de un sistema de partículas, y es capaz de adoptar valores complejos en los que aparece la unidad imaginaria. El mismo Schödringer proporcionó una ecuación determinista para explicar la evolución temporal de la función de onda y, por tanto, del estado físico del sistema en el intervalo comprendido entre dos medidas. En un primer término esta ecuación fue interpretada en clave realista por su autor, de acuerdo a la idea de que las partículas podían entenderse como una onda física que se propagaba en el espacio. Pero esta propuesta fue rápidamente abandonada y la función pasó a ser representada en un espacio de Hilbert de dimensión infinita. El problema de cómo entender al correlato físico de la función onda se vincula estrechamente con otro de los problemas centrales de los fenómenos cuánticos: su naturaleza dual, que permite entenderlos alternativamente como ondas o partículas.

Un segundo problema conceptual es el problema de la medición, también conocido como ‘colapso de la función de onda’. De acuerdo con la mecánica cuántica, un sistema microfísico se encuentra, respecto de algunas variables que eventualmente podemos medir (la orientación del spin de un electrón), en una serie de estados combinados que son descriptos de modo determinista por la función de onda de Schödringer, dicho de otro modo, el sistema evoluciona de modo determinista mediante una suerte de superposición de sus estados posibles. Pero al tomar efectivamente la medida de esa variable, obtenemos un valor único que no es determinado por la función ni por medio alguno, y que sólo puede anticiparse estadísticamente. Eso es lo que se conoce como ‘colapso de la función de onda’. Ese factor de discontinuidad y azar en la medición ha sido fruto de múltiples interpretaciones. La más tradicional, propuesta por los padres de la cuántica, establece una continuidad indisoluble entre el instrumento de medición y la magnitud medida, de modo que fuera del proceso mismo de medición no es posible hablar de atributos objetivos de un sistema microfísico. Los fenómenos observados no pueden ser descriptos fuera del proceso de interacción entre el sistema y el aparato de medición. Esta idea, cultivada primordialmente por Bohr y Heisemberg, ha sido uno de los componentes nucleares de la denominada interpretación de Copenhague (u ‘ortodoxa’) de la mecánica cuántica, aun cuando algunos años más tarde el segundo de ellos procurara dotar de algún tipo de realidad potencial a los estados cuánticos no medidos, acudiendo a la teoría aristotélica de la potencia. A ella debe adicionarse el principio de incertidumbre que, sumariamente, expresa la imposibilidad de determinar conjuntamente los valores para la posición y el momento de una partícula, ya que nuestro grado de conocimiento de una de esas variables va necesariamente en detrimento de nuestro conocimiento de la otra.

Einstein nunca se mostró a gusto con las implicaciones indeterministas y antirrealistas de la teoría cuántica. Especialmente se preocupó por demostrar que si no podemos adscribir ciertas propiedades a un sistema que no se encuentra siendo medido sino de modo estadístico, entonces la descripción que la teoría cuántica hacía de la realidad no podía ser completa. En otras palabras, podría ser completada por una teoría más expresiva, que aludiera a variables todavía no consideradas. En un artículo publicado en 1935 en colaboración con Boris Podolsky y Nathan Rosen desarrolló un argumento para probar este punto que pronto se bautizó como argumento (Einstein-Podolsky-Rosen). Sintéticamente, exponía el hecho de que cuando dos sistemas microfísicos que se encuentran alejados pero que han interaccionado en el pasado, las mediciones de la posición o momento en uno de ellos permite inferir el valor que la misma variable tendrá en el otro, aun cuando este no sea efectivamente sometido a una medición. Pero si un sistema tiene valores determinados para sus variables cuando no está siendo medido, y la teoría cuántica no los describe, entonces no es completa. Existen variables ocultas a dicha teoría. Las discusiones en torno al argumento EPR se prolongaron durante el resto del siglo XX y subsisten hoy día, aunque en una forma bastante diferente. Ya desde el momento de su misma formulación se hizo notar que el argumento EPR estaba sostenido en algunos supuestos, entre ellos el de localidad, que eliminaba la posibilidad de que la medición en un sistema afectara a distancia al sistema con el que previamente había interactuado, pero del que luego se encontraba alejado. Los resultados obtenidos por Bell en 1964 mostraron la imposibilidad de formular una teoría de variables ocultas local, pero lejos de echar por tierra las aspiraciones realistas, esto abrió un nuevo y amplio campo de interpretaciones de la teoría cuántica dispuestas a conservar alguna forma de realismo respecto de los estados cuánticos, a costa de renunciar al postulado de localidad[1]; campo que se muestra hasta nuestros días tan concurrido como fructífero.

Las discusiones en torno a las interpretaciones realistas o antirrealistas de la mecánica cuántica no agotaron las disputas filosóficas que dicha teoría inspiró. Fue muy variado el espectro de cuestiones metafísicas a los que el universo cuántico abrió nuevos flancos de debate. Entre ellos quisiera mencionar especialmente la cuestión de la identidad e individualidad de las partículas cuánticas, que tuvo especial influencia en el desarrollo de alguna de las formas de realismo estructural. Una consecuencia casi universalmente aceptada de los postulados de la teoría es que dos partículas podrían compartir todas y cada una de sus propiedades (incluso sus propiedades espaciotemporales) y aun así ser consideradas dos partículas diferentes. Esta consecuencia viola abiertamente el principio de identidad de los indiscernibles, que ha sido uno de los pilares sobre los que tradicionalmente se ha sustentado la noción de individuo u objeto. Es por ello que buena parte de las interpretaciones en danza (al menos aquellas que intentan salvar algún grado de realismo) han cuestionado el hecho de que las entidades cuánticas sean individuos u objetos según la definición tradicional, caracterizándolas como no-individuos.

La irrupción en la historia de la ciencia de la teoría atómica y la mecánica cuántica ha propiciado buena parte de las polémicas que hoy son moneda corriente en el debate entre realistas y antirrealistas científicos. Salvando las distancias históricas y las peculiaridades propias de sus pormenores, hay ciertos paralelos que pueden ser trazados. La teoría atómica fue inicialmente recibida como una mera especulación cuyo único mérito era su adecuación empírica: su poder explicativo/predictivo permitía reunir una serie de regularidades conocidas que permanecían virtualmente inexplicadas, pero nadie tomaba en serio la posibilidad de que los átomos tuviesen una existencia real. Sin embargo, y aun cuando ya en los umbrales del siglo XX muy poco quedaba en pie de la original formulación de Dalton, los resultados experimentales terminaron por desplazar la interpretación instrumentalista en favor de un realismo metafísico respecto de las partículas atómicas. Las aporías conceptuales a las que parecen conducir algunos de los postulados fundamentales de la mecánica cuántica la han hecho nacer bajo la sombra de una interpretación que, más allá de algunas particularidades, puede ser tenida por instrumentalista. Si bien las interpretaciones no locales han acaparado buena parte de la atención en la segunda mitad del siglo pasado, y aún hoy, sería exagerado equiparar esta tendencia con el vuelco hacia el realismo que tiñó a las interpretaciones de la teoría atómica. Sin embargo, sí puede señalarse que tanto en el caso de la teoría atómica como en el de la mecánica cuántica, el arco de evaluaciones filosóficas que suscitaron fue evolucionando desde un antirrealismo de marcada tendencia positivista que pretendía atenerse a los aspectos empíricos de las teorías, hacia la valoración paulatina de los compromisos ontológicos que dichas teorías implican, si no para abrazar una lectura realista, al menos para reconocer la importancia de las cuestiones metafísicas como parte constituyente de la evaluación de una teoría.

Nuevas perspectivas filosóficas

La segunda pieza clave en la construcción del debate contemporáneo entre realistas y antirrealistas corresponde netamente a la filosofía y se relaciona de modo mucho más directo al abandono de las tesis positivistas y la revitalización de las discusiones metafísicas. Consiste de hecho en el rumbo que han tomado las reflexiones filosóficas acerca de la ciencia y su práctica luego del ocaso del positivismo lógico. Nada de lo que pueda decirse en una síntesis tan apretada como la que aquí se presenta puede constituir un análisis valorable del trabajo de los miembros del Círculo de Viena. Me limitaré a señalar algunos matices en su posición respecto de la cuestión central de este trabajo.

Más allá de que la riqueza de las opiniones de muchos de sus exponentes hace dificultoso hablar de una posición unificada, los empiristas lógicos han sido siempre ubicados más cerca de posiciones antirrealistas. A decir verdad, varios de sus desarrollos en semántica (el principio verificacionista del significado en sus distintas versiones, la reducción del vocabulario teórico al observacional, etc.) procuraban constituir una postura más bien neutral respecto de la disputa. Carnap, por ejemplo, había desarrollado una interesante clasificación respecto de las cuestiones que pueden plantearse en el seno de un campo determinado de investigación. Para el filósofo alemán, la aceptación de una teoría implica la adopción de un marco lingüístico que le es propio, en el que pueden definirse sus términos descriptivos y establecerse relaciones diversas a partir de ciertas reglas. Una vez aceptado el marco, las cuestiones que se pueden plantear a partir de él son de dos tipos: internas y externas[2]. Mientras que las primeras pueden investigarse lógica o empíricamente y responderse a partir de las herramientas que el propio marco ofrece, las segundas son meras especulaciones metafísicas sin valor cognitivo. Aceptado el marco de los números naturales tiene sentido preguntar si existe un número primo máximo, se trata de una cuestión interna cuya respuesta debe buscarse mediante el razonamiento matemático, pero si en cambio preguntásemos si existen los números, o si el nueve es una entidad real, estaríamos aventurándonos a una cuestión externa para la que el marco lingüístico que adoptamos no puede tener respuesta. Lo mismo haríamos si indagásemos acerca de la existencia de los átomos: ello tiene sentido como una cuestión interna, pero como problema metafísico es cognitivamente vacío. De ese modo la controversia sobre el realismo científico es reducida a una mera cuestión de formas de hablar, para Carnap

Decir que una teoría es un instrumento de confianza -esto es, que se confirmarán las predicciones de sucesos observables deducidas de ellas- es esencialmente lo mismo que decir de la teoría que es verdadera y que las entidades inobservables de las que habla existen. Así, no hay ninguna incompatibilidad entre la tesis de los instrumentalistas y la de los realistas. (Carnap 1985: 218)[3]

Pero más allá de su pretendida neutralidad, la resistencia respecto de cualquier compromiso metafísico y, en algunos casos, la adopción explícita del instrumentalismo han acercado al empirismo lógico a una toma de posición más cercana al antirrealismo.

En el abandono de su posición dominante el empirismo lógico dio lugar, a partir de los años sesenta, a múltiples variaciones en el tono y el objeto de la filosofía de la ciencia. Aunque lo heterogéneo de las propuestas hace ardua cualquier clasificación, creo que es posible distinguir dos tendencias bastante bien definidas. Por una parte, un creciente número de filósofos de la ciencia se ocupó de señalar la importancia que la historia y la sociología de la ciencia tenían en la reflexión epistemológica. Su denominador común fue el abandono del normativismo empirista en pos de una consideración de la ciencia que resaltara sus aspectos prácticos, y su inserción en tanto actividad humana en una compleja red de determinaciones sociales, lingüísticas, culturales, etc. Autores como Hanson, Feyerabend y Goodman han estado a la cabeza de esta corriente, aunque, en parte por la originalidad de sus ideas, en parte porque su expansión ha alcanzado campos muy distantes de la filosofía e incluso de otras disciplinas, el pensamiento de Kuhn ha ejercido más influencia que ningún otro. Tal difusión se ha debido en buena medida al impacto de su tesis de la inconmensurabilidad, una de las más radicales de su propuesta ya que -cuestionando la continuidad semántica, epistémica y metodológica en el desarrollo histórico de la práctica científica- ponía en jaque la noción misma de progreso científico. En el marco de las críticas a (y alegatos en favor de) estas nuevas ideas se han desarrollado muchos de los argumentos hoy clásicos en el debate Realismo vs. Antirrealismo Científicos.

Aunque la variedad de sus indagaciones no haya permitido una identificación inmediata bajo un rótulo común, la salida histórica del positivismo lógico ha dado lugar a otra tendencia filosófica que asumió rápidamente una posición adversa a la incursión del historicismo en epistemología, y en particular a sus consecuencias relativistas. Las banderas del realismo, en versiones más o menos radicales, se levantaron a favor de la racionalidad de la empresa científica, como así también para defender su carácter continuo y acumulativo. El sacrificio de la pretensión positivista de desterrar las cuestiones metafísicas de la filosofía de la ciencia no implicaba el abandono del rigor lógico y empírico del que los padres de la ‘concepción heredada’ la habían dotado. Karl Popper fue sin dudas uno de los iniciadores y más importantes exponentes de esta corriente. Sellars, el primer Putnam y Bunge fueron continuadores de esta empresa filosófica de las que hoy son herederos autores como Psillos, Kitcher o Niiniluoto.

Variantes del realismo científico

Muchos han sido los intentos de dar con una clasificación lo suficientemente amplia y precisa de las variantes del realismo científico, y todos ellos han sido motivados por una u otra concepción acerca de en qué consiste el debate entre realistas y antirrealistas y cuáles son sus puntos más salientes. La presente propuesta (inspirada en las taxonomías elaboradas por Kukla y Chakravartty[4]) pretende brindar un mapa general de los distintos campos en los que se ha desarrollado la polémica a fin de hacer inteligible el rol que el realismo estructural vino a jugar en ella.

En una formulación más que preliminar, decidir si uno es o no un realista científico implica cuestionarse si la ciencia nos brinda o no un conocimiento acerca de cómo es el mundo. Ya desde este torpe ensayo queda en claro que esa decisión queda profundamente afectada por nuestros presupuestos acerca del realismo en sentido amplio, como opuesto a alguna forma de idealismo. En principio habría que clarificar si con ‘mundo’ nos referimos a una realidad independiente de la mente humana, o por el contrario a alguna clase de constructo ontológicamente dependiente de los sujetos, culturas o sociedades. En buena parte de los casos los cuestionamientos o defensas del realismo científico dan por sentado un realismo en sentido amplio. Es cierto, de todos modos, que algunas formas de relativismo o constructivismo social han tenido algún tipo de influencia en el debate, abonando la idea de una ciencia que no se aboca a la investigación objetiva sobre algo así como ‘los hechos en sí mismos’. Sin embargo, creo que su injerencia en la controversia es relevante para el presente trabajo en la medida en que dichas posiciones cuestionan la existencia de las entidades inobservables postuladas por la ciencia, y no tanto por su concepción de la realidad como una totalidad cultural o socialmente construida (o relativa). En tal sentido se hacen patentes dos aspectos esenciales que fundan esta caracterización del realismo científico. En primer lugar, que pese a que el grado de compromiso ontológico que se tenga respecto de la realidad en general es relevante para el realismo científico en particular, éste será entendido en el marco del presente trabajo como una cuestión que atañe principalmente al mundo inobservable. En segundo término, y como una consecuencia obvia de ello, que -contrariamente a lo que algunos han afirmado- la distinción entre los aspectos observables e inobservables del mundo es tan relevante para el realista como para el antirrealista.

Otro punto preliminar que ha de contemplarse consiste en si se formulará una definición de lo que constituya una mirada realista respecto de la ciencia en términos de logros o de pretensiones. Algunas de las definiciones tradicionales del realismo científico refieren a que la ciencia nos brinda un relato verdadero (o aproximadamente verdadero) sobre el mundo. Otras ponen en acento en que los términos pertenecientes a nuestras mejores teorías que aluden a entidades inobservables, refieren. Esos caminos no son los únicos para caracterizar el realismo, pero lo relevante es que la verdad o la referencia son tratadas como logros más o menos acabados de la ciencia actual. Otros han preferido una caracterización más débil (según algunos, demasiado débil[5]) en términos de pretensiones. Van Fraassen propone la siguiente formulación del realismo científico: “La ciencia pretende darnos en sus teorías un relato literalmente verdadero acerca de cómo es el mundo; y aceptar una teoría científica implica la creencia de que ella es verdadera.” (1980:8)[6]. Si bien las motivaciones centrales de este trabajo son independientes de una caracterización del realismo científico en términos de logros o pretensiones, se tomará como base la primera, por ser la más difundida y la que subyace a la mayoría de las posiciones que toman partido en el debate.

Como ya ha quedado de manifiesto, si bien existen múltiples formas de caracterizar al realismo científico, todas ellas gravitan en torno al grado y tipo de conocimiento que la ciencia nos brinda del mundo, principalmente acerca de sus aspectos inobservables. Pero pese a esa primacía de las entidades inobservables en la cuestión del realismo científico, el tipo de compromisos metafísicos que se esté dispuesto a asumir en relación con la cuestión más amplia del realismo en general puede, como ya se ha señalado, ser relevante para la articulación de algunas posiciones realistas o antirrealistas. Es por ello que previo a desarrollar las tres dimensiones de análisis que la taxonomía ofrecida en el presente trabajo requiere, se expondrán tres niveles en el grado de compromiso ontológico que pudiera asumirse en relación a la cuestión del realismo en general:

  • Nivel 1: Datos de los sentidos
  • Nivel 2
    • (a): Objetos macroscópicos / objetos del sentido común
    • (b): Entidades inobservables
  • Nivel 3: Entidades abstractas

En primer lugar, podría uno optar por un realismo respecto de los datos sensoriales, que no se aventure a compromisos ulteriores con la existencia de objetos, estructuras, relaciones causales o modales ni nada que vaya más allá del flujo de los fenómenos. En ese primer nivel de compromiso podrían ubicarse a posiciones fenomenalistas como las de Mach y la de los primeros positivistas lógicos (antes de su giro fisicalista), y a las tesis de Quine y de Hume, al menos atendiendo a su interpretación tradicional. Por otra parte, y arribando a un segundo nivel, podríamos comprometernos con la existencia de un mundo exterior, de un universos de objetos físicos, estructuras que trasciendan el plano meramente fenoménico. Constituye casi una obviedad destacar que la articulación de este nivel de compromiso puede observar las variaciones más diversas, de hecho buena parte de la historia de la filosofía puede contarse a través de las modulaciones que este segundo nivel ha tenido. Pero en lo que respecta a las pretensiones de estas páginas el foco estará puesto en lo que podríamos denominar ‘objetos del sentido común’ tales como sillas o piedras, y entidades inobservables como electrones o campos magnéticos. Sin embargo, como ya he sugerido antes, la distinción entre entidades observables e inobservables es crucial para trazar los límites del debate. Es por ello que dentro de este nivel cada tipo de entidades ocupa un sub-nivel específico, y es precisamente en el ámbito de los compromisos con los aspectos inobservables del mundo exterior en el que la contienda entre realistas y antirrealistas tiene lugar, ya que, en general, ambos suelen aceptar la existencia de objetos macroscópicos o del sentido común. En último lugar podemos ubicar el compromiso ontológico con entidades abstractas tales como números, clases, modalidades o proposiciones. Aunque no a todas les convenga de igual modo, a las posiciones que han adoptado compromisos correspondientes a este tercer nivel se les suele asignar el rótulo de ‘platonistas’.

Si bien el entramado de las opiniones filosóficas guarda una vasta diversidad en la que puedan hallarse notables excepciones, la adopción de cada uno de estos niveles parece presuponer, en la mayoría de los casos, el compromiso con los niveles anteriores[7]: quién está dispuesto a aceptar clases o modalidades objetivas en su ontología difícilmente rechace la existencia de átomos, piedras o fenómenos; mientras que aquél que acepta la existencia de entidades inobservables suele dar por sentada la de los datos de los sentidos.

Con las advertencias ya formuladas, la disputa entre realistas y antirrealistas tiene lugar en el segundo nivel de la gradación de compromisos presentada, entre quienes aceptan tanto (a) como (b), i.e., los realistas científicos, y los que aceptan solamente (a), sea porque nieguen (b), sea porque prefieran solamente evitar el compromiso sin pronunciarse al respecto. Sin embargo con esta clasificación no hemos hecho mucho más que marcar los límites del campo de batalla, ya que si bien es un punto relevante qué niveles de compromiso corresponden a realistas y antirrealistas, buena parte del interés filosófico de la disputa radica en los tipos de compromiso que se adoptan en cada nivel para sustentar una u otra posición. Por ejemplo, uno podría comprometerse en cierto sentido especial con (b) y ser aun un antirrealista científico. Eso se debe a que la cuestión del realismo científico se despliega en realidad sobre tres dimensiones diferentes, que pueden ser expuestas a través de tres preguntas fundamentales que deberían responderse a fin de tomar partido en la cuestión del realismo científico.

La primera de ellas es ontológica: ¿existe una realidad independiente de la mente? Como pregunta en general nos devuelve la discusión en torno al realismo como opuesto al idealismo, al constructivismo social o a ciertas formas de neo-kantismo. Sin embargo, en particular, puede ser respondida de manera independiente en cada uno de los tres niveles de compromisos metafísicos. Como hemos restringido la cuestión del realismo científico al nivel 2(b), la pregunta ontológica puede reformularse cómo: ¿existen (como una realidad independiente de la mente) las entidades inobservables postuladas por la ciencia? Esta es la pregunta capital para tomar posición en el debate. Una respuesta afirmativa o negativa daría como resultado, respectivamente, un realismo o un antirrealismo metafísico. Y si bien se verá a continuación que las tres dimensiones del debate dan lugar a diversos matices, es sobre esta antinomia que los realistas y antirrealistas científicos cierran filas, ya que, como he sugerido en la introducción, a pesar de las vetas ésta es una controversia de orden metafísico.

La segunda pregunta es semántica: ¿deben las teorías científicas ser interpretadas literalmente? Esto es, ¿debemos considerar que sus enunciados tienen valores de verdad? Una respuesta afirmativa corresponde a un realismo semántico, mientras que una negativa se asocia fuertemente al instrumentalismo. Con la restricción al nivel 2(b) a la que ya se ha aludido —y dando por sentada una actitud realista hacia 2(a)— debemos preguntarnos si los enunciados que hacen alusión a entidades inobservables refieren, o deben ser interpretados de un modo no literal (por ejemplo, como meros instrumentos de cálculo). Debe notarse que posiciones como el fenomenalismo de Mach no harían ninguna diferencia entre los niveles 2 (a) y (b), ya que ningún enunciado debe ser interpretado literalmente, sino como refiriendo abreviadamente a un cierto rango de fenómenos. Por otra parte, la adopción del realismo semántico no debe identificarse con la del realismo científico: el empirismo constructivo acepta que las teorías deben ser interpretadas literalmente, aunque permanece agnóstico respecto de la existencia de las entidades inobservables. Dicho de otro modo, mientras que respondería afirmativamente a la pregunta semántica, se abstendría de dar respuesta a la pregunta ontológica.

Por último, una pregunta epistemológica podría formularse como sigue: ¿tenemos conocimiento del mundo? Nuevamente esta pregunta puede restringirse al nivel 2(b) para ser conducida a los límites del debate. El realismo científico más fuerte respondería a ésta —como a las dos preguntas anteriores— afirmativamente, mientras que el antirrealista lo haría por la negativa, o se abstendría de responder.

Es de suma importancia notar que a diferencia de las preguntas ontológica y semántica, la epistemológica admite consideraciones de grado. Poco sentido tendría hacer interpretaciones literales parciales de los enunciados que refieren a inobservables, y en cualquier caso la interpretación selectiva debería ser justificada mediante un criterio que no podría ser tan sólo semántico. ¿En qué sentido criterios gramaticales, morfológicos, lingüísticos, lógicos, etc. podrían determinar que el término ‘electrón’ refiere a un electrón, mientras que ‘onda’ no refiere a una onda sino que es un mero signo para el cálculo predictivo? Lo mismo ocurre con cualquier limitación de los compromisos metafísicos a la existencia de ciertas entidades en particular, con el agravante de que cualquier compromiso ontológico con entidades inobservables, por limitado que éste sea, lo pone a uno en el barco de los realistas metafísicos. La cuestión epistemológica es en cambio susceptible de ser relativizada. No sólo porque determinar lo que conocimiento significa resulta una cuestión más espinosa que hacer lo propio con existencia o interpretación literal, sino porque, aun limitándonos a una definición ingenua, el conocimiento admite múltiples focalizaciones según convicciones metafísicas previas. Esta posibilidad ha dado lugar a ciertas variantes particulares del realismo científico. El realismo de entidades, por ejemplo, sostiene un compromiso metafísico hacia las entidades inobservables, pero restringido a aquellas que pueden ser manipuladas o utilizadas de algún modo para intervenir en algún otro fenómeno. Es decir, el realismo metafísico debe quedar limitado por el grado de conocimiento que tenemos sobre el mundo inobservable, conocimiento que queda atado a las capacidades técnicas de manipulación de algunas entidades[8]. Otra de las variantes que se desprenden de la cuestión epistémica es la que ocupa el interés central de estas páginas, el realismo estructural. Si nuestro conocimiento del mundo inobservable se limitase a sus aspectos estructurales, el compromiso realista debería quedar restringido a dichos aspectos, permaneciendo agnóstico respecto de cualquier descripción de la naturaleza de procesos, propiedades o entidades inobservables.

Argumentos

El argumento del no-milagro

El argumento del no-milagro (ANM) recoge una fuerte intuición presente en mayor o menor medida en toda actitud realista que históricamente se haya tenido hacia la ciencia, y, en parte por ello, se ha convertido en el arma de mayor peso para los realistas científicos. Su formulación más acabada se debe a Putnam (1975:73; 1978), para quien el realismo es “la única filosofía que no hace del éxito de la ciencia un milagro”. El argumento tiene como piedra de toque el éxito predictivo y técnico de la ciencia, cuestión que pese a las múltiples y diversas resistencias que el realismo ha tenido desde la segunda mitad del siglo XX, no ha sido seriamente discutida por la mayoría de los antirrealistas. Aceptada entonces la premisa de que la ciencia es exitosa, el argumento incorpora una segunda premisa que, a diferencia de la primera, ha suscitado las más variadas críticas: la mejor explicación de ese éxito es que las teorías sean verdaderas (o aproximadamente verdaderas, o que describan adecuadamente a las entidades, leyes, estructuras propias del mundo). De ambas premisas se infiere que deberíamos adoptar una actitud realista hacia las teorías.[9] La alternativa a la explicación que tiene por verdaderas (o aproximadamente verdaderas, etc.) a las teorías para dar cuenta del éxito de la ciencia, es la que lo asume como un hecho milagroso, por lo cual la elección es obvia.

La fuerza intuitiva de este argumento ha sido atacada desde varios frentes. Se ha sostenido que el éxito de la ciencia tal vez no requiera en realidad de ninguna explicación; en esa línea se ha comparado a las teorías con organismos bien adaptados: las teorías que sobreviven son las más exitosas (van Fraassen, 1980; Wray, 2010). Sin embargo, la debilidad de esa analogía reside en que si no se considera a las teorías en general, sino a una en particular, su éxito —tal como la supervivencia de un organismo particular— debería ser explicado a partir de ciertas características propias de esa teoría, siendo la verdad nuevamente un fuerte candidato. Pero más allá del alcance de la analogía, el mismo van Fraassen ha mostrado reparos respecto de la idea genérica de explicación, cuestionando el modelo de cobertura legal hempeliano en favor de una visión pragmática que relativiza tanto la importancia, como lo que en ciertos contextos pueda constituir una explicación de algún fenómeno. Otra estrategia para socavar la plausibilidad del ANM ha consistido en imputarle ser un caso de la llamada Falacia de Tasa Base (Base Rate Fallacy). Si se implementara una prueba para detectar una enfermedad que no tiene falsos negativos, pero sí falsos positivos en uno de cada diez casos (es decir, de cada diez personas sanas que se someten al test una obtiene un resultado positivo), podría preguntarse cuál es la probabilidad que un individuo que dio positivo en la prueba tenga efectivamente la enfermedad. Una respuesta inmediata podría ser que tiene el 90% de probabilidad de estar infectado, pero sin embargo esa respuesta es incorrecta, ya que la probabilidad real depende de la incidencia de la enfermedad en el total de la población. Si se tratase de una patología sumamente rara la probabilidad podría estar por debajo del 1%. Si se toma el éxito de las teorías como un indicador de su verdad aproximada, el ANM podría ser una instancia de dicha falacia, en tanto no existe forma de conocer la tasa base de teorías aproximadamente verdaderas. Contrariamente, Worrall (2009) ha mostrado que esta objeción depende de una mala formalización en términos de probabilidades que no es propia del argumento. Como queda patente en la formulación de la segunda premisa del argumento, éste depende en buena medida de un tipo de razonamiento que suele denominarse abductivo, o inferencia a la mejor explicación (IME), según la expresión introducida por Gilbert Hartman. Sumariamente, supóngase que tenemos la evidencia E y estamos considerando varias hipótesis, digamos H y H1. La regla dice que debemos inferir H más bien que H1 precisamente si H es una mejor explicación de E que H1. Dada esta profunda vinculación, las objeciones hacia la IME como forma genérica de razonamiento se han constituido en críticas al realismo científico. Volveré sobre algunas de ellas al considerar la IME en relación a la respuesta realista al argumento de la meta-inducción pesimista.

La meta-inducción pesimista

Más allá de la batería de objeciones alzadas contra el ANM, es claro que la convicción de los realistas científicos descansa en gran medida en la poderosa intuición que éste encarna. Es quizás en razón de ello que, atendiendo a su fuerza persuasiva, se tenga como su contrapartida antirrealista por excelencia al argumento de la meta-inducción pesimista (MIP). Pese a que contradice la conclusión de su rival realista, sus bases no son tanto de orden conceptual como empíricas: la historia de la ciencia brinda un vasto reservorio de teorías que a la luz de los compromisos presentes son consideradas falsas. Pero no sólo eso, dichas teorías fueron en su tiempo empíricamente adecuadas. Es entonces ese catálogo de teorías falsas y exitosas el que se toma como base para inferir inductivamente (mediante una enumeración) que cualquier otra teoría empíricamente adecuada (incluyendo, por supuesto, a las actuales) será considerada falsa en algún momento. La misma conclusión puede expresarse en clave semántica u ontológica sosteniendo que nuestras mejores teorías fallarán sistemáticamente en la referencia de sus términos teóricos (dicho más propiamente, los términos que pretendan aludir a entidades inobservables) al igual que las teorías previas, o que la ontología que propongan será reemplazada tal como fueron reemplazadas las ontologías pasadas. Si bien las bases de este argumento se han sugerido en los trabajos de Poincaré (1905) y Putnam (1978) la discusión contemporánea se enfoca fundamentalmente en la formulación de Laudan (1981), quien enfatiza el fenómeno de la discontinuidad referencial a través del cambio teórico como base para la conclusión pesimista.

La estrategia más frecuente para responder a esta objeción, que ha hecho hincapié precisamente en este aspecto semántico a fin de reducir la base de la inducción, tiene una estrecha vinculación con una de las intuiciones realistas más mentadas: la continuidad del conocimiento científico. El objetivo ha consistido en mostrar que la discontinuidad referencial en el vocabulario teórico no es tal, sino que por el contrario existe un sustancial solapamiento referencial en buena parte de las teorías que aunque exitosas, fueron reemplazadas luego por otras. Dicho de otro modo, el pretendido repertorio de teorías que se mostraron empíricamente adecuadas pero que resultaron falsas es en el mejor de los casos una clase sumamente acotada, ya que las teorías que alguna vez ostentaron éxito predictivo eran en realidad aproximadamente verdaderas, seguramente lo eran menos que sus sucesoras, pero en modo alguno se trataba de teorías falsas. Pese a los esfuerzos formales y conceptuales, la noción intuitiva de verdad aproximada se ha mostrado escurridiza para los sucesivos intentos de elucidarla, y parece lejana la posibilidad de un acuerdo acerca de cuál es la estrategia adecuada para hacerlo[10]. Algo semejante acontece en el campo de la referencia. La cuestión de encontrar una teoría de la referencia adecuada a los intereses del realista científico —preservar cierta continuidad referencial en el vocabulario teórico a lo largo de la historia de la ciencia— ha sido especialmente espinosa.

La subdeterminación de la teoría por los datos

Otro de los desafíos centrales para el realismo ha sido un argumento concerniente a la justificación de las teorías cuya historia se remonta hasta el siglo XIX, más precisamente a la obra de Duhem (1906), quien reflexionando sobre el modo en que se justifican los enunciados que componen las teorías físicas sostuvo que su contrastación no se efectúa aisladamente, sino conjuntamente con todo una serie de asunciones auxiliares. Es por ello que ante un resultado negativo es sumamente complejo identificar qué partes de ese conjunto cargan con el peso del fracaso. La historia de la filosofía ha puesto estas ideas en estrecha relación con el holismo de la confirmación de Quine, para quién la experiencia no confirma ni refuta ninguna hipótesis individualmente, sino siempre la totalidad de nuestro cuerpo de creencias[11]. Así, diferentes configuraciones de ese cuerpo de creencias son todas compatibles con la experiencia disponible. La frecuencia con la que esas ideas han sido narradas como parte de una misma historia ha hecho popular el nombre de ‘tesis Duhem-Quine’. En el debate contemporáneo sobre el realismo científico la posibilidad de que cuerpos alternativos de creencias se acomoden con igual eficacia a la experiencia se ha transfigurado en la idea de que es posible que existan dos teorías lógicamente incompatibles, —i.e. no podrían ser ambas verdaderas— pero empíricamente equivalentes —i.e. que tienen el mismo conjunto de consecuencias observacionales—. Si este fuese el caso, no habría razones empíricas para pensar que una de ellas tenga más posibilidades de ser verdadera que la otra, es decir, la elección estaría subdeterminada por la evidencia. De hecho, van Fraassen ideó un algoritmo que permite crear, a partir de una teoría dada, un conjunto infinito de teorías incompatibles pero empíricamente equivalentes a ella, lo que según el filósofo holandés es suficiente para mostrar el hiato que existe entre adecuación empírica y verdad.

Dos han sido los caminos más frecuentes que se han seguido para tratar de relativizar el impacto del argumento sobre las tesis realistas y los resultados de van Fraassen. Uno de ellos se centra en la distinción entre la subdeterminación como una posibilidad lógica, o una consideración a priori, y la subdeterminación como dada en la práctica real de la ciencia. Mientras que argumentos como el de van Fraassen son meros artilugios lógicos para producir equivalentes empíricos, la historia real de la ciencia muestra que en las escasas ocasiones en las que resultó factible hablar de una elección entre teorías subdeterminadas, el desarrollo empírico y técnico de la ciencia ha terminado por decidir la cuestión. La subdeterminación de la teoría por los datos es una mera posibilidad lógica que deja incólume a la práctica científica real. El otro camino consiste en la afirmación de que los datos empíricos no son el único factor relevante para la elección teórica vinculado con la verdad. Si bien han sido múltiples los intentos de listar virtudes no empíricas de las teorías, la mayoría de ellas gravita en torno a la noción de poder explicativo. De ese modo, aun cuando haya equivalentes empíricos para una teoría, la subdeterminación podría quebrarse si la superioridad explicativa de una de ellas contase como evidencia a favor de su verdad (Laudan & Leplin, 1991). Si bien por motivos diferentes a los ya considerados, esto hace que la IME sea nuevamente uno de los pilares de la defensa realista, en tanto la teoría que constituya la ‘mejor explicación’ de los datos disponibles será la privilegiada. La primera dificultad señalada por los críticos a este respecto consiste en determinar con precisión las virtudes no empíricas que hacen de una explicación, una buena explicación. La segunda señala que aun cuando esto pudiese conseguirse, ser la mejor explicación de la evidencia empírica dentro de un rango de teorías disponibles no necesariamente se vincula con ser una teoría verdadera. Ya que, como apunta van Fraassen (1989:143) la mayoría de las infinitas teorías que lo hacen son falsas, y puesto que las teorías disponibles son limitadas, la más saliente de ellas podría ser ‘la mejor de un mal lote’. De hecho es altamente probable que lo sea. Una de las posibles salidas realistas a este desafío requiere hacer uso de alguna distinción en la dimensión epistémica de realismo, aduciendo que incluso la mejor de un mal lote de teorías podría describir satisfactoriamente alguno de los aspectos del mundo inobservable. Esta estrategia ha quedado plasmada en la distinción que Kitcher traza entre propuestas activas (los supuestos referentes de términos que aparecen en esquemas que resuelven problemas) y propuestas presuposicionales (las entidades que al parecer tienen que existir si las aplicaciones de los esquemas han de ser verdaderas), y a partir de la cual concluye que “la moraleja de la historia de Laudan no es que las propuestas teóricas en general no sean de fiar, sino que las propuestas presuposicionales son sospechosas” (1993:210). En pocas palabras, aun una teoría falsa puede incluir instancias de términos que refieren adecuadamente, y es el hecho de que esas instancias son recogidas por teorías posteriores lo que explica su creciente éxito predictivo. Una estrategia semejante es desarrollada por Psillos (1999, 2012)[12] mediante la construcción de una teorías híbrida de la referencia, el descriptivismo causal. Según Psillos la combinación de ambos componentes (descriptivos y causales) permite dar cuenta de qué partes de las teorías abandonadas fueron responsables de su éxito predictivo, y de cómo esas partes se mantuvieron a lo largo del cambio teórico[13]

Esa misma estrategia es la que impulsó a Worrall a contestar la MIP distinguiendo, ya no entre instancias de términos que refieren o no exitosamente, sino entre el contenido y la estructura del mundo inobservable descripto por las teorías. De ese modo, muchas de las teorías que hoy consideramos falsas pueden haber reflejado adecuadamente ciertos aspectos estructurales del mundo, aun cuando hayan errado acerca de su contenido. Esta propuesta ha abierto toda una serie de debates que son el foco de interés de este trabajo, que es sin dudas deudor del original aporte de Worrall. Sin embargo, sus raíces conceptuales se remontan hasta los orígenes de la epistemología moderna y su riqueza anticipa buena parte de las aristas que la temática presenta hoy día. Es por ello que previo a abordar conceptualmente la cuestión del Realismo Estructural es preciso emprender una revisión detenida de su historia.


  1. Cabe mencionar entre ellas la teoría de variables ocultas no locales de Bohm y la interpretación de los muchos mundos de Everett.
  2. Véase: Carnap, R. (1950)
  3. Esta idea ilustra lo que Psillos (1999) llama la ‘tesis fuerte de la compatibilidad’ entre el realismo y antirrealismo científico, que Carnap defendió en la primera edición de The Philosophical Foundations of Physics, de 1966; posición que -según el mismo Psillos documenta (1999:58)- Carnap abandona en la edición de 1974 omitiendo el párrafo final.
  4. Véase: Kukla (1998) y Chakravartty (2007)
  5. Véase: Kitcher 1993:150
  6. El énfasis en mío.
  7. Entre algunas de las excepciones podrían mencionarse las siguientes: la posición que Putnam ha denominado Realismo Directo (véase: Putnam (2000)) adopta un compromiso con el nivel 2 (hasta donde entiendo sus argumentos, también con el 3) pero rechaza el nivel 1, entendiendo que no hay datos sensoriales, estimulaciones de las terminales nerviosas ni ninguna otra ‘interfaz’ que medie entre los objetos y nuestra captación de ellos. Por otra parte una interpretación (tal vez simple pero popular) de Platón lo ubica en el tercer nivel de compromiso, pero negando los dos anteriores, ya que las únicas entidades que gozan de realidad son las Ideas. En tal sentido cabe destacar que lo que usualmente se denomina como posiciones ‘platonistas’ no excluye el compromiso con los niveles 1 y 2, como sí parece hacerlo el auténtico platonismo.
  8. Véase: Hacking (1982; 1983)
  9. Distintas formulaciones de este argumento pueden hallarse en Boyd (1989), Lipton (1994), Psillos (1999) y Lyons (2003).
  10. Un interesante y completo intento al respecto puede encontrarse en Niiniluoto (1987; 1998; 1999).
  11. William James ha sostenido una tesis semejante. Véase James (1979 [1907])
  12. Psillos invoca a Enć (1976) como el primero en delinear una posición de estas características.
  13. Para una exposición crítica de esa propuesta véase Borge (2013a, 2013b).


Deja un comentario