Otras publicaciones:

escritores

Otras publicaciones:

9789877230192-frontcover

9789877230024-frontcover

4 El descenso de la mortalidad y la conquista de la salud

Definiciones

La mortalidad humana se estudia desde distintos puntos de vista. El enfoque demográfico privilegia los aspectos estadísticos, centrándose en la observación de la población que muere, de acuerdo con su clasificación según el sexo y la edad, en un período determinado. De esto resulta el cálculo de tasas y probabilidades y, en una segunda etapa, la construcción de tablas de vida o de mortalidad. Con estas herramientas, se puede observar la incidencia de la mortalidad en una población y un período dados, en forma muy precisa y detallada. La consideración de las causas de la mortalidad humana requiere de otros enfoques, desarrollados desde la perspectiva de la epidemiología y la salud pública; todas estas miradas complementan y especifican los enfoques propios de la demografía.

La epidemiología se ocupa del estudio de la distribución y los determinantes de una enfermedad o condición fisiológica en las poblaciones humanas; se focaliza primariamente en grupos y no en individuos y se preocupa tanto por la etiología (causa) como por la prevención de las enfermedades. La epidemiología es un estudio típicamente interdisciplinario, que recurre a la biología, las ciencias médicas, las ciencias sociales, la estadística y la demografía; la elaboración de modelos matemáticos de ciertos aspectos de las enfermedades es típico de esta disciplina. La salud pública, por su parte, tiene un objeto de estudio similar al de la epidemiología, pero su enfoque se orienta más bien hacia las acciones requeridas de parte de los poderes públicos para garantizar la salud y el bienestar de la población.

Dos conceptos complementarios han sido propuestos para sistematizar el descenso y la evolución de la mortalidad. El primero es el de “transición epidemiológica”, formulado por Omran en 1971, y el segundo, el de “transición sanitaria”, planteado por varios autores algunos años después. La idea básica de Omran[1] es que, durante la transición demográfica, cambiaron los patrones de la morbilidad y la mortalidad: a una etapa de pestilencias y hambrunas frecuentes, en el período pretransicional, le sucedió otra de descenso de las enfermedades infecciosas y desaparición de las crisis epidémicas, con el consiguiente aumento de la esperanza de vida; en una tercera etapa, la mortalidad continuó descendiendo y pasaron a predominar las enfermedades crónicas y degenerativas. Otros autores agregaron después una cuarta etapa, caracterizada por el aumento de las enfermedades degenerativas tardías y las enfermedades “ambientales”, incluyendo las adicciones, las enfermedades mentales, los trastornos psicológicos y los accidentes. Estas etapas secuenciales se derivan de la experiencia europea y norteamericana, y se ilustran, en forma esquemática, en el gráfico 4.1.

Chart, diagram  Description automatically generated with medium confidence

Gráfico 4.1. Esquema de la transición epidemiológica.

En el resto del mundo, la transición epidemiológica es parecida, pero los ritmos son diferentes, y, en muchos casos, hay traslapes y combinaciones.

Las causas de los cambios en el patrón de la morbilidad y la mortalidad se agrupan normalmente en cuatro tipos de factores:

  1. determinantes ecobiológicos relativos al complejo equilibrio entre las poblaciones de microorganismos, el medio ambiente y los agentes humanos;
  2. determinantes socioeconómicos, políticos y culturales, como la nutrición y los hábitos de higiene;
  3. determinantes relativos a la salud pública, incluyendo el tratamiento del agua y los desechos y las medidas de aislamiento y cuarentena en relación con las epidemias; y
  4. determinantes científicos y médicos, desde las vacunas hasta las técnicas de tratamiento y curación de las enfermedades.

En el caso europeo, hay un relativo consenso entre los especialistas en cuanto a la incidencia de estos factores en el descenso de la mortalidad, el cual se puede resumir en los términos siguientes. La tendencia general al declive de la mortalidad, a partir del siglo xviii, se dio en un contexto de muchas variantes a nivel local y regional; los adelantos en la medicina tuvieron un papel relativamente limitado hasta comienzos del siglo xx, y lo mismo puede decirse del de los hospitales y la mayoría de las prácticas médicas. El retroceso de la peste bubónica y otras enfermedades infecciosas ocurrió mucho antes de que se conocieran métodos efectivos para su curación, los cuales dependen básicamente de las sulfamidas y los antibióticos, ambos desconocidos antes del siglo xx. Las mejoras en la nutrición y la oferta de alimentos han sido señalados como factores importantes en la explicación del descenso de la mortalidad, y no hay dudas de que cumplieron un papel positivo; pero no están presentes en todos los casos observados de descenso. El factor más significativo pudo haber sido un cambio en las políticas públicas, con una intervención fundamental del Estado en la mejora de las condiciones sanitarias, la educación y las prácticas higiénicas. La observación comparativa de los procesos de declive de la mortalidad en los países subdesarrollados ha arrojado mucha luz sobre la importancia crucial de estos aspectos.[2]

Después de estas consideraciones, se puede entender mejor por qué, en la década de 1980, comenzó a desarrollarse el concepto de “transición sanitaria”. En inglés el concepto aludido es el de health transition y muchos piensan que sería más apropiado traducirlo como “transición de la salud”, a pesar de que el uso más corriente es el de “transición sanitaria”. Como quiera que sea, el hecho es que se pone el énfasis en los determinantes sociales, culturales y de comportamiento del estado de salud de una población dada, en un momento o período definido.[3] La amplitud de este enfoque tropieza, sin embargo, con las dificultades para definir y medir con precisión el estado de salud de una población y lo complicado que resulta establecer las fronteras entre la salud, el bienestar y la justicia social. Lo que de todos modos está claro es que en el descenso de la mortalidad intervienen múltiples factores, que se combinan, en cada caso, de una manera particular; variables muy significativas en ciertas situaciones pueden no serlo tanto en otras. Hay dos cosas, sin embargo, bien documentadas. La primera es que, antes de la revolución científica debida a la obra de Pasteur y Koch, la cual hizo posibles la identificación de los agentes patógenos (microbianos y virales) y la difusión de la asepsia y la pasteurización, el impacto de la medicina es reducido. La segunda se refiere a la importancia crucial de las políticas de salud pública, incluyendo el saneamiento ambiental y las medidas de prevención del contagio y difusión de las enfermedades infecciosas.

La atenuación de las crisis de mortalidad

La primera etapa en el descenso de la mortalidad que caracteriza a la transición demográfica consiste, como ya se dijo, en la atenuación paulatina de las crisis de mortalidad hasta su virtual desaparición. Las crisis se definen como un aumento muy elevado del número de defunciones, por encima del nivel habitual o promedio; en una representación gráfica, esto quiere decir que la curva de las defunciones, expresada en términos absolutos o en tasas anuales, se eleva bruscamente, mostrando una suerte de “pico”.

La medida de la intensidad de las crisis dependerá, obviamente, del método que se utilice para establecer el nivel “normal” o “promedio” de la mortalidad en la población observada. En lo que sigue, seguiremos el método propuesto por Lorenzo del Panta y Massimo Livi Bacci para estudiar las crisis de mortalidad en Italia a lo largo de varios siglos.[4] Es un procedimiento simple, fácil de entender, y requiere únicamente series anuales de defunciones; esto es importante, ya que no nos exige conocer, por ejemplo, la población total u otros datos sobre la población bajo estudio, muchas veces ausentes o de obtención difícil y calidad dudosa. El nivel promedio de la mortalidad anual se calcula con una media móvil truncada de 11 años, eliminando los dos valores más altos y los dos más bajos, es decir, utilizando siete valores y dividiendo la suma de dichos valores entre siete;[5] calculando así el nivel promedio de la mortalidad anual, se procede a obtener las diferencias entre el número de muertes observadas en cada año y el valor promedio, conservando el signo de la diferencia, el cual será positivo si el valor observado es mayor que el promedio, y negativo en caso contrario. El último paso es calcular estas diferencias en porcentajes con respecto a la mortalidad promedio de cada año. Los resultados de este procedimiento, aplicados a cinco casos distintos, se presentan en los gráficos 4.2, 4.3, 4.4 y 4.5, los cuales serán comentados enseguida. Cuando el nivel de la mortalidad sube más del 50 % sobre el promedio anual, se considera que se trata de una crisis, ya que compromete la capacidad “normal” de reproducción de la población; los picos más fuertes de la mortalidad se producen cuando el número de defunciones se multiplica por 2 (100 %), por 3 (200 %) o por 4 (300 %), lo cual implica, obviamente, crisis cada vez más graves: la recuperación de la población requerirá mucho más tiempo, durante el cual la tasa neta de reproducción se mantendrá por debajo de uno. La inspección de los gráficos permite hacerse una idea de la duración en años, la frecuencia y la intensidad de las crisis de mortalidad; cuando ha sido posible, se han identificado las epidemias que explican principalmente dichas crisis. Para los fines de este trabajo, el análisis gráfico de las crisis permite mostrar la tendencia a la atenuación hasta su virtual desaparición; no requerimos de medidas más sofisticadas sobre su intensidad y frecuencia, como han sido las propuestas por autores como Jacques Dupâquier.[6]

Gráfico 4.2. Crisis de mortalidad en Costa Rica, 1750-1950.

Veamos ahora los ejemplos seleccionados. El gráfico 4.2 muestra las defunciones de Costa Rica,[7] en porcentajes, por encima y por debajo del nivel promedio, calculado con el método de Del Panta y Livi Bacci, a lo largo de 200 años, entre 1750 y 1950. Se perciben inmediatamente las grandes crisis de mortalidad en 1764 y 1781, originadas por epidemias de viruela, y la de 1856, ocasionada por el cólera morbus; crisis menores ocurrieron en 1770, 1819-1821, 1827, 1853, 1863 y 1891. Después de esta última, no hubo otras, y las fluctuaciones de la mortalidad declinan notablemente; solo en 1918-1920 se percibe un leve aumento, causado en gran parte por la epidemia de gripe española que afecta Costa Rica en esos años. Luego de este ejemplo a nivel de un país, presentamos casos referidos a ciudades importantes a lo largo del siglo xix; recordemos que las ciudades, y sobre todo los puertos, eran particularmente vulnerables al impacto de las epidemias debido a la concentración de la población y la facilidad del contagio, como también a causa, muchas veces, de condiciones sanitarias particularmente desfavorables (agua potable, tratamiento de basura y aguas negras).

El gráfico 4.3 representa las defunciones de la ciudad de La Habana,[8] capital de Cuba, entre 1810 y 1910, siempre siguiendo el método de Del Panta y Livi Bacci. La crisis más severa, en 1898, se ubica en el contexto del bloqueo y la guerra entre España y los Estados Unidos, que condujo a la ocupación y la independencia de Cuba, y corona peldaños sucesivos de elevación de las defunciones en 1896 y 1897. Se trata, obviamente, de un acontecimiento excepcional, que no resulta equiparable a crisis de mortalidad como las de 1833, 1850 y 1852, ocasionadas por el cólera. Los demás “picos” de las defunciones por encima del promedio que se pueden observar en el gráfico obedecen sobre todo a brotes de fiebre amarilla, cólera y viruela, pero oscilan entre un 15 % y un 35 %; eso quiere decir que están bastante por debajo del 50 % que se considera típico de una crisis leve. En el gráfico 4.4, se pueden apreciar las fluctuaciones de la mortalidad en la Ciudad de Buenos Aires, en Argentina, entre 1800 y 1915.

Gráfico 4.3. Crisis de mortalidad en La Habana, 1810-1910.

Luego de la gran epidemia de fiebre amarilla en 1871, la más letal de todas, la mortalidad oscila suavemente y cada vez con menos amplitud; en el período anterior, solo se observan cuatro crisis, en 1809, 1823, 1829 y 1867. Si se calculan las tasas brutas de mortalidad, se pasa de valores en torno al 40 por mil entre 1800 y 1830 a valores por debajo del 20 por mil a partir de 1900.[9]

Gráfico 4.4. Crisis de mortalidad en Buenos Aires, 1800-1915.

El último ejemplo aparece en el gráfico 4.5 y corresponde a la Ciudad de México,[10] entre 1800 y 1900. La epidemia más mortífera ocurrió en 1813, y fue causada principalmente por el tifus exantemático; otras crisis se manifestaron en 1825 (viruela, sarampión y tifus), 1830 (viruela), 1833 (cólera) y 1850 (cólera). La atenuación de las crisis se observa claramente, y ningún “pico” significativo se localiza después de 1850.

Gráfico 4.5. Crisis de mortalidad en la Ciudad de México, 1800-1900.

La mortalidad infantil

La mortalidad infantil, es decir, la de los menores de un año, es un indicador fundamental para el estudio detallado de la evolución de la mortalidad. Como se sabe, en poblaciones con una mortalidad elevada o, lo que es lo mismo, con una esperanza de vida al nacimiento de 30 o 40 años, la incidencia de la mortalidad infantil es muy fuerte. Basta considerar, por ejemplo, que, si observamos la tabla de mortalidad masculina de México en 1930, con un esperanza de vida al nacimiento de 36 años, en el primer año de vida muere un 15 % de los nacidos ese año; en el caso de las mujeres, la proporción es algo menor, pero casi llega al 14 %. En 1960, con una esperanza de vida al nacimiento de 58 años para los varones, esa proporción había bajado al 7,9 %; en el caso de las mujeres, era de 6,8 %.[11]

No disponemos de muchas series largas y confiables para documentar apropiadamente la evolución de la mortalidad infantil. Sin embargo, comentaremos algunos casos que nos permiten hacernos una idea general relativamente precisa. Las series se presentan en el gráfico 4.6, con datos anuales de Chile (1848-1995)[12] y Costa Rica (1910-1995),[13] y datos quinquenales de Cuba (1900-1995)[14] y la Ciudad de Buenos Aires (1860-1995)[15].

La serie chilena, la más larga de todas, nos ilustra bien lo que parece ser la tendencia general; durante la segunda mitad del siglo xix, el nivel promedio de la mortalidad infantil oscila entre 300 y 350 por mil; a partir de los primeros años del siglo xx, comienza a descender, y hacia 1940 va ya por debajo del 200 por mil, cruza la barra del 100 por mil a inicios de la década de 1960 y llega, en los ochenta, a estacionarse en algo menos del 20 por mil. El caso de Costa Rica, con datos desde 1910, muestra una trayectoria parecida, solo que, en el punto de partida, hacia 1910, el nivel promedio de la mortalidad infantil fue algo menor del 200 por mil; el descenso es continuo a partir de 1926, y las fluctuaciones en torno a la tendencia son cada vez menores; en la década de 1960, oscila alrededor del 70 por mil. En la década siguiente, se produce un descenso dramático, gracias a programas agresivos y exitosos del Ministerio de Salud,[16] que llevan el índice a menos del 20 por mil, mientras que las fluctuaciones en torno a la tendencia prácticamente desaparecen.

Gráfico 4.6. Evolución de la mortalidad infantil en Chile, Costa Rica, Cuba y la Ciudad de Buenos Aires.

El caso de Cuba, presentado en promedios quinquenales, lo que explica la ausencia de oscilaciones alrededor de la tendencia, muestra un descenso y niveles similares a los de Costa Rica hasta los cincuenta. En las décadas de 1960 y 1970, el descenso de la mortalidad infantil cubana es mucho más fuerte, y eso se debe, sin duda, a las exitosas políticas de salud aplicadas luego de la Revolución, a partir de 1959. En la década de 1980, ambas curvas se superponen, y, de hecho, también coinciden con la de Chile. Los datos relativos a la Ciudad de Buenos Aires, también presentados en tasas quinquenales, ilustran la trayectoria de una ciudad que, ya a fines del siglo xix, es la más “moderna” y “europea” de las capitales latinoamericanas. Al principio, en las décadas de 1860, 1870 y 1880, las tasas son muy elevadas, pero luego caen con mucha rapidez y firmeza, muy por debajo de los niveles de Cuba y Costa Rica; solo en la década de 1960 en el caso de Cuba, a finales de la del setenta en el caso de Costa Rica, y un poco después, en el caso de Chile, todas las curvas se superponen. Esta convergencia es un indicador que es crítico para medir el estado de salud y la incidencia de la mortalidad en una población, parece indicar que este avance se consolida independientemente de la naturaleza del régimen político.

La sobremortalidad masculina

El descenso de la mortalidad muestra también importantes diferenciales por sexo, los cuales se pueden resumir diciendo que se observa una sobremortalidad masculina en todas las edades. Es importante notar que la sobremortalidad masculina aumenta a medida que crece la esperanza de vida al nacimiento. La explicación de este fenómeno tiene un componente biológico y un componente social o “externo” al organismo humano.[17] Como la sobremortalidad masculina se observa en todas las edades y en sociedades y épocas muy diversas, es necesario atribuir una parte del fenómeno a las diferencias biológicas entre hombres y mujeres; los hombres parecen ser, en este sentido, biológicamente más débiles que las mujeres. Recordemos también que, en casi todas las sociedades, se ha observado una relación de masculinidad al nacimiento de alrededor de 105, lo cual quiere decir que nacen 105 varones por cada 100 mujeres; este “exceso” de nacimientos masculinos se compensa luego con la sobremortalidad masculina, y permite entender mejor el relativo equilibrio en la proporción de sexos en el conjunto de la población. Otros componentes de la sobremortalidad masculina son evidentemente sociales, como la mayor exposición a riesgos por accidentes, violencia, hábitos como el fumado y el alcoholismo, etc. En el caso de las mujeres, ha sido común observar una sobremortalidad femenina durante el período fértil, relacionada con problemas durante el embarazo y el parto; se trata pues de la mortalidad materna, la cual tiende a desaparecer una vez que mejoran las condiciones sanitarias y los servicios de salud.

El fenómeno de la sobremortalidad masculina se puede detectar comparando las esperanzas de vida al nacimiento a lo largo del tiempo y observando los diferenciales. Para ilustrarlo hemos elegido dos ejemplos, los cuales se presentan en los gráficos 4.7 y 4.8.

Gráfico 4.7. Guatemala, esperanza de vida al nacimiento según sexo, 1950-2010.

Guatemala (gráfico 4.7)[18] ofrece un ejemplo de transición demográfica muy tardía; en 1950 la esperanza de vida al nacimiento es, para hombres y para mujeres, apenas un poco mayor de 40 años; la diferencia entre los sexos es casi insignificante. En 2010, al final del período considerado, la esperanza de vida femenina es de casi 75 años, y la masculina, de 68,2 años, con una diferencia de 6,5 años. Como se puede apreciar en el gráfico 4.7, el aumento en la esperanza de vida en ambos sexos es sostenido, pero creciente en el caso de las mujeres, por lo cual el diferencial a favor del sexo femenino aumenta. En el gráfico 4.8, se pueden observar los datos de Argentina, un país que experimenta una transición demográfica muy temprana.[19] El diferencial a favor de las mujeres tiende a crecer, al igual que en el caso de Guatemala, e incluso al final, en 2010, llega a ser de 7,7 años; eso sí, estamos con esperanzas de vida de casi 72 años para los hombres y casi 80 para las mujeres.

Gráfico 4.8. Argentina, esperanza de vida al nacimiento según sexo, 1869/1895-2010.

El descenso de la mortalidad según edades

Debemos considerar ahora, en forma más detallada, la disminución de la mortalidad por edades. Para esto, necesitamos disponer de un conjunto de tablas de vida o mortalidad, confiables y extendidas en el tiempo. Esto limita la información disponible a unos pocos países latinoamericanos, ya que, en la mayoría de los casos, estas tablas solo están disponibles a partir de 1950. Comenzaremos con el caso argentino, ya que existen tablas confiables desde 1869-1895, lo cual permite una observación detallada a lo largo de más de 100 años.

Gráfico 4.9. Argentina, 1869-2010: Sobrevivientes hasta cada edad, en años selecciones (hombres).

El gráfico 4.9 muestra la función de supervivencia de las tablas de mortalidad masculinas en 1869-1895, 1914, 1950, 1980 y 2010. Dicha función resulta de aplicar las probabilidades de muerte por edad a una generación hipotética de 100.000 nacimientos; de este modo, podemos seguir el número de sobrevivientes en cada edad, desde los 0 hasta los 100 años, cuando la generación se extingue. La interpretación de la función de supervivencia es simple, ya que las cifras se pueden leer como porcentajes, lo cual sirve también para comparar directamente experiencias de mortalidad provenientes de poblaciones y períodos diferentes. La lectura básica de las curvas de sobrevivencia permite observar cómo, a lo largo del tiempo, se produce un aumento continuo del número de sobrevivientes en todas las edades; pero la forma de las curvas también muestra que los aumentos varían según las edades; la comparación precisa exige considerar los cambios en cada edad, lo cual ya no resulta tan simple. Cuando se lee el gráfico, el ojo debe desplazarse, por ejemplo, a los 5, los 25 y los 60 años, es decir, en las líneas verticales indicadas en el gráfico 4.9. Una presentación más simple de esta información se puede apreciar en los gráficos de barras del gráfico 4.10. A los 5 años, la generación ha superado el gran riesgo de la mortalidad de la primera infancia; como se puede observar hacia 1882 (punto medio de la tabla estimada entre los censos de 1869 y 1895), de los 100.000 nacimientos, apenas sobrevive un poco más del 60 %; en 2010, en cambio, lo hace el 98 %. A los 25 años, edad en que los hombres han terminado la época joven y entran a la etapa de adultos, casados o en vías de casarse; en 1882, de los 100.000 nacimientos, sobrevive apenas algo más del 50 %; en 2010, la sobrevivencia llega al 96 %. A los 60 años, inicio de la vejez, las diferencias son dramáticas; en 1882 solo alcanza esa edad un 25 % de la generación, mientras que en 2010, algo más del 80 %. Para ilustrar las trayectorias de la sobrevivencia masculina en Chile, México y Guatemala, se presentan los gráficos de barras 4.11, 4.12 y 4.13, respectivamente.

Gráfico 4.10. Argentina, 1869-2010: sobrevivientes hasta los 5, 25 y 60 años (hombres).

Gráfico 4.11. Chile, 1909-2010: sobrevivientes hasta los 5, 25 y 60 años (hombres).

El descenso de la mortalidad sigue, en general, patrones relativamente similares a los ya comentados para el caso argentino.

El descenso de la mortalidad en la primera infancia es crucial para entender bien la dinámica del proceso. Cuando la mortalidad es relativamente elevada, a los 5 años solo llega algo más de la mitad de la generación; luego la sobrevivencia hasta esta edad aumenta progresivamente hasta llegar al 97 o 98 % de todos los nacimientos. Entre los 5 y los 25 años, la mortalidad es casi siempre relativamente baja, y eso se puede observar comparando los porcentajes de sobrevivientes entre ambas edades. La llegada a los 60 años es el otro extremo, en la observación del descenso de la mortalidad. Un análisis todavía más detallado de este proceso se puede hacer mediante una descomposición de la esperanza de vida en cada grupo de edad; el procedimiento requiere muchos cálculos, pero vale la pena.

Gráfico 4.12. México, 1930-2010: sobrevivientes hasta los 5, 25 y 60 años (hombres).

Gráfico 4.13. Guatemala, 1950-2010: sobrevivientes hasta los 5, 25 y 60 años (hombres).

Descomposición de los cambios en la esperanza de vida por edad y sexo. Ejemplos de Argentina, México y Costa Rica

Los resultados de este ejercicio se presentan, en forma resumida, en los cuadros 4.1. 4.2 y 4.3. En Argentina, entre 1882 y 2010, la ganancia total en la e0 fue de 39 años para los hombres y 46 años para las mujeres. Las ganancias se escalonan gradualmente, como lo revelan los puntos de observación escogidos: 1914, 1950 y 1980. En el caso de los hombres, fue de 16 años entre 1882 y 1914, pero se reduce a casi 6 años entre 1980 y 2010. Obviamente, esto se explica por los límites biológicos a la sobrevivencia humana, y se observa tanto para los hombres como para las mujeres y en todas las sociedades. La contribución a las ganancias varía en función de los diferentes grupos de edad: el grupo de 0 a 4 años es el que generalmente tiene la mayor ganancia, aunque, como se puede observar entre 1980 y 2010, en este tramo, tanto para hombres como para mujeres, la contribución del grupo de adultos mayores, entre los 50 y los 79 años, cobra también mucha importancia.

Aunque con variantes en los valores observados, el patrón descrito en el caso argentino se repite en los casos de México (1930-2010) y Costa Rica (1904-2010): fuerte ganancia en el grupo de 0-4, mínimos aportes en el grupo de 5-19 años, y una contribución creciente en los grupos de 20-49 y de 50-79 años; más allá de los 80 años, la contribución tiende a aumentar en el período 1980-2010, cuando la e0 supera con creces los 70 años. Esta contribución diferencial según la edad se explica, en primer lugar, por los límites biológicos a la sobrevivencia humana y, en segundo lugar, por los cambios relativos en las causas de muerte. Este es el tema que conviene abordar a continuación.

Cuadro 4.1. Argentina, 1882-2010. Descomposición de las ganancias en la esperanza de vida al nacimiento según la contribución de diferentes grupos de edad (en años de vida y en porcentajes)
Hombres

Edades

1882-
1914

%

1914-
1950

%

1950-
1980

%

1980-
2010

%

0-4

10,75

66

3,75

35

3,03

47

1,89

34

5-19

2,11

13

1,53

14

0,56

9

0,28

5

20-49

2,33

14

3,90

36

1,38

21

0,86

15

50-79

1,12

7

1,50

14

1,47

23

2,17

38

80+

-0,04

0

0,11

1

0,05

1

0,43

8

Totales

16,27

100

10,80

100

6,50

100

5,63

100

Mujeres

Edades

1882-
1914

%

1914-
1950

%

1950-
1980

%

1980-
2010

%

0-4

10,43

59

3,79

29

3,86

37

1,85

29

5-19

2,34

13

1,94

15

0,78

9

0,19

3

20-49

3,14

18

5,00

39

2,08

23

0,86

14

50-79

1,78

10

2,16

17

2,76

30

2,04

32

80+

0,05

0

0,03

0

0,13

1

1,43

22

Totales

17,73

100

12,92

100

9,11

100

6,38

100

Nota: la descomposición se realizó siguiendo el método de Arriaga, pero utilizando las fórmulas propuestas en United Nations. World populations trends, population development inter-relations and population policies, 1983. Monitoring report, vol. i, Nueva York, 1985. La ganancia se expresa en años de vida (diferencias entre las e0 de cada tabla de vida), y la descomposición es aditiva, es decir, la ganancia total es resultado de la suma de las ganancias en cada grupo de edad.

Cuadro 4.2. México, 1930-2010. Descomposición de las ganancias en la esperanza de vida al nacimiento según la contribución de diferentes grupos de edad (en años de vida y en porcentajes)
Hombres

Edades

1930-1950

%

1950-1980

%

1980-2010

%

0-4

5,54

46

7,76

51

3,27

32

5-19

2,12

18

1,79

12

0,62

6

20-49

2,87

24

3,02

20

2,83

28

50-79

1,39

12

2,36

15

2,99

29

80+

0,10

1

0,35

2

0,63

6

Totales

12,04

100

15,27

100

10,35

100

Mujeres

Edades

1930-1950

%

1950-1980

%

1980-2010

%

0-4

5,68

42

8,96

48

2,85

33

5-19

2,35

17

2,06

11

0,47

5

20-49

3,38

25

3,89

21

1,78

20

50-79

2,04

15

3,26

17

2,60

30

80+

0,13

1

0,69

4

0,98

11

Totales

13,58

100

18,85

100

8,67

100

Nota: la descomposición se realizó siguiendo el método de Arriaga, pero utilizando las fórmulas propuestas en United Nations. World populations trends, population development inter-relations and population policies, 1983. Monitoring report, vol. i, Nueva York, 1985. La ganancia se expresa en años de vida (diferencias entre las e0 de cada tabla de vida), y la descomposición es aditiva, es decir, la ganancia total es resultado de la suma de las ganancias en cada grupo de edad.

Cuadro 4.3. Costa Rica, 1904-2010. Descomposición de las ganancias en la esperanza de vida al nacimiento según la contribución de diferentes grupos de edad (en años de vida y en porcentajes)
Hombres

Edades

1904-
1940

%

1940-
1960

%

1960-
1980

%

1980-
2010

%

0-4

6,10

49

8,91

48

5,95

62

1,37

39

5-19

1,04

8

1,56

8

0,61

6

0,22

6

20-49

4,22

34

4,08

22

0,91

9

0,36

10

50-79

1,04

8

3,67

20

1,72

18

1,39

39

80+

0,03

0

0,17

1

0,36

4

0,22

6

Totales

12,43

100

18,39

100

9,55

100

3,55

100

Mujeres

Edades

1904-
1940

%

1940-
1960

%

1960-
1980

%

1980-
2010

%

0-4

6,76

54

8,50

44

5,85

53

1,09

27

5-19

1,13

9

1,70

9

0,66

6

0,13

3

20-49

3,26

26

5,36

28

1,73

16

0,53

13

50-79

1,35

11

3,40

18

2,35

21

1,81

45

80+

0,10

1

0,18

1

0,52

5

0,43

11

Totales

12,60

100

19,14

100

11,10

100

3,99

100

Nota: la descomposición se realizó siguiendo el método de Arriaga, pero utilizando las fórmulas propuestas en United Nations. World populations trends, population development inter-relations and population policies, 1983. Monitoring report, vol. i, Nueva York, 1985. La ganancia se expresa en años de vida (diferencias entre las e0 de cada tabla de vida), y la descomposición es aditiva, es decir, la ganancia total es resultado de la suma de las ganancias en cada grupo de edad.

Las causas de muerte

Toca ahora considerar la mortalidad según causas para esclarecer mejor el tema de la transición epidemiológica, ya esbozado al comienzo de este capítulo. El cambio decisivo fue el pasaje de una época en que predominan las enfermedades infecciosas y parasitarias a otra en la cual prevalecen las enfermedades crónicas y “ambientales”. La evaluación precisa de estos fenómenos requiere, como es obvio, de un registro adecuado de las causas de muerte; para que esto opere, es necesario disponer tanto de una codificación y clasificación de las enfermedades, como de un diagnóstico médico a la hora de establecer la causa de defunción. Las oficinas nacionales de estadística y salud de los países latinoamericanos enfrentaron un verdadero desafío, desde finales del siglo xix, para el registro y la recolección apropiados de estos datos. El proceso varió mucho según los países, y fue relativamente lento; sin embargo, hacia 1950, ya se había logrado en casi todos lados una cobertura y calidad relativamente aceptables.

La clasificación de las enfermedades siguió, por lo general, las recomendaciones del Instituto Internacional de Estadística (creado en Viena en 1891), y fue revisada oportunamente a lo largo del siglo xx. Como se sabe, esta clasificación internacional de enfermedades fue elaborada en 1893 por Jacques Bertillon y revisada en 1900. En ese año fue recomendada internacionalmente en la reunión del Instituto Internacional de Estadística realizada en París, y adoptada rápidamente en los principales países del mundo. Incluía 157 enfermedades, agrupadas en 14 tipos. Hubo revisiones posteriores en 1909, 1920, 1929, 1938, 1948, 1955, 1965, 1975 y 1989. En la cuarta y quinta revisiones (1929 y 1938), el número de enfermedades codificadas se mantuvo en 164. A partir de la sexta revisión (1948), el número creció notablemente, de 769 en ese año, a 1675 en 1989, y a unos 55.000 códigos para traumatismos, enfermedades y causas de muerte en 2018.[20] A partir de 1948, la clasificación internacional de enfermedades está al cuidado de la Organización Mundial de la Salud.

La codificación y clasificación de las enfermedades y traumatismos que causan la muerte es apenas un aspecto. El diagnóstico médico es, por supuesto, fundamental para una identificación correcta, la cual debe de incluir, además, la importante distinción entre causa principal y causa inmediata. Otro aspecto de suma relevancia es el paso del certificado de defunción a la codificación y tabulación para que la información se convierta en un dato estadístico confiable. Hoy por hoy, el registro adecuado de las causas de muerte es probablemente todavía difícil y sujeto a múltiples errores, sobre todo si deseamos realizar análisis refinados.

Cuadro 4.4. Argentina. Mortalidad según causas principales (1916-1999) (porcentajes del total de defunciones, ambos sexos)

Causas

1916

1936

1956

1982

1992

1997

1999

Infecciosas y parasitarias

30

31

8

6

6

5

8

Crónicas y degenerativas

31

49

53

80

80

75

72

Sociopatógenas

4

6

18,4

7

8

8

8

Desnutrición

s.d.

2

s.d.

5

1

1

1

Otras

19

s.d.

16

2

3

5

5

Mal definidas

16

12

17

2

3

6

7

Total

100

100

100

100

100

100

100

S.d.: sin datos.
Fuente: Curto, Susana, Verhasselt, Yola, y Boffi, Rolando. “La transición epidemiológica en la Argentina”. Contribuciones Científicas, GÆA, Sociedad Argentina de Estudios Geográficos, 13 (2001), pp. 239-248.

Cuadro 4.5. México. Mortalidad según causas principales (1930-2010) (porcentajes del total de defunciones, ambos sexos)

Causas

1930

1960

1980

2000

2010

Infecciosas y parasitarias

47

25.6

13.7

4.3

2.9

Aparato circulatorio

1.9

8.5

16.4

22.3

23.9

Aparato respiratorio

16

19.3

13.5

8.8

8.6

Aparato digestivo

4

5.3

7.1

9.6

9.3

Tumores (neoplasmas)

0.7

3.4

6.5

13.2

12.6

Accidentes, envenenamientos y violencia

4.1

6.5

15.5

11.9

12.2

Otras enfermedades

26.3

31.4

27.3

29.9

30.5

Total

100

100

100

100

100

Fuentes: INEGI. Estadísticas Históricas de México, tomo 1, p. 160 (México, 1990); INEGI. Anuario estadístico y geográfico de los Estados Unidos Mexicanos, 2018, Cuadro 7.30 (México, 2018).

Cuadro 4.6. Costa Rica. Mortalidad según causas principales, 1920-2000 (porcentajes del total de defunciones, ambos sexos)

Causas de muerte

1920

1940

1959-1961

1970

1975

2000

Enfermedades infecciosas y parasitarias

65.5

57.7

44.9

40.0

23.6

5.3

Enfermedades cardiovasculares y renales

7.2

10.8

15.3

23.0

26.6

35.6

Cáncer

1.3

3.84

9.2

11.0

15.4

20.9

Accidentes y muertes violentas

1.4

2.96

4.8

7.5

11.0

12.4

Otras causas

24.6

24.7

25.9

18.5

23.4

25.8

Total (%)

100.0

100

100

100

100

100

Total de defunciones (números absolutos)

13.420

11.211

9.988

11.496

9.633

14.944

Notas: enfermedades infecciosas y parasitarias incluyen fiebre tifoidea, tuberculosis en todas sus formas, disentería en todas sus formas, difteria, tos ferina, sarampión, gastritis, duodenitis, enteritis, colitis, gripe, neumonía y malaria.
“Otras causas” incluye otras enfermedades, causas mal definidas y causas desconocidas.
El total de defunciones que se indica como referencia corresponde a las cifras registradas, sin ajustes por subregistro.
Fuentes: Elaboración propia a partir de las siguientes fuentes:
1920. Anuario Estadístico, 1920.
1940. Luros, Pablo. Aspectos biodemográficos de la población de Costa Rica. San José, Imprenta Nacional, 1942.
1959-1961. Rosero, Luis. “La situación demográfica de Costa Rica”. vii Seminario Nacional de Demografía. Universidad de Costa Rica, 1979.
1970, 1975 y 2000. Microdatos en línea, en el sitio web del CCP, en ccp.ucr.ac.cr.

Los cuadros 4.4, 4.5 y 4.6 presentan la evolución de la mortalidad según causas principales en Argentina, México y Costa Rica, a lo largo del siglo xx. Se puede apreciar, en los tres casos, un patrón evolutivo bastante parecido: una caída gradual y sostenida de las enfermedades infecciosas y parasitarias y un aumento de las enfermedades crónicas; también es notorio el aumento, leve pero gradual, de las llamadas “enfermedades sociopatógenas”, es decir, los accidentes, las muertes violentas, los suicidios, etc. En todas las clasificaciones, siempre hay un grupo de “otras causas”, la cual incluye también, por lo general, las causas mal definidas o ignoradas. Con todas las imperfecciones de los datos, el patrón recién descripto se observa sistemáticamente en todos los países. El gráfico 4.14 ilustra esto con las enfermedades infecciosas y parasitarias en los casos de Argentina, México y Costa Rica: luego de un descenso gradual, hacia inicios del siglo xxi la proporción se estaciona en menos del 5 %; esta convergencia se observa todavía mejor en 2010, considerando la mortalidad en 41 países de las Américas (excluyendo a Canadá y los Estados Unidos), la proporción de muertes debidas a enfermedades infecciosas y parasitarias fue del 3 %; en el mismo año, las causas de muerte externas o “sociopatógenas” representaron un 12 % del total de defunciones.[21]

A close up of a map  Description automatically generated

Gráfico 4.14. Argentina, México y Costa Rica: porcentaje de defunciones por enfermedades infecciosas y parasitarias (ambos sexos).
Fuente: cuadros 4.4, 4.5 y 4.6.

Los determinantes socioeconómicos en el descenso de la mortalidad

En términos generales, el descenso de la mortalidad ha sido asociado a la modernización y el desarrollo económico. Sin embargo, la identificación de los factores causales no es sencilla. Preston,[22] en un artículo pionero, publicado en 1975, relacionó los cambios en la esperanza de vida al nacimiento con las variaciones en el PIB per cápita, utilizando datos transversales para un conjunto de países desarrollados y subdesarrollados hacia 1900, 1930 y 1960 y ajustando las observaciones de cada período a sendas curvas logísticas, relacionando la e0 con el logaritmo del PIB per cápita. Ciertas conclusiones emergen con claridad: a) la relación entre ambas variables crece durante el siglo xx, pero, más allá de una e0 entre 60 y 70 años, el aumento en la e0 pasa a ser mucho menor que los cambios, también crecientes en el PIB per cápita; b) una comparación cuidadosa de los cambios en la e0 que se podrían atribuir a los aumentos en el PIB per cápita lleva a una estimación del 16 %. Según Preston, esto indica que un 84 % de los cambios en la e0 se deben atribuir a factores distintos del nivel del PIB per cápita: esto es, factores como la nutrición, los servicios médicos y de salud pública y la alfabetización, que están solo parcialmente determinados por los indicadores económicos.

Veamos algunos datos de este tipo para América Latina, en el gráfico 4.16 y el cuadro 4.7; se incluyen datos para 19 países latinoamericanos en 1950 y 2010. El gráfico permite ver rápidamente que, mientras que en 2010 la e0 tiende a variar relativamente poco entre los países, ya que casi todos los casos se ubican entre 71 y 78 años, no ocurre lo mismo con el PIB per cápita, que oscila entre 1.889 $ (Nicaragua) y 13.229 $ (Chile). En 1950, por su parte, la diferencia en las e0 es mucho mayor, con un rango de variación entre 39 y 66 años, y un PIB per cápita que varía entre 1.071 $ (República Dominicana) y 5.310 $ (Venezuela). Esto confirma plenamente las hipótesis de Preston, en el sentido de que solo una proporción relativamente baja de las mejoras en la e0 parecen estar asociadas con los cambios en el PIB per cápita. Todo esto se puede ver con más detalle examinando series temporales de estas variables para países determinados: Argentina (gráfico 4.17), Chile (gráfico 4.18) y Cuba (gráfico 4.19).[23]

En Argentina, la e0 solo empieza a subir rápidamente en 1920, mientras que el PIB per cápita lo hace desde 1870; entre 1920 y 1970, los movimientos de ambas variables son relativamente paralelos; luego de 1970, se observa una disminución en el ritmo de aumento de la e0. En Chile, la e0 permanece estancada desde 1870 hasta 1920, en un lapso en el cual el PIB per cápita experimenta un incremento muy fuerte, visible hasta 1914; la e0 aumenta verticalmente a partir de 1920, mientras que el PIB per cápita no deja de fluctuar, aunque la tendencia general sea al crecimiento. El desfase entre la evolución de la e0 y el PIB per cápita es todavía más notorio en el caso de Cuba, sobre todo entre 1900 y 1930 y entre 1960 y 2010; épocas de fuerte caída en el PIB per cápita no se reflejan para nada en el aumento sostenido de la e0. Ejemplos similares se podrían incluir con series temporales de otros países latinoamericanos.

Antes de proseguir con el tema, conviene señalar dos aspectos: a) nos limitamos al análisis gráfico de las curvas porque cualquier ajuste estadístico, por ejemplo, con un modelo de regresión, estaría afectado por la autocorrelación, presente en la tendencia de las series; b) no podríamos buscar una influencia de corto plazo del PIB per cápita sobre la e0, ya que el primer indicador es muy sensible a la coyuntura económica, mientras que el segundo acumula los efectos demográficos en todas las edades y fluctuará, en consecuencia, mucho menos que el primero.[24] Volvemos, pues, a los hallazgos del artículo pionero de Preston. Las variables económicas explican solo una parte relativamente reducida de los cambios en la mortalidad.

A screenshot of a cell phone  Description automatically generated

Gráfico 4.15. Esperanza de vida al nacimiento (ambos sexos) y PIB per cápita en 19 países latinoamericanos, 1950 y 2010. Diagrama de dispersión.
Fuentes: e0 según las tablas de mortalidad, 2017 de CELADE. PIB per cápita según Bértola y Ocampo.

A close up of a map  Description automatically generated

Gráfico 4.16. Argentina. Esperanza de vida al nacimiento (e0) y PIB per cápita.

Cuadro 4.7. América Latina. Esperanza de vida al nacimiento (ambos sexos) y producto interno bruto per cápita (en dólares de 1990). 1950 y 2010

1950

2010

Países

e0

PIB/pc

e0

PIB/pc

Argentina

61,8

5.204

75,6

11.820

Bolivia

39,2

2.045

66,4

2.987

Brasil

50,0

1.544

73,4

6.762

Chile

52,1

3.755

78,4

13.229

Colombia

48,6

2.161

73,4

6.982

Costa Rica

54,9

1.930

78,7

7.876

Cuba

58,2

2.108

78,9

3.997

Ecuador

47,3

1.607

75,2

5.278

El Salvador

42,6

1.739

72,0

3.447

Guatemala

41,4

1.955

71,5

4.172

Honduras

40,6

1.353

72,5

2.464

México

48,8

2.283

76,1

7.832

Nicaragua

40,8

1.564

73,8

1.889

Panamá

55,5

1.854

76,9

9.198

Paraguay

62,4

1.419

72,3

3.819

Perú

42,6

2.289

73,7

5.844

Rep. Dominicana

44,0

1.071

72,7

5.361

Uruguay

65,9

4.501

76,6

11.706

Venezuela

53,4

5.310

73,9

9.434

Fuente: e0 según las tablas de mortalidad, 2017 de CELADE. PIB per cápita según Bértola y Ocampo.

A close up of a map  Description automatically generated

Gráfico 4.17. Chile. Esperanza de vida al nacimiento (e0) y PIB per cápita.

A close up of a map  Description automatically generated

Gráfico 4.18. Cuba. Esperanza de vida al nacimiento (e0) y PIB per cápita.

Nutrición y condiciones de vida

La nutrición y las condiciones de vida son factores que, sin duda, influyen en la mortalidad. Thomas McKeown ha sido, para el caso inglés en los siglos xviii y xix, el defensor más conocido de esta tesis;[25] más tarde, Fogel y su escuela han aportado evidencias muy fuertes en cuanto al papel crucial de la superación del hambre y las crisis de subsistencia en la reducción de la mortalidad y la morbilidad observable en el mundo occidental en los últimos tres siglos.[26] Sin embargo, el desarrollo económico y las mejoras en las condiciones de vida, particularmente a través de la nutrición y su reflejo en, por ejemplo, el aumento en la estatura humana promedio, constituyen más bien una base o un punto de partida en lo que puede verse como una nueva e inédita relación entre las enfermedades y los seres humanos.

Volviendo al descenso de la mortalidad en América Latina, es importante puntualizar que no disponemos de estudios históricos detallados sobre la evolución de la nutrición y el aumento en la talla de las personas, más allá de muchos indicios en el sentido de que tanto la disponibilidad de alimentos como la estatura promedio se han ido incrementando; no es posible, por lo tanto, establecer comparaciones precisas con el occidente europeo o los Estados Unidos. Por otra parte, sabemos bien que, hacia fines del siglo xix, en casi todos los países, la época de las hambrunas y las grandes epidemias ha definitivamente pasado. Sin embargo, si observamos series largas como las disponibles para el caso de Costa Rica, se imponen dos conclusiones: a) la población crece, pero b) la e0 permanece estancada en niveles relativamente bajos. El descenso significativo de la mortalidad solo comienza hacia 1920. Este patrón parece ser el típico de casi todos los países latinoamericanos, y significa que el aumento progresivo de la e0 durante el siglo xx no se puede explicar únicamente por el desarrollo económico; otras variables, sin duda asociadas, entran también en juego. Es lo que trataremos de ver a continuación.

Las políticas sanitarias, la higiene pública y privada y los avances en la medicina

Antes de proseguir la discusión, conviene considerar dos cosas: a) ¿cómo se transmiten las enfermedades infecciosas?; y b) ¿cómo interaccionan las enfermedades con los factores sociales y demográficos? Los agentes patógenos[27] atacan al huésped humano; este resiste la infección o bien enferma y muere, o bien sobrevive; los sobrevivientes quedan, por lo general, inmunizados frente a futuros ataques del mismo agente patógeno. Cuando la enfermedad es endémica, existe, normalmente, una importante proporción de la población bajo riesgo que está inmunizada; en cambio, cuando es epidémica, esta proporción de población inmune es mucho menor. Factores conexos de gran importancia son la virulencia de los agentes patógenos, la densidad de la población, la frecuencia del contacto entre portadores y propensos a la infección y la resistencia inmunitaria, la cual puede también, a su vez, estar muy influenciada por la nutrición; sin embargo, los tres primeros factores parecen tener preeminencia sobre este último.[28] La transmisión de las enfermedades puede ser directa o indirecta, a través de uno o más vectores intermediarios; posee, además, una escala temporal que puede ser muy variable, desde horas hasta días, meses y años; y puede ser horizontal o vertical (de madre a hijo). Otro aspecto crítico es la densidad de la población huésped, y sus variaciones, determinadas en parte por la virulencia y letalidad de la infección.[29] Todo esto apunta simplemente a señalar la complejidad de la transmisión de las infecciones. Dicho en términos más generales, los humanos convivimos con miles de otros seres vivos, lo cual origina, por supuesto, una ecología particularmente compleja.

William H. McNeill ha sido pionero en estudiar los cambios en los equilibrios ecológicos entre los microorganismos y otras especies, centrándose en las poblaciones humanas, y demostrando cómo estas relaciones resultan ser cruciales para entender la historia del homo sapiens en la larguísima duración.[30] Para nuestros propósitos, los capítulos 5 y 6 del ensayo de McNeill son particularmente relevantes: en ellos examina los intercambios transoceánicos entre 1500 y 1700 y el impacto ecológico de la organización sanitaria y la ciencia médica a partir de 1700. Los movimientos transoceánicos de hombres, bienes ideas y enfermedades, a partir de 1492, conducen a lo que Le Roy Ladurie llamó una vez la “unificación microbiana del mundo”.[31] Las reformas sanitarias y mucho más tarde la medicina, en paralelo a la Revolución Industrial, la urbanización, la modernización en los transportes y la migración masiva desde Europa hacia América, África, Asia y Oceanía, llevan a una nueva etapa, caracterizada por el fin de las hambrunas y las epidemias, el control público de la violencia local y el alargamiento de la vida humana, gracias a un descenso sostenido de la morbilidad y la mortalidad. Más recientemente, Jared Diamond[32] ha retomado el camino abierto por McNeill y Crosby,[33] y ha logrado llevar la temática incluso a los medios de comunicación de masas.

La historia del cólera y la viruela, en lo que conocemos, es ilustrativa de los factores involucrados. El cólera[34] era endémico en Bengala (India) y de tanto en tanto se extendía en forma epidémica en otras regiones de la India, siguiendo las rutas de peregrinación que confluían en el Bajo Ganges. El cólera es causado por un bacilo que puede vivir en el agua durante largos períodos de tiempo; una vez ingerido, si sobrevive a los ácidos del estómago, se propaga con rapidez fulminante, y en un tiempo corto, puede provocar la muerte de la persona contagiada. En 1817 una epidemia estalla en Calcuta, y desde allí se extiende mucho más allá de las rutas de la peregrinación al Ganges, por medio de las tropas y los barcos británicos; los soldados la llevan hacia el norte de la India, pero los barcos acarrean el contagio a Ceylán, Indonesia, el sudeste de Asia, China, Japón, el golfo Pérsico, penetrando hasta Siria, Anatolia y el mar Caspio, y el sur de Arabia, llegando hasta las costas de África; el cólera estará pues presente hasta 1823-1824. Esta es la primera gran pandemia de cólera (1817-1824), y poco después comenzará la segunda.

En Bengala, la nueva epidemia estalla en 1826, y enseguida llega de nuevo al sur de Rusia y desde allí sigue los movimientos militares rusos en Persia (1826-1828), Turquía (1828-1829) y Polonia (alzamiento de 1830-1831); en 1831 aparece en Austria y en Hungría; desde el Báltico y el norte de Alemania, los barcos llevan el cólera a Inglaterra e Irlanda, mientras que, hacia 1832, los inmigrantes lo contagian en Canadá; enseguida, el cólera baja hacia Estados Unidos y México (1833), prosiguiendo su viaje hacia el sur, hasta llegar a Guatemala y Nicaragua en 1837. Entretanto, en el continente europeo, el cólera sigue extendiéndose hacia Holanda, Bélgica y Escandinavia; en diciembre de 1832, un vapor inglés que transporta soldados toca Portugal, donde pronto aparecerá el cólera, el cual afectará también a España, y desde allí se extenderá al sur de Francia y el norte de África; un barco español lleva el contagio a La Habana, que se propagará también en el Caribe. Agreguemos que, en 1831, y viniendo probablemente de los Balcanes, el cólera llega también a Estambul y se esparce hacia el Asia Menor; en ese mismo año de 1831, aparece entre los peregrinos de La Meca y por esta vía afecta a todo el Medio Oriente y sobre todo a Egipto. La segunda pandemia también aflige a China, el sudeste de Asia y las Filipinas. Su intensidad parece haber disminuido a finales de la década de 1830, pero recobra impulso en la década siguiente, con rebrotes particularmente fuertes en 1847-1849.

En fin, lo reseñado es suficiente para entender por qué el cólera es, durante el siglo xix, una epidemia que se presenta a escala global; su extensión es producto derivado de las comunicaciones terrestres y marítimas, las campañas militares, las migraciones, el movimiento marítimo y comercial, y, por supuesto, la acelerada urbanización: los principales focos de difusión son principalmente los puertos y las grandes ciudades. Nuevas pandemias de cólera estallan también en 1852, 1863 y 1881. La primera del siglo xx se desenvuelve entre 1899 y 1923, pero está ya ausente de Europa Occidental y las Américas. Las medidas sanitarias y los tratamientos médicos que se han utilizado para contener el cólera ilustran muy bien la situación de la salud pública y privada durante el siglo xix.

En Europa Occidental había dos teorías antagónicas para explicar las epidemias. La más antigua remontaba a Hipócrates (aprox. 460 a. C.-370 a. C.) y postulaba que la enfermedad epidémica era ocasionada por miasmas, es decir, emanaciones de los cuerpos muertos o de otras materias putrefactas, que afectaban fácilmente a organismos débiles. La teoría contraria, postulada en 1546 por el médico veronés Girolamo Fracastoro (1478-1553), sostenía que las epidemias eran producto de gérmenes que las contagiaban. Esta teoría justificaba las cuarentenas, normalmente utilizadas para prevenir la peste, en casi todo el Mediterráneo.

Sin embargo, estas ideas no eran de aceptación universal. Así, por ejemplo, un grupo de médicos franceses estudió cuidadosamente la fiebre amarilla que azotaba Barcelona en 1822 y concluyó que no se observaba contagio de persona a persona;[35] las medidas de cuarentena se consideraban a menudo como producto de una era anterior, llena de supersticiones, y eran antagónicas con el libre comercio. En Londres, en 1854, el doctor John Snow demostró que los casos de cólera registrados en una zona muy específica tenían todos en común una misma fuente de agua contaminada; pero su evidencia parecía apenas circunstancial y no llamó la atención.

Entretanto, el cólera siguió golpeando las poblaciones europeas. Hacia 1880 la investigación médica cambió radicalmente, gracias al desarrollo de la microbiología;[36] Pasteur elaboró exitosamente una vacuna contra el cólera aviar y el carbunclo o ántrax, y en 1885 aplicó en un niño la vacuna antirrábica, con la cual salvó su vida. En Alemania, Koch estudiaba desde 1878 los microorganismos presentes en las heridas infectadas y en 1882 descubrió el bacilo de la tuberculosis; Neisser halló la causa de la gonorrea, mientras que Klebs y Ebert identificaron la bacteria causante de la fiebre tifoidea en 1883; al año siguiente, Klebs y Löffler hicieron lo propio con la difteria. Sin embargo, la teoría de los gérmenes no se impuso enseguida; en 1881, un importante tratado de medicina reconocía el contagio de las infecciones, pero seguía también dando crédito a las miasmas para rendir cuenta de ciertas enfermedades.[37]

En 1883, viniendo de la India, el cólera atacó con virulencia de nuevo en Egipto; se organizaron dos misiones científicas, en forma cooperativa: una francesa con científicos del laboratorio de Pasteur, y otra alemana, encabezada por Koch. Ambos grupos llegaron a Alejandría en agosto y comenzaron a trabajar, buscando afanosamente aislar el microbio causante del cólera; los alemanes analizaban los tejidos de los intestinos infectados mientras que los franceses trataban de inocular animales de laboratorio con las sustancias sospechosas para ver si los enfermaban de cólera, un método que había servido bien para el carbunclo y el cólera aviar; sin embargo, el cólera morbus no ataca los animales, por lo cual no tuvieron éxito. Cuando la epidemia cedió, los alemanes fueron hacia la India y los franceses regresaron a París, no sin antes haber perdido a uno de sus jóvenes científicos, contagiado y muerto por el cólera. Koch identificó el bacilo del cólera[38] y presentó los resultados al año siguiente, en un congreso internacional reunido en Berlín. Quedaba ahora desarrollar métodos efectivos para combatir el contagio y la enfermedad. La recomendación de Koch y su escuela era que se hirviera el agua, se evitara comer frutas y vegetales crudos, y se procediera al lavado de manos y a una cuidadosa limpieza personal; a ello se sumaban las medidas clásicas de aislamiento y cuarentena para los enfermos.

Procedente de Rusia, el cólera llegó a Hamburgo y el norte de Alemania en 1892, con particular virulencia; Bremen y varias ciudades vecinas tuvieron muchos menos casos que Hamburgo debido a que disponían de un sistema de abastecimiento de agua potable y establecieron enseguida cordones sanitarios; en cambio, Hamburgo, ciudad comercial por excelencia y liberal, resistía cualquier medida que entorpeciera el libre tránsito y perjudicara la circulación. Solo cuando la epidemia alcanzó proporciones catastróficas, las autoridades acudieron a Koch y siguieron sus consejos.[39]

Un barco procedente de Hamburgo llevó la epidemia a Nueva York en agosto de 1892, y enseguida llegaron siete barcos más con enfermos; las medidas sanitarias tomadas por el Departamento de Salud evitaron la extensión de la epidemia; poco después la administración municipal dispuso fondos para que la ciudad pudiera tener un laboratorio completo que fuera capaz de aplicar las nuevas técnicas bacteriológicas. Triunfaba así la teoría de los gérmenes y el contagio; las medidas de higiene y control sanitario permitieron evitar nuevos brotes; de hecho, el cólera desapareció del horizonte epidémico europeo y americano hasta que hubo un inesperado rebrote a finales del siglo xx. La prevención, a través de la disponibilidad de agua potable, el manejo seguro de los desechos fecales y la higiene personal y pública, fue suficiente, junto con la vigilancia epidemiológica, para erradicar el cólera; el tratamiento a través de la hidratación y el aislamiento de los enfermos bastó para disminuir drásticamente la mortalidad debida a este flagelo. Debe notarse, además, que las vacunas, ensayadas desde finales del siglo xix, no resultaron muy efectivas, y que solo con la aparición de los antibióticos, en la década de 1940, se dispuso de una cura médicamente efectiva.

Por todo esto se puede afirmar la importancia crucial de las medidas sanitarias, desde la infraestructura hasta la limpieza y el cuidado personal, y, por supuesto, las pruebas de laboratorio para identificar la enfermedad. Por otra parte, la historia del cólera durante el siglo xix permite entender también lo sinuoso y a menudo tortuoso de los caminos de los descubrimientos científicos; la ciencia, los científicos, las prácticas, la cultura, la sociedad y el ambiente juegan permanentemente en una dinámica temporal particularmente compleja.

La saga de la viruela, bien conocida en Eurasia y África, pero ausente de América antes de 1492, es más fácil de resumir. Fue la primera enfermedad para la cual se dispuso de una vacuna efectiva, aunque el mecanismo de la inmunización solo se volvió inteligible a partir de los trabajos de Pasteur, hacia 1880. La inoculación fue practicada en Europa Occidental desde comienzos del siglo xviii; consistía en tomar una muestra del tejido de la pústula de un enfermo e inocularla en una pequeña incisión, realizada por lo común en un brazo de una persona sana. La persona inoculada enfermaba de viruela, pero, en muchos casos, en forma leve, y quedaba inmunizada. La inoculación era efectiva, aunque, en no pocas ocasiones, la persona enfermaba gravemente y moría; por eso tuvo también muchos detractores. En Inglaterra se difundió sobre todo en las zonas rurales; en Francia fue bastante resistida hasta que Luis xv murió de viruela en 1774. En Londres la inoculación fue difundida gracias a los esfuerzos de lady Mary Wortley Montagu hacia 1721; esta aristócrata venía de la embajada británica en Estambul y allí había visto los beneficios de la inoculación, por lo cual decidió aplicarla a sus hijas, con lo que logró un resultado exitoso. De hecho, la inoculación era practicada en el Imperio otomano, y también en China e India desde hacía siglos. Por qué se difunde tan tarde en Europa sigue siendo materia de debate,[40] pero ilustra bien, en todo caso, otro aspecto que es necesario subrayar: las prácticas médicas europeas. Lo mismo ocurría en América Latina, siempre combinaban los nuevos conocimientos científicos con los que provenían de la sabiduría popular.

En 1798, Edward Jenner, un experimentado médico rural inglés, publicó los resultados de un experimento realizado en 1796: había infectado a un niño de ocho años con el virus de la viruela bovina, una variedad mucho más benigna de la viruela; siete meses después, Jenner inoculó al mismo niño con la viruela y observó que no se producía ninguna infección: estaba inmunizado; la vacuna contra la viruela había sido descubierta; además, era fácil de producir y aplicar, y ocasionaba trastornos mínimos.[41] Conviene enseguida resaltar dos cosas: a) descubierta y aplicada la vacuna, su principio biológico de funcionamiento solo quedó esclarecido casi 100 años más tarde, gracias a los trabajos de Pasteur; b) su difusión fue relativamente pronta, al menos en Europa y las Américas, pero la inmunización masiva tardó muchísimo tiempo; de hecho, recién en 1980 la OMS pudo declarar oficialmente erradicada la viruela a nivel mundial.

La pasteurización, la asepsia y la esterilización fueron tres procedimientos revolucionarios en la higiene que triunfaron en el siglo xix.[42] Pasteur estudió los procesos de fermentación y concluyó, en contra de las opiniones más aceptadas, que se debían a la presencia de levaduras y bacterias; en 1862 comenzó a estudiar la fermentación y acidificación del vino, algo que afectaba duramente a la industria vitícola francesa, y comprobó que, si se calentaba el vino hasta una cierta temperatura y luego se enfriaba, se eliminaban la mayoría de los microorganismos que lo dañaban. Aunque el procedimiento no se utilizó mucho para la conservación del vino, Pasteur acababa de descubrir el método que después se denominó, precisamente en su honor, como “pasteurización”. Publicados y difundidos los resultados, diversos científicos aplicaron el principio a la conservación de la leche, los jugos y muchos otros líquidos de consumo humano: el método básico siguió siendo el de calentar hasta una cierta temperatura ideal, que varía de líquido a líquido, durante un tiempo también óptimo, y luego un rápido enfriamiento, antes de proceder a envasar el líquido ya pasteurizado.

En 1867 el cirujano británico Joseph Lister, influenciado por los estudios de Pasteur, descubrió el principio de la asepsia. Lister buscaba cómo controlar las infecciones que se producían en las operaciones quirúrgicas y propuso la desinfección del instrumental y las manos del cirujano con una solución acuosa basada en el fenol; luego cubría la herida con una gaza también embebida en fenol. El mismo Lister y luego otros investigadores fueron variando el líquido para realizar la desinfección, ya que el fenol resultaba irritante; en 1878, Pasteur propuso que la desinfección se realizara hirviendo el equipo quirúrgico en agua a ciertas temperaturas elevadas, que él mismo precisó. De lo que se trataba ahora no era de destruir las bacterias de las heridas, sino de eliminarlas de todo el equipo utilizado en la operación, incluyendo la sala y las ropas de los cirujanos, ayudantes y enfermeros.

Estas prácticas se extendieron; hacia 1889, el autoclave comenzaba a utilizarse en Francia, Alemania y los Estados Unidos; muy pronto, el atuendo médico blanco, las mascarillas y los guantes y la sala de operaciones estériles pasaron a formar parte del paisaje de los hospitales. La desinfección de las heridas y de la piel del paciente fue parte de las prácticas habituales, y la asepsia y antisepsia se incorporaron a la educación básica. A veces hubo, a finales del siglo xix, tantas obsesiones con el lavado y la limpieza, que acabaron irritando y perjudicando la piel; sin embargo, los ajustes se produjeron también con prontitud. Un nuevo microambiente, caracterizado por la asepsia y la esterilización, había hecho su aparición.

Agua potable, recolección de la basura, letrinas y tratamiento de las aguas negras constituyen piezas claves en los avances sanitarios durante el siglo xix.[43] Estas transformaciones se originaron en las grandes ciudades y fueron resultado de la acción pública, a nivel municipal o del Estado central, según los casos. Implicaron grandes obras de infraestructura, en las cuales se utilizaron los materiales y las técnicas derivados de la industrialización. Solo a finales del siglo xix, hubo una clara consciencia de que estos avances tenían que ser simultáneos; de nada servía disponer de un abastecimiento de agua por cañería, que llegara a todas las casas y los edificios, si las fuentes de agua estaban contaminadas por las aguas negras y la basura. La construcción de letrinas conectadas a un sistema de cloacas, integradas a las viviendas y los edificios y concebidas según las normas básicas de la higiene, fue otro paso fundamental; notemos, sin embargo, que el inodoro (retrete, letrina o water closet), con un sistema de cierre hidráulico (o sifón), aunque ya había sido patentado en 1775 por el relojero escocés Alexander Cummings, solo comenzó a ser utilizado ampliamente a inicios del siglo xx. La Revolución Industrial precedió, en Europa y los Estados Unidos, a las mejoras sanitarias en las ciudades, lo cual provocó una rápida contaminación de los ríos, los suelos y el aire, a la vez que la fuerte inmigración proveniente del campo llenaba las ciudades de viviendas insalubres, a la par de las fábricas y los depósitos industriales. En este sentido, conviene tener presente que las grandes obras de infraestructura obedecieron precisamente a la necesidad de sanear el entorno urbano, incluyendo el control de las grandes epidemias, en un contexto que también comprendía la pobreza, las viviendas, las calles, los parques y las avenidas, para atacar lo que en la época se denominaba la “cuestión social”. La ecología urbana imponía así nuevos equilibrios, conflictos y desafíos; en la complejidad de este mundo, los seres humanos seguían siendo uno entre muchos otros actores.

Los cambios en la profesión médica[44] fueron otro aspecto fundamental de las transformaciones que estamos reseñando; los más importantes ocurrieron en dos momentos diferentes: a) a finales del siglo xix, cuando, luego de la obra liderada por Pasteur y Koch, se pudo hacer una atribución causal a las enfermedades infecciosas; b) y hacia las décadas de 1930 y 1940, cuando ocurrió la revolución terapéutica derivada del descubrimiento y la fabricación de las sulfamidas y los antibióticos. La obra de Pasteur y Koch produjo lo que Kunitz llama una “revolución epistemológica”, en cuanto a que las enfermedades pasaron a explicarse en términos de una causa “necesaria” y no un conjunto de factores que podían o no estar presentes, según cada caso individual; estas causas se identificaban y verificaban en forma experimental, y eran de aplicación universal; aunque el paciente seguía siendo importante en su relación con el médico, el saber médico no se basaba en particularismos. Estos cambios radicales, originados sobre todo en Francia y Alemania, se extendieron pronto a los demás países desarrollados y también a América Latina. La educación médica en las universidades sufrió cambios fundamentales, al tiempo que se abrieron amplias posibilidades para carreras académicas centradas en la investigación médica y el trabajo en laboratorios. Los médicos pasaron a ser personajes de primera importancia en el tratamiento de los pacientes y la organización de clínicas y hospitales, como también, al mismo tiempo, a jugar un papel crucial en el diseño y la implementación de las nuevas políticas sanitarias, tanto a nivel local como nacional.

La revolución terapéutica fue un complemento esencial en todos estos cambios; de poco hubiera servido la revolución epistemológica sin métodos de tratamiento efectivos para una gran variedad de enfermedades; esto es precisamente lo que ocurrió cuando se dispuso de las sulfamidas y los antibióticos para tratar las infecciones.

En una etapa más reciente, sin embargo, cuando lo que predominan ya no son enfermedades infecciosas, sino crónicas, como las cardiovasculares o los tumores cancerosos, ha vuelto a utilizarse, ante la falta de un conocimiento causal determinista, un paradigma de causas múltiples asociadas, como fue habitual en el siglo xix para las enfermedades infecciosas antes del triunfo de la teoría de los gérmenes; claro que, en este caso, la identificación de los factores de riesgo sigue procedimientos y modelos estadísticos rigurosos y, a menudo, sofisticados.

A continuación, vamos a esbozar un panorama de cómo todos estos factores repercutieron en la transición demográfica latinoamericana.

La conquista de la salud en América Latina

El descenso de la mortalidad en América Latina y la consiguiente transición epidemiológica dependieron estrechamente de dos órdenes de factores: a) la pronta adopción de los conocimientos y las técnicas en el campo sanitario, higiénico y médico, generadas en el mundo desarrollado; b) y la intervención del Estado para llevar a cabo las obras de infraestructura y las políticas sanitarias requeridas en el punto anterior. La salud como un bien personal e individual no podría verse como algo separado de la salud como un bien público. El contexto general era, como bien se sabe, el del progreso material y la modernización generados por la incorporación de América Latina al mercado mundial, sobre todo desde mediados del siglo xix, a la par de las transformaciones políticas e ideológicas que condujeron a la construcción del Estado liberal, bajo el lema “orden y progreso”. La conquista de la salud pública fue parte importante de esa agenda modernizadora.

Las élites dirigentes trataron de adaptar los modelos institucionales, políticos e ideológicos imperantes en Europa Occidental y los Estados Unidos a las realidades latinoamericanas; en el campo que nos interesa, esto implicó seguir los modelos sanitarios y médicos que triunfaban en el siglo xix y adoptar las prácticas higiénicas correspondientes. Los cambios fueron impuestos por el Estado, y solo paulatinamente, a través de la escuela, las sociedades mutuales, los sindicatos, la prensa y otras instancias de la sociedad civil, se fue dando un proceso de acción participativa por parte de los usuarios. El ideal en el imaginario de las élites era construir repúblicas de ciudadanos educados, conscientes y sanos, que vivieran en espacios urbanos y rurales modernos y que no les tuvieran envidia a sus modelos europeos. Lograr esto fue parte de la utopía del progreso, y luego siguió integrando los ideales de las sociedades latinoamericanas hasta hoy día (2022); el avance conseguido en la salud, si se mide a través del aumento en la e0, es probablemente el que emula con mayor éxito los modelos europeos seguidos desde el siglo xix.

La viruela

La puesta en práctica de las políticas sanitarias implicó fuertes cambios en la vida cotidiana de las poblaciones y a menudo estuvo acompañada de violencia y coerción. La difusión y obligatoriedad de la vacunación ilumina bien este aspecto. La vacuna contra la viruela fue introducida por una expedición científica enviada por la monarquía española en 1803;[45] la dirigía el médico Francisco Javier Balmis, e incluía a 22 niños huérfanos que iban a servir de portadores de la vacuna viva, además de cientos de copias de un tratado sobre la vacuna del francés Moreau, libro que Balmis había traducido y publicado en España. Al iniciar la expedición, Balmis había inoculado el virus de la vacuna a algunos niños; mientras las heridas estaban todavía con pus, el médico recogía el virus y cada diez o doce días lo inoculaba a otros niños; con este método[46] logró que el virus se mantuviera vivo y pudiera transmitirse a los diferentes lugares que tocaba la expedición. La misión llegó primero a las islas Canarias y allí comenzó la vacunación; siguió luego a Venezuela, Cuba y México; desde Venezuela expediciones derivadas partieron hacia Colombia, Ecuador y Perú, mientras que desde Acapulco Balmis navegaba hacia las Filipinas y luego hasta Macao y Cantón, en China. En cada lugar de la monarquía española, se establecieron juntas de vacuna, encargadas de mantener el virus y de aplicar la vacuna; estas juntas estaban integradas por autoridades del cabildo o funcionarios de gobierno, curas párrocos y personal médico. También se creó a nivel local y provincial una red jerárquica que terminaba en la audiencia o el gobernador.

Las reacciones ante la vacuna y la obra de la expedición cubrieron todo el espectro de posibilidades: hubo desde la aprobación calurosa, celebrando la filantropía de la Corona, hasta la oposición y censura, basada en la ignorancia y los prejuicios religiosos; en las autoridades civiles, se encontraron grados variables de aprobación, mientras que las autoridades religiosas, por lo general, la apoyaban y colaboraban. En Caracas no faltaron loas poéticas, dos de ellas provenientes de la pluma del joven Andrés Bello. Al final, todo dependería del éxito en la vacunación y la capacidad de contener nuevas epidemias. Hay que notar que las resistencias no solo tenían que ver con prejuicios e ignorancia; la experiencia de la inoculación, extendida desde mediados del siglo xviii, había sido poco exitosa, y hay que recordar que al menos un 10 % de los inoculados morían. Hasta bien avanzado el siglo xix, habría todavía epidemias de viruela, lo que indica que la cobertura total de la población con la vacuna no era fácil de alcanzar.

La obligatoriedad de la vacunación fue otro tema que originó discusiones y resistencias. El caso de Chile[47] ejemplifica bien cómo las implicaciones políticas y los juegos del poder se entremezclaban con los requerimientos sanitarios. La vacuna había llegado en 1805, llevada por la ya citada expedición de la vacuna; en 1830, el gobierno de Portales había instalado la Junta Central de Vacuna; sin embargo, la viruela continuaba cobrando miles de víctimas. En la década de 1870, hubo brotes recurrentes, lo cual llevó a que se planteara en el Congreso la necesidad de aprobar la vacunación obligatoria; interminables discusiones llevaron al rechazo del proyecto de ley en 1878. Al año siguiente, estalló la guerra del Pacífico (1879-84), y la movilización militar contribuyó a extender la epidemia. Un nuevo proyecto se discutió en 1882, con iguales resultados: los diputados consideraron que con esa medida se daban demasiados poderes al Ejecutivo, con un consiguiente desplazamiento del Poder Legislativo. Como se sabe, un conflicto de poderes parecido llevó, en 1891, a la destitución del presidente Balmaceda y la instauración de la llamada “República Parlamentaria”. Habría que esperar a 1918 para que Chile aprobase la vacunación obligatoria tal como lo establecía el proyecto rechazado en 1882; para entonces, la composición del Congreso había cambiado un poco y había más diputados sensibles a lo que se llamaba “la cuestión social”. Recién hacia 1932 fue notorio el descenso de los afectados por la viruela, lo cual reflejaba, sin duda, el impacto de la vacunación obligatoria.

La expedición de la vacuna fue financiada por la Corona española y fue un gasto de monto considerable; los gastos derivados, relativos a la instalación y el funcionamiento de las juntas de vacuna, fueron asumidos a nivel local o provincial, según el caso; la gestión, como ya se indicó, corrió a cargo de autoridades civiles, eclesiásticas y personal médico. Este modelo de iniciativa, financiamiento y gestión, con una fuerte participación del Estado, sería el predominante en América Latina hasta el día de hoy (2019); en mucho, puede decirse que constituye una herencia de la monarquía borbónica. La expedición fue exitosa pues logró la difusión de la vacuna en todo el ámbito del Imperio y plantó las bases para su continuidad; se calcula que, en un recorrido de tres años, vacunó alrededor de medio millón de personas;[48] las guerras civiles que acompañaron la independencia afectaron y retardaron este gran esfuerzo sanitario, pero ciertamente la semilla sembrada prosperó más tarde.

El caso de Brasil nos ilustra otros aspectos también de interés.[49] La vacuna fue introducida en 1804 por un propietario de esclavos que la llevó a Bahía; el traslado de la Corte portuguesa a Río de Janeiro en 1808 introdujo varias mejoras sanitarias, y en 1811 se creó la Junta Vacínica da Corte. En 1832 se decretó la vacunación obligatoria en Río de Janeiro; sin embargo, la medida solo fue obedecida a medias; de hecho, durante todo el siglo xix, la vacunación contra la viruela solo fue utilizada como respuesta a los brotes epidémicos; al parecer, solo los esclavos eran vacunados con particular insistencia. En 1846 se creó el Instituto Vacínico do Império y en 1850, la Junta Central de Higiene Pública, un primerísimo intento por centralizar la administración sanitaria, particularmente en lo atinente al saneamiento portuario. La viruela y la fiebre amarilla asolaban las grandes ciudades, Río de Janeiro en particular.

En estas circunstancias apareció un médico joven, Oswaldo Cruz (1872-1912),[50] graduado en Río y luego formado en París, en el Instituto Pasteur; una primera experiencia combatiendo la peste bubónica en el puerto de Santos, en 1899, lo llevó a organizar en 1900 el Instituto Soroterápico Federal, dedicado a la fabricación de sueros y vacunas.[51] En 1903 Oswaldo Cruz fue designado director de Salud Pública y el gobierno decidió emprender una reforma urbana y una campaña de saneamiento en Río de Janeiro.

El modelo urbanístico venía de París (Haussmann) y suponía intervenir drásticamente el centro de la ciudad para terminar con las estrechas calles coloniales y las viviendas precarias y sanear y modernizar el puerto; en pocas palabras, se trataba de construir una capital moderna y avanzada, al tono de la Belle Époque. La reforma sanitaria implicaba terminar con la fiebre amarilla y la viruela, eliminando aguas estancadas y mosquitos y vacunando masivamente; el Congreso reiteró, a pedido de Oswaldo Cruz, la obligatoriedad de la vacunación en 1904. La violencia policial de la intervención urbana y sanitaria, con demoliciones, expulsiones de poblaciones pobres y vacunaciones forzadas, provocó una rebelión popular del 10 al 16 de noviembre de 1904; el episodio, de inusitada violencia, se conoce con el nombre de “revuelta de la vacuna”.[52] La oposición incluyó una gran variedad de grupos e intereses: contrarios a la vacunación; nostálgicos del Imperio; positivistas que rechazaban cualquier forma de compulsión gubernamental; pobres, desplazados por la reforma urbana; enemigos políticos del grupo gobernante; etc. Para la joven República, fue ciertamente un momento de crisis, bien reflejada en los periódicos de la época, incluyendo una gran cantidad de caricaturas políticas; sin embargo, la rápida intervención del ejército y la instauración del estado de sitio conjuraron cualquier amenaza.

Una vez controlada la situación, las medidas continuaron; los casos de viruela disminuyeron significativamente, aunque hubo nuevos brotes en 1908 y 1914. Oswaldo Cruz se retiró como director de Salud Pública en 1909; ese mismo año recibió un importante premio por su labor sanitaria en un congreso internacional realizado en Berlín; ya por entonces, las élites brasileñas lo consideraban un verdadero héroe. La última epidemia de viruela en Río se registró en 1926, aunque habría que esperar hasta 1973 para que este flagelo fuera considerado como erradicado de todo Brasil. Esto solo ocurrió luego de extensas campañas de vacunación en las zonas rurales, particularmente en las décadas de 1950 y 1960.

La fiebre amarilla

La lucha contra la fiebre amarilla y la malaria, dos flagelos que afectaban sobre todo las tierras bajas tropicales, y en particular los puertos, implicó modificar el ambiente para reducir la población de mosquitos,[53] el principal agente transmisor de dichas enfermedades a los seres humanos. Las medidas sanitarias requeridas exigían importantes obras de infraestructura (canalización, drenaje, eliminación de pantanos, etc.) y una fumigación efectiva, además del uso personal de mosquiteros, el control de aguas estancadas en las viviendas y el aislamiento de las personas infectadas.

El médico cubano Carlos Finlay (1833-1915) fue el primero en demostrar que la fiebre amarilla era transmitida por la picadura de un mosquito, y lo hizo en un paper presentado en 1881 en la International Sanitary Conference, reunida en Washington D. C. Sin embargo, solo años después este conocimiento tuvo aplicación efectiva; ello ocurrió en el contexto de la ocupación norteamericana de Cuba. William Gorgas (1854-1920), un médico militar que había sido nombrado oficial jefe sanitario en La Habana acudió a una comisión médica integrada por Walter Reed (1851-1902) y George Miller Sternberg (1838-1915) para luchar contra la fiebre amarilla que afectaba a las tropas de ocupación; estos médicos realizaron sus propias investigaciones y dieron crédito a las ideas de Finlay. Gorgas emprendió una fuerte campaña de control de los mosquitos y la incidencia de la fiebre amarilla comenzó a bajar significativamente. En 1904 Gorgas empezó a actuar como jefe sanitario durante la construcción del canal de Panamá y realizó una rápida y efectiva operación sanitaria que logró sanear toda la zona; la construcción del canal fue, en este sentido, no solo una gran obra de ingeniería, sino también una verdadera hazaña sanitaria que permitió bajar la mortalidad y la morbilidad de la mano de obra. Hay que recordar también que todo esto fue parte de una vasta operación militar: la construcción del canal estaba al cuidado de la Secretaría de Guerra de los Estados Unidos y concluyó con todo éxito en 1914. El modelo sanitario “militar” de Gorgas fue imitado en diversos ámbitos, pero su éxito dependía en gran parte del carácter compulsorio y de la fuerte disponibilidad de recursos. El caso de Brasil ha sido bien estudiado[54] y muestra las enormes dificultades que se enfrentaron debido a la gran extensión y dispersión territorial, la limitación de los recursos, la falta de personal consciente y entrenado, y la necesidad de contar con poblaciones receptivas y educadas. El combate de la fiebre amarilla comenzó en Río, como parte de las acciones de Oswaldo Cruz entre 1904 y 1908; siguió durante largos años, siempre con la idea de que, si se eliminaban los agentes transmisores, se suprimía toda incidencia de la enfermedad. Hacia 1916 una misión de la Fundación Rockefeller se unió a los equipos brasileños.

La familia Rockefeller, con una inmensa fortuna construida a partir del petróleo, decidió financiar una fundación filantrópica en el campo de la salud pública en 1913. Desde el inicio la fundación tuvo una agenda internacional, orientada a la investigación y la prevención de las enfermedades consideradas como grandes flagelos de la humanidad; a la vez, promocionó la creación de escuelas de salud pública en las Universidades de John Hopkins (1916) y Harvard (1922), y apoyó decididamente la constitución de la London School of Hygiene and Tropical Medicine (1922). Estas tres instituciones estuvieron pronto a la vanguardia en el campo de la investigación médica y la formación profesional, tanto a nivel local como internacional. El centro científico de la fundación era el Rockefeller Institute for Medical Research, con sede en Nueva York.[55] La agenda internacional consistió en el envío de misiones a un gran número de países, incluyendo a casi todo el Caribe y América Latina;[56] el objetivo principal era concentrarse en el combate de la anquilostomiasis y otras enfermedades parasitarias, la fiebre amarilla y la malaria; además del combate directo, los equipos sanitarios entrenaban al personal local, incluyendo la participación de maestros de escuela y la incorporación de temas sanitarios en los programas de educación primaria y secundaria. La duración de las misiones varió, según los países, pero generalmente se extendía por una decena de años; una de las primeras fue a Brasil, en 1916.

Después de 1940, el énfasis de la fundación pasó a la agricultura, focalizada en la difusión técnica y la producción de alimentos básicos; las misiones médicas y sanitarias prácticamente cesaron hacia 1951, cuando la fundación fusionó la International Health Division con el programa de investigación en ciencias médicas. Durante unos 25 años, a partir de los años veinte, el papel de la fundación Rockefeller en las mejoras médicas y sanitarias de América Latina fue ciertamente crucial. La labor de la fundación fue también objeto de fuertes críticas, y abundaron las denuncias de que al final la filantropía era más bien una herramienta más de la intromisión y la dominación imperialistas. Afortunadamente, tenemos ahora varios estudios de caso, basados en los magníficos archivos de la fundación. Estos estudios muestran, en este sentido, la gran complejidad del problema; no pueden negarse los objetivos filantrópicos, aunque también son evidentes los choques con el personal local, originados en diferentes visiones del mundo y valores. En todo caso, las misiones médico-científicas siempre se inscribían en un contexto sociopolítico que no podía ignorarse, y que a menudo expresaban agudos conflictos que nada tenían que ver con la medicina, la ciencia y la salud. Dos ejemplos, uno de México[57] y otro de Brasil, ilustran bien los extremos de esta relación problemática.

La fiebre amarilla azotaba la región de Veracruz y también la península de Yucatán. En medio de la Revolución mexicana, los infantes de marina de los Estados Unidos ocuparon el puerto de Veracruz entre abril y noviembre de 1914; esto originó, como era de esperarse, un gran sentimiento antiimperialista en la población local. En 1920 el general Álvaro Obregón asumió la presidencia de México y comenzó un acercamiento con los Estados Unidos; un convenio con la Fundación Rockefeller se focalizó en suprimir la fiebre amarilla de Veracruz y Yucatán. La misión sanitaria se orientaba a eliminar los mosquitos mediante el control en las viviendas y los reservorios de agua, utilizando petróleo y pequeños peces para exterminar las larvas; los equipos sanitarios enfrentaron muchas dificultades ya que la población local se oponía, y a veces los amenazaba. Veracruz era un bastión de los partidarios de Venustiano Carranza y consideraban a Obregón un traidor de los ideales revolucionarios; luego de muchos meses de tensión, y una vez que Obregón ocupó la región, las misiones sanitarias cumplieron con su trabajo y lograron eliminar virtualmente la fiebre amarilla a partir de 1923. A los ojos de la población de Veracruz, el Estado mexicano ganó en legitimidad y la fundación apareció como una servidora de la administración.

Otra fue la historia en Yucatán. La revolución recién llegó en 1915, con las tropas del general Salvador Alvarado; este, junto con Felipe Carrillo Puerto, instalaron un movimiento socialista bastante radical; pero contrariamente a lo esperado, los revolucionarios yucatecos no se alineaban contra Estados Unidos, sino contra Venustiano Carranza; es más, en 1914, hubo peticiones de anexión a los Estados Unidos. En 1920, siguiendo al acuerdo con el gobierno de Obregón, la Fundación Rockefeller comenzó también a combatir la fiebre amarilla en Yucatán; la idea básica era asegurar una mano de obra saludable a las florecientes plantaciones de henequén. En este caso, las misiones sanitarias tuvieron amplia colaboración de la población local y su éxito fue muy rápido; a partir de 1920, ya no se registraron casos de fiebre amarilla en Yucatán.

En Brasil el combate de la fiebre amarilla seguía dos caminos distintos. El enfoque derivado de las ideas de Oswaldo Cruz privilegiaba la fumigación y eliminación de los mosquitos. A nivel local y de cada estado, se organizaban escuadrones “matamosquitos”, y se trataba de cubrir todas las ciudades y zonas vulnerables; la responsabilidad era relativamente descentralizada y, dada la inmensidad del territorio brasileño, los éxitos y fracasos se combinaban en cada momento. La Fundación Rockefeller privilegiaba, en cambio, la eliminación de las larvas y un manejo político desde el Estado federal; esto era considerado más barato y sobre todo más efectivo. En ambos casos, se requería de una amplia colaboración de la población local.

Cuando se descubrió que el reservorio natural de la fiebre amarilla se encontraba en monos que vivían en la selva, fue evidente que no se podría erradicar la enfermedad solo eliminando los mosquitos transmisores. Se impuso entonces la necesidad de encontrar una vacuna apropiada, una tarea que fue emprendida tanto por los investigadores brasileños como por la Fundación Rockefeller, sobre todo durante la década de 1930. Hubo varios ensayos fallidos, hasta que en 1936 Max Theiler, un investigador sudafricano que se había incorporado a la fundación en 1930, y sus colegas crearon una vacuna atenuada viva para la fiebre amarilla, usando cultivos de tejido preparados a partir de huevos embrionarios de pollo. Entre los muchos subcultivos del virus de la fiebre amarilla que tenían en el laboratorio, estaba el llamado 17D, el cual dio nombre a la vacuna. Esta fue probada experimentalmente a partir de 1938 en los laboratorios brasileños de la fundación, y su éxito fue completo; la vacuna se adecuó fácilmente para la producción masiva y pronto se convirtió en la norma universal. El Dr. Theiler recibió el Premio Nobel de Medicina en 1951 por esta contribución.[58]

La tuberculosis

La tuberculosis sigue siendo todavía hoy (2022) una de las enfermedades infecciosas de mayor prevalencia a nivel mundial; en parte, esto se debe a la mutación de algunas cepas de las bacterias que la causan, que se vuelven resistentes a los antibióticos utilizados para combatirla. La vacuna para prevenirla, llamada BCG (Bacilo Calmette-Guérin), fue desarrollada en el Instituto Pasteur (Francia) entre 1905 y 1921, y comenzó a ser utilizada masivamente muchos años después; su efectividad es, sin embargo, algo limitada, sobre todo en personas adultas, por lo cual una eliminación completa de esta enfermedad no ha sido, hasta ahora, posible. La tuberculosis se transmite de un enfermo a una persona sana a través de la saliva, pero el bacilo que la produce, descubierto por Koch en 1882, resulta ser particularmente resistente y contagioso; se aloja en gotitas minúsculas (un estornudo puede contener casi medio millón), y el contagio es, por lo general, aéreo; además, si las gotitas se secan, el bacilo todavía persiste y puede producir la infección tiempo después. No todas las personas infectadas desarrollan la tuberculosis; muchas conservan la infección en forma latente y nunca la desarrollan. Por estas características, el aislamiento de los enfermos, la limpieza e higiene, una buena ventilación y una excelente nutrición ayudan a controlar la incidencia de la tuberculosis; la cura efectiva solo se descubrió hacia 1944 con la aparición de la estreptomicina; a partir de entonces, este y nuevos antibióticos permiten hacerle frente con éxito.

Un examen de las tasas de mortalidad por la tuberculosis para Argentina[59] y Cuba[60] a lo largo del siglo xx muestra lo siguiente. En Argentina, entre 1911 y 1920, la tasa oscilaba alrededor de 140 casos por cada 100.000 habitantes; luego fue descendiendo en forma continua para llegar a unos 60 muertos por cada 100.000 habitantes hacia 1950; este descenso pronunciado continuó hasta 1962, en que la tasa llegó ya a por debajo de 20; luego prosiguió regularmente hasta llegar a 2 casos por cada 100.000 habitantes en 2005. En Cuba la evolución fue bastante parecida: 200 por cada 100.000 habitantes hacia 1904-1906; 140 entre 1915 y 1920; 60 en los años 1930-1940; 20 hacia 1962; 4 en 1972; y 0,9 en 1982.

Como los antibióticos efectivos para combatir la tuberculosis recién estuvieron disponibles hacia 1950, hay que notar que una buena parte del descenso y control se debió a las medidas sanitarias de aislamiento, higiene y prevención, adoptadas progresivamente en todos los países latinoamericanos. En este sentido, la tuberculosis es un buen ejemplo de una enfermedad “social”, normalmente asociada a la pobreza, la desnutrición, la falta de higiene, la “mala vida”, la promiscuidad y la precariedad en la vivienda; endémica en todos lados, la tuberculosis era una enfermedad sobre todo urbana, y un típico ejemplo de cómo la salud tenía mucho que ver con el bienestar y el progreso económico.[61]

La pobreza, la vivienda urbana y la cuestión social

El ejemplo de la tuberculosis nos lleva pues a cómo inciden la pobreza, sobre todo la urbana, y lo que a finales del siglo xix se llamaba la “cuestión social” en la salud y el bienestar de la población. La cuestión social tenía que ver con el rápido aumento de la población urbana a finales del siglo xix; el florecimiento de las exportaciones y la integración al mercado mundial generaron el crecimiento del comercio, el transporte y los servicios, a la par de actividades artesanales e industriales para satisfacer la creciente demanda interna. Este fuerte impulso transformó, rápida y radicalmente, las viejas ciudades coloniales; para decirlo con las palabras de José Luis Romero: las ciudades criollas y patricias se tornaban ciudades burguesas, y pronto comenzarían también a ser ciudades masificadas.[62]

En términos de la conflictividad social, hubo dos hechos que configuraron la llamada “cuestión social”: a) las organizaciones obreras y sindicales, y las protestas laborales para tratar de mejorar los salarios y las condiciones de trabajo; y b) el deterioro de la vivienda urbana debido al hacinamiento y la falta de vivienda popular barata. Así las cosas, los barrios sencillos se llenaron de conventillos, tugurios y vecindades; cada país desarrolló un vocabulario propio para identificar estas viviendas precarias. Sus condiciones higiénicas eran, por cierto, deplorables, e iban desde los materiales de construcción hasta la poca ventilación, la falta de agua potable, de alcantarillado y cloacas.

El folklore urbano que surgió con estos cambios incluyó música y baile (tango, cumbia, rancheras y boleros, etc.), novelas y obras de teatro, entre otras manifestaciones; el alcoholismo, la prostitución, la pobre mujer tísica (tuberculosa) y los huérfanos malnutridos serían enseguida personajes típicos de este nuevo mundo urbano, bordeado por la delincuencia y la pobreza.

Migraciones y desplazamientos de población del campo a la ciudad caracterizaron este proceso a lo largo del siglo xx, reforzado particularmente por la expansión de la industria y la explosión demográfica. Las grandes zonas metropolitanas que se configuraron desde mediados del siglo –la Ciudad de México, Buenos Aires, San Pablo, Río de Janeiro, Bogotá, Caracas, pronto seguidas por Lima, Santiago de Chile, Belo Horizonte, Quito, Guayaquil, Medellín, etc.– vieron la aparición de barrios y viviendas marginales; las villas miserias argentinas, las favelas brasileñas, las poblaciones callampas chilenas o los ranchos venezolanos remplazaron los viejos conventillos y vecindades. El hacinamiento, la insalubridad, la pobreza, la falta de empleo y la carencia de servicios básicos siguieron caracterizando las condiciones de vida de estas nuevas poblaciones urbanas.

La consciencia social de la necesidad de combatir la pobreza y las malas condiciones higiénicas y sanitarias, sobre todo en el medio urbano, provino de diversas fuentes. Por un lado, había una consciencia tradicional, enmarcada en la beneficencia y la caridad cristianas, que tenía hondas raíces coloniales; por otro, la obra de los médicos, higienistas y salubristas, que enfocaban su esfuerzo en el control de las epidemias y enfermedades, y tenían en la mente los modelos sanitarios europeos y norteamericanos. Sin embargo, el empuje decisivo provino más bien de las luchas sociales y las huelgas de obreros y artesanos que exigían mejores condiciones de vida y de trabajo. La intervención del Estado, que entroncaba bien con la vieja tradición borbónica, como se puede ver en la expedición de la vacuna de la viruela, acabó asumiendo como obra pública la construcción de las obras de infraestructura sanitaria (agua potable, alcantarillado, cloacas y recolección de la basura), al igual que el mantenimiento de los hospitales y la regulación de los servicios médicos. No hay dudas de que todo esto tuvo una influencia positiva en el descenso de la mortalidad; sin embargo, es imposible medir con precisión su efecto neto y hay que contentarse con señalar que se trata más bien de un factor de contexto particularmente favorable.

El Estado y la salud pública

De lo expuesto hasta ahora, queda claro que el proceso salud-enfermedad es particularmente complejo e involucra aspectos biológicos, sociales, políticos e ideológicos, en sus dimensiones individuales y colectivas, tanto a nivel local, regional, nacional e internacional. La acción estatal resultó siempre de un vasto juego de intereses, articulado en relaciones de conflicto y cooperación entre las élites, los grupos y las clases sociales. Esto implica que, a nivel del conjunto de América Latina, solo es posible establecer algunas líneas muy generales sobre cuál fue la política sanitaria; la dinámica sociopolítica solo puede ser esclarecida a partir de estudios de casos detallados, y en este aspecto faltan todavía muchos estudios comparados de suficiente alcance.

La acción sanitaria estatal, a partir de mediados del siglo xix, se concentró en varios ejes principales: a) la realización de obras de infraestructura y saneamiento; b) la creación de un entramado institucional moderno y eficiente; c) la regulación de las prácticas médicas, incluyendo el control de la formación de médicos y paramédicos; y d) el desarrollo de la investigación médica.

El ejemplo chileno, un caso relativamente bien conocido, nos permitirá ilustrar cómo la consecución final de estos objetivos implicó caminos, conflictos y soluciones muy diversos.[63]

1924 fue un año crucial; luego de interminables debates parlamentarios que bloqueaban varias iniciativas reformistas importantes y tenían atado de manos al gobierno del presidente Arturo Alessandri (1920-1925), fue un golpe militar en setiembre de ese año el que obligó a la aprobación de la Ley 4.054 del Seguro Obrero Obligatorio, la Ley 4.055 de Accidentes del Trabajo, el Código del Trabajo y la creación del Ministerio de Higiene, Asistencia, Previsión Social y Trabajo. La nueva Constitución, aprobada en 1925, estableció la obligación estatal de velar por la salud pública. El nuevo ministerio absorbió la Dirección General de Sanidad, creada en 1918. Es importante señalar que, en el nuevo entramado institucional, la salud pública era considerada como parte de las relaciones laborales, incluyendo también la previsión social, es decir, el tema de las jubilaciones, las pensiones de retiro y los seguros.

Cuadro 4.8. América Latina: establecimiento de los Departamentos Nacionales de Salud Pública o instituciones de rango similar (1880-1926)

1880

Argentina. Departamento Nacional de Higiene.

1895

Uruguay. Consejo Nacional de Higiene.

1897

Brasil. Directorio Geral de Saúde Pública.

I899

Paraguay. Consejo Nacional de Higiene.

1903

Perú. Dirección de Salubridad.

1906

Bolivia. Dirección General de Sanidad.

1907

Cuba. Departamento Nacional de Higiene.

1908

Ecuador. Servicio de Sanidad Pública.

1911

Venezuela. Oficina de Sanidad Nacional.

1917

Honduras. Dirección General de Sanidad.

1917

México. Departamento de Sanidad.

1918

Chile. Dirección General de Higiene.

1918

Colombia. Dirección General de Higiene.

1919

Haití. Servicio de Sanidad Pública.

1920

El Salvador. Dirección General de Sanidad.

1920

República Dominicana. Secretaría de Sanidad y Beneficencia.

1922

Costa Rica. Subsecretaría de Higiene y Salud Pública.

1925

Nicaragua. Departamento de Salubridad.

1925

Guatemala. Dirección General de Salubridad Pública.

1926

Panamá. Departamento de Salud Pública.

Fuente: Marquez, Patricio V. y Joly, Daniel J. “A Historical Overview of the Ministries of Public Health and the Medical Programs of the Social Security Systems in Latin America”. The Journal of Public Health Policy Autumm (1986): 378-394.

El otro hito importante ocurrió en 1952; luego de interminables debates parlamentarios, y en un contexto de represión de los comunistas, el gobierno de González Videla aprobó la Ley 10.383, la cual creaba el Sistema Nacional de Salud (SNS); de hecho, este proyecto había sido presentado desde 1941, cuando Salvador Allende era ministro de Salubridad en el gobierno de Aguirre Cerda.[64] La ley restringía el sistema a los obreros, excluyendo a los empleados públicos y al sector rural; los hospitales, hasta entonces administrados por la Beneficencia Pública (instancia privada financiada por la oligarquía, pero que también contaba con subvenciones estatales), pasaron a regir el SNS, en el cual los médicos tenían también un papel de primera importancia. En las décadas de 1920 y 1930, el gremio médico estaba bastante dividido, entre una tendencia sindical relativamente politizada y una más profesional que privilegiaba una concepción liberal (privada) de la práctica médica; al crearse el Colegio Médico de Chile, en 1948, predominó claramente esta segunda tendencia. En 1968 se aprobó la Ley de Medicina Curativa, la cual permitió incorporar a los empleados y sectores medios al SNS estableciendo la libre elección médica y una remuneración por dichos servicios a cargo del asegurado; se instauró un sistema dual, gratuito para los obreros y personas de escasos recursos y parcialmente remunerado para el resto de la población; luego de esta reforma, la cobertura llegó al 90 %. El gobierno del presidente Salvador Allende, entre 1970 y 1973, se propuso establecer el sistema único de salud, sin conseguirlo.

Luego del golpe de Pinochet, la dictadura militar procedió a privatizar, sistemáticamente, el sistema de salud pública. Los servicios quedaron a cargo de las municipalidades; en 1989, el Estado contribuía apenas con un aporte del 17 %, mientras que los cotizantes lo hacían en un 81 % y los patronos aportaban apenas un 1,6 % y en forma voluntaria.[65] El principio de solidaridad, que había formado parte de la filosofía básica del sistema sanitario chileno desde al menos finales del siglo xix, desapareció por completo.

El ejemplo chileno también nos muestra otra característica típica del modelo latinoamericano: la previsión social (jubilaciones y seguros) se planteó siempre como un complemento fundamental de la salud pública, y, a lo largo de más de un siglo, se ha transitado desde un modelo de reparto, protegido por el Estado, a un sistema de capitalización basado en el ahorro individual y manejado por entes financieros privados. En efecto, esto último fue precisamente lo que ocurrió en Chile durante la dictadura de Pinochet, sobre todo a partir del Decreto-ley 3.500 de 1980. Con la privatización y mercantilización, se operó una separación definitiva de la previsión social y la salud. El ejemplo chileno es también útil porque ilustra bien los extremos, desde un régimen (tipo i) basado parcialmente en la solidaridad y con amplio sustento estatal, que llegó a cubrir a un 90 % de la población, hasta un régimen (tipo ii) enteramente privatizado, bajo el imperio de la lógica mercantil. Ahora bien, si la evolución latinoamericana de la seguridad social ha transcurrido a lo largo del tiempo entre estos extremos, conviene enseguida notar que los demás países se aproximan a este modelo evolutivo sin llegar a los extremos chilenos. Esto vale tanto para el régimen tipo i, que en muy pocos países llegó a alcanzar el nivel de cobertura de Chile, cuanto para el régimen tipo ii.

Siguiendo a Mesa Lago,[66] podemos considerar la situación del conjunto de América Latina hacia 1980: a) un primer grupo de países, integrado por Uruguay, Argentina, Chile, Cuba, Brasil y Costa Rica, fue pionero ya que había introducido sistemas de previsión y salud relativamente temprano, sus niveles de cobertura eran bastante elevados y la carga financiera estatal también era alta y deficitaria; b) un segundo grupo intermedio, que estaba compuesto por Panamá, México, Perú, Colombia, Ecuador, Bolivia y Venezuela, con sistemas de previsión y salud introducidos en las décadas de 1940 y 1950, una cobertura media y una carga financiera estatal más ligera que la del primer grupo; c) el tercer grupo de países recién llegados (Paraguay, República Dominicana, Guatemala, El Salvador, Nicaragua, Honduras y Haití), que habían implementado sus programas en las décadas de 1960 y 1970, tenían pocos problemas financieros, poblaciones más jóvenes y bajo nivel de cobertura.

En las décadas de 1980 y 1990, vinieron las reformas del llamado “ajuste estructural”, auspiciadas por el Banco Mundial, el Fondo Monetario Internacional y la AID de los Estados Unidos; estas reformas seguían en buena parte el ejemplo desarrollado por la dictadura chilena de Pinochet. Según Mesa Lago, se implementan tres modelos distintos de cambio: a) el modelo sustitutivo, que remplaza drásticamente el sistema existente, ejemplificado por los casos de Chile,[67] Bolivia, República Dominicana, El Salvador y México; b) el modelo paralelo, representado sobre todo por Colombia y Perú; y c) el modelo mixto, que trata de combinar lo viejo y lo nuevo, como ha sido el caso de Argentina, Uruguay y Costa Rica. Los otros países, Brasil, Cuba, Ecuador, Guatemala, Haití, Honduras, Nicaragua, Panamá, Paraguay y Venezuela, optaron por conservar los sistemas públicos preexistentes. Mesa Lago subraya también que, dentro de una gran diversidad, la privatización ha sido mucho menor en el caso de la salud pública que en el de las pensiones y jubilaciones. Tanto los sistemas de salud como los de previsión funcionan, a pesar de las reformas, con grandes dificultades, y los niveles de cobertura están lejos de los patrones imperantes en los países desarrollados. Este desempeño problemático se explica por el alto desempleo, el peso significativo del sector informal, la gran desigualdad en la distribución del ingreso, y la carencia de un sistema impositivo capaz de cobrar eficientemente las contribuciones a la seguridad social. Todo esto implica, obviamente, que lograr una mayor eficiencia en la salud y la previsión social en un contexto de rápido envejecimiento de la población pasa no solo por cambios económicos, sino también por una reforma profunda del conjunto del Estado, el entramado institucional, las prácticas y la cultura política.

Educación y alfabetización. La investigación médica

El último factor a considerar con relación al descenso de la mortalidad es la educación, la cual pasa obviamente por el avance en la alfabetización. La esperanza de vida al nacimiento (e0) creció, entre 1900 y 1950, de un promedio latinoamericano de 29 años a uno de 47 años; en 2000, dicho promedio ascendió a 71 años; la e0 aumentó en un 62 % entre 1900 y 1950, y en un 51 % entre 1950 y 2000. Se trata, por cierto, de un crecimiento espectacular. El porcentaje de la población mayor de 15 años alfabetizada fue, en promedio y siempre a nivel latinoamericano, de 31 % en 1900, 55 % en 1950 y 87 % en 2000; un aumento también notable.[68] Si examinamos series temporales de ambas variables a lo largo del siglo xx, y a nivel de un país, se observa el mismo movimiento ascendente y en forma casi paralela. La asociación entre ambas series es evidente, pero solo válida a nivel de la tendencia; la autocorrelación implícita afecta la validez de cualquier prueba estadística, algo que ya observamos también en el caso de la evolución de la e0 y el PIB per cápita. Ahora bien, la alfabetización es solo un indicador importante, aunque limitado, del nivel de educación. Lamentablemente, los datos sobre años de escolaridad, calidad y logro educativo son limitados y difícilmente disponibles antes de 1960. Tenemos que contentarnos pues con la indicación del mecanismo cualitativo que vincularía educación y descenso de la mortalidad.

El caso de Costa Rica a comienzos del siglo xx ayuda a ilustrar estos aspectos. La llegada de la misión de la Fundación Rockefeller en 1914 y la creación de la Secretaría de Salubridad Pública en 1922 fueron dos momentos culminantes en la constitución de una política de salud pública en las primeras décadas del siglo xx. Como lo ha demostrado Steven Palmer, la misión de la Fundación Rockefeller llegó para combatir la anquilostomiasis en un ambiente ya preparado.[69] El gobierno había comenzado una campaña contra la enfermedad en 1907, y, precisamente en el momento de la llegada de la misión, se había concluido una primera e importante fase. Debe notarse que la lucha contra la anquilostomiasis requería un esfuerzo extendido de diagnóstico, con pruebas de laboratorio, un tratamiento relativamente sencillo pero vigilado, y una campaña de educación preventiva. En esta última cuestión, las prácticas higiénicas y la construcción de letrinas eran aspectos fundamentales.

Por otra parte, la anquilostomiasis afecta tanto a niños como a adultos, produciendo una debilidad que predispone para otras enfermedades. Varios médicos costarricenses habían percibido esto y estaban convencidos de que su combate era también una lucha que beneficiaría la salud de las personas en otros aspectos. La misión de la Fundación Rockefeller continuó con este esfuerzo, y se afianzaron las bases institucionales para una política estatal sistemática en el campo de la salud.

La campaña contra la anquilostomiasis llegó incluso a zonas lejanas y aisladas del país y contó entre sus aliados con los maestros de escuela y los párrocos. La misión Rockefeller propició también una fuerte campaña de educación en temas de salud personal y comunitaria, y un eficaz programa de inspecciones sanitarias. Los maestros fueron visualizados como los agentes claves y se los instruyó para ejercer tareas de educación y vigilancia sanitaria. El jefe de la misión, Louis Schapiro, publicó incluso un folleto destinado a ellos con instrucciones detalladas sobre cómo llevar un registro de la condición de salud física y “moral” de cada estudiante.[70] Poco después, en el informe anual del Departamento Sanitario Escolar, el Dr. Schapiro expresaba su complacencia por el éxito de la campaña entre los maestros de escuela y veía en ellos a “los más eficientes artesanos de esta nueva corriente”.[71] Los temas de higiene quedaron incorporados en los programas escolares. Al catecismo cívico y al catecismo católico se unió ahora el catecismo higiénico.[72]

El Dr. Solón Núñez, contraparte costarricense de la misión, heredó finalmente la responsabilidad de continuar con los programas establecidos una vez concluida esta, en 1922. En ese mismo año, el Departamento de Anquilostomiasis fue transformado en Subsecretaría de Higiene y Salud Pública, siempre bajo la dependencia de la Secretaría de Gobernación, y Solón Núñez fue su primer director. En 1927 la subsecretaría fue elevada al rango ministerial.

El descenso de la mortalidad implica pues, además de un cambio importantísimo en el contexto social, biológico y ambiental, una modificación sustancial en los comportamientos humanos. Los hábitos de higiene, cuidados médicos y prevención requieren la educación personal para la salud; la sinergia entre la escuela y la actividad de médicos, paramédicos, hospitales e instituciones es crucial en el desarrollo de una nueva cultura sanitaria. Los cambios en el cuidado de los niños y el descenso en la mortalidad infantil son quizás el mejor ejemplo en este sentido. En suma, solo estudios de caso muy detallados pueden esclarecer bien las relaciones entre la educación y el descenso de la mortalidad.[73]

La investigación médica y científica tuvo algún desarrollo propio en América Latina, aunque, como ya se indicó en detalle, dependía estrechamente de la importación de conocimientos y tecnologías de Europa y los Estados Unidos. El Estado careció de una política de promoción de las actividades científicas; la ciencia y la tecnología no formaron parte del programa de modernización desarrollado bajo el lema de “orden y progreso”. El Instituto Oswaldo Cruz de Río de Janeiro, al cual ya hicimos referencia, fue un ejemplo pionero, original y trascendente, pero no tuvo émulos en otros países latinoamericanos. Científicos destacados, como el ya citado Oswaldo Cruz (1872-1917), Carlos Chagas (1879-1934) también en Brasil, Carlos Finlay (1833-1915) en Cuba, y Clodomiro Picado (1887-1944) en Costa Rica, brillaron ciertamente con luz propia, pero no llegaron a encabezar una élite científica institucionalmente consolidada.

La excelente monografía de Carlos Cueto sobre Perú permite seguir este caso, particularmente ilustrativo, con mucho detalle.[74] La transferencia de la ciencia occidental, sobre todo entre 1890 y 1930, no cayó en terreno estéril, y emergió en bacteriología y fisiología una notable capacidad creativa y no solo imitativa, la cual llegó incluso a enriquecer el acervo de la ciencia internacional. La interacción entre científicos locales, agencias filantrópicas externas y el gobierno peruano explica gran parte de este éxito. Sin embargo, según el estudio de Cueto, muchos de estos logros no perduraron luego de 1930. Factores que contribuyeron a este retraso fueron el conservadurismo y el hispanismo que pasaron a predominar en la cultura peruana en la década de 1940, el escaso apoyo estatal a las actividades científicas y el conflicto entre dos tradiciones de investigación distintas. El modelo europeo, sobre todo francés, que había predominado antes fue remplazado por el norteamericano al finalizar la Segunda Guerra Mundial. El primero se basaba en la centralización universitaria, y la orientación eminentemente profesional sin profesores a tiempo completo. El segundo promovía la especialización, con un esquema descentralizado y una ciencia bien equipada.[75] Los líderes científicos peruanos de la década del cincuenta creyeron que, creando algunos centros de excelencia, se iba a producir un efecto multiplicador que acabaría transformando la estructura científica del país; pero ello nunca ocurrió. Entre los factores que lo explican, se encuentran la masificación educativa, particularmente a nivel universitario, que ocurrió desde la década de 1940, y la extremada especialización de los científicos que seguían el modelo norteamericano. Cueto cita un informe confidencial de un científico norteamericano que visitó el Instituto de Biología Andina en los años cincuenta y constata que los científicos peruanos eran excelentes, supertécnicos y altamente especializados, pero, al fin de cuentas, carentes de miras y de originalidad en la investigación.[76]

Conclusión: el descenso de la mortalidad como parte de un proceso de cambio histórico global

Retomemos ahora los principales hilos conductores del descenso de la mortalidad en América Latina en los siglos xix, xx e inicios del xxi. El contexto macrohistórico y estructural comprende el proceso de modernización, desplegado primero a través de la integración al mercado mundial mediante las exportaciones de productos agrícolas y minerales y el desarrollo del Estado nacional, y en un segundo momento gracias a la urbanización y la industrialización. Los factores más específicos incluyen mejoras en la nutrición y la introducción y adaptación de la moderna tecnología sanitaria[77], desarrollada principalmente en Europa y los Estados Unidos.

Esta comprende cuatro aspectos diferentes: a) el saneamiento urbano (agua potable, cloacas, basura y viviendas higiénicas, etc.), incluyendo hospitales e instituciones para el tratamiento de los enfermos; b) la aplicación de la inmunización y las vacunas basadas en este principio; c) la revolución de las sulfamidas y los antibióticos; y d) la formación de médicos y personal sanitario. Los factores B y C, subrayados por su gran importancia, forman parte en realidad de un proceso más amplio relativo a la investigación médica y farmacéutica y la fabricación de instrumental médico.

En el caso de América Latina, los agentes del cambio fueron los siguientes: a) el Estado y sus instituciones; b) los médicos y el personal sanitario; y c) los maestros de escuela primaria y los profesores de educación secundaria. La previsión social y la salud pública dependieron del financiamiento y la acción estatal, bajo esquemas institucionales que podían diferir de país a país, pero que tenían como común denominador la intervención estatal; en algunos casos, los sindicatos y las organizaciones obreras tuvieron también participación importante, al igual que otras organizaciones de la sociedad civil, incluyendo instituciones religiosas. Los médicos y el personal sanitario, formados localmente y con frecuencia especializados en el extranjero, fueron los agentes fundamentales sobre todo en la acción inmediata. Maestros y profesores cumplieron también un papel crucial, tanto en la educación básica en las aulas, enseñando las normas de higiene, cuanto en las campañas educativas y de vacunación. Los programas tipo “la gota de leche”, implementados en casi todos los países en las décadas de 1940 y 1950, y aplicados en las escuelas, cumplieron un rol fundamental en las mejoras de la nutrición infantil. A su vez, los medios de comunicación (radio, prensa, televisión) también tuvieron su papel, sobre todo en la alerta y la prevención ante epidemias y peligros ambientales.

Difícilmente podemos ir más lejos de estos planteamientos generales. Para terminar de apreciar la complejidad del proceso, conviene leer las observaciones siguientes, extraídas de un estudio admirable y detallado, que cuenta además con una gran cantidad de datos, referido al caso de España:[78]

La conclusión principal de todo esto es que los grandes avances económicos, y también la verdadera “modernización” de la nutrición, o de la atención sanitaria (hospitalaria) y de la medicina en general, que se dan a partir del despegue económico del país en los años 1960, son posteriores a la gran caída de la mortalidad. Esta última se produjo antes, en ausencia de los mayores avances económico-sanitarios, aunque algunos de ellos (en nutrición o en antibióticos) ya se empezaron a registrar en la década anterior, en los años cincuenta. La caída de la mortalidad en España fue en parte causa y en parte efecto de un proceso de modernización que, tímido y modesto en sus inicios, tuvo suficiente empaque como para generar una progresiva mejora de la salud de la población y demostró suficiente fuerza y relevancia como para disminuir los niveles de mortalidad de forma importante, antes incluso de que los avances sociales y económicos llegaran a alcanzar un grado propio de una sociedad y economía plenamente desarrollados. La lección de todo esto es que las oportunidades para la vida no requerían de enormes saltos cuantitativos y cualitativos en los factores que hemos venido señalando. Bastaban unos cambios moderados, pero muy significativos, y continuados en el tiempo, y sobre todo un verdadero avance en información sanitaria, en concientización de las prioridades de los individuos, las familias y los deberes sociales de los poderes públicos, esto es, un incremento de la educación en todos los niveles que permitiesen a la población abandonar unas condiciones de existencia propias de la miseria y la situasen en niveles de desarrollo y calidad de vida propios de las sociedades modernas.

Esta precedencia o desfase en el descenso de la mortalidad con respecto al nivel de desarrollo económico nos remite a la curva de Preston, que presentamos antes (ver el gráfico 4.16): en los datos latinoamericanos hacia 2000, se puede apreciar cómo el nivel de la e0 varía mucho menos que el del PIB per cápita; ello confirma los hallazgos del artículo pionero de Preston y permite afirmar que una mortalidad muy baja es compatible con niveles de desarrollo muy diferentes, algunos bastante elevados, y otros decididamente precarios.

Un último aspecto que conviene recordar es la cuestión ecológica referida, en la línea de McNeill, Crosby y Diamond, a las relaciones ambientales entre los seres humanos y las demás especies vivas. Es probable que el notable descenso de la mortalidad y el consiguiente aumento del tamaño y la densidad de la población, experimentados a nivel mundial, hayan afectado estos equilibrios y desequilibrios biológicos y ambientales, pero carecemos todavía de estudios detallados. Un ejemplo sumamente interesante se encuentra en la obra reciente de Cushman sobre las islas del guano en el litoral pacífico de América y la Polinesia; el enfoque de una historia ecológica global, muy influenciado por las ideas de Donald Worster, también incluye específicamente temas demográficos.[79]

Como se puede apreciar de todo lo dicho, aunque nuestro conocimiento sobre el tema ha avanzado notablemente, carecemos todavía de una explicación completa del descenso de la mortalidad en América Latina.

Anexo. Una nota sobre LAMBdA[80]

El Center for Demography of Health and Aging (CEDHA) de la Universidad de Wisconsin-Madison ha puesto a disposición para consulta esta importantísima base de datos que incluye población total y por grupos quinquenales de edad, mortalidad total anual (desde 1900) y por causas (desde 1945), y tablas de mortalidad ajustadas y sin ajustar. La base de datos comprende 19 países y optimiza las estimaciones con diferentes métodos. Los datos fueron compilados y elaborados bajo la dirección de Alberto Palloni a lo largo de muchos años, y son de consulta obligada para cualquier estudio avanzado sobre la evolución de la mortalidad en América Latina. La referencia básica de LAMBdA es la siguiente: Palloni, Alberto, Pinto Aguirre, Guido y Beltrán-Sánchez, Hiram. Latin American Mortality Database (LAMBdA). [Machine-readable database], Madison: University of Wisconsin, 2014.

Para hacerse una idea rápida de esta base de datos y sus posibilidades, véase P alloni, Alberto, Beltrán-Sánchez, Hiram y Pinto Aguirre, Guido. “Incertidumbre de los estimadores de mortalidad y pruebas de hipótesis: el caso de América Latina y el Caribe, 1850-2010”. Notas de Población, n.º 104 (2017): 13-32.


  1. Omran, A. R. “The epidemiologic transition: a theory of the epidemiology of population change”. The Milbank Quaterly, 49 (1971): 509-583.
  2. Preston, Samuel H. “Causes and Consequences of Mortality Decline in Less Developed Countries during the Twentieth Century”. En Population and Economic Change in Developing Countries, editado por Easterlin, Richard A., 289-360. Chicago: University of Chicago Press, 1980.
  3. Robles González, Elena, Bernabeu Mestre, Josep y García Benavides, Fernando. “La transición sanitaria: una revisión conceptual”. Boletín de la Asociación de Demografía Histórica, xiv, n.º 1 (1996): 117-144., p. 127.
  4. Del Panta, Lorenzo y Livi Bacci, Massimo. “Chronologie, intensité et diffusion des crises de mortalité en Italie, 1600-1850”. Population, numéro spécial (1977): 401-440.
  5. La media móvil se centra, como es habitual, en el sexto año, es decir, en el punto medio de los once años utilizados para el cálculo.
  6. Dupâquier, Jacques. “L’analyse statistique des crises de mortalité”. En The Great Mortalities: Methodological Studies of Demographic Crises in the Past, editado por Charbonneau, H. y Larose, A. Liège: IUSSP, 1979.
  7. Los datos provienen de Pérez Brignoli, Héctor. La población de Costa Rica, 1500-2000. Una historia experimental. San José: Editorial Universidad de Costa Rica, 2010.
  8. Los datos provienen de Le Roy y Cassá, J. E. Estudios sobre la mortalidad de La Habana durante el siglo xix y los comienzos del actual. La Habana, 1913.
  9. Besio Moreno, Nicolás. Buenos Aires. Puerto del Río de la Plata. Capital de la Argentina. Estudio crítico de su población, 1536-1936. Buenos Aires, 1939, pp. 83-90.
  10. Los datos provienen de Maldonado, Celia. Estadísticas vitales de la ciudad de México (siglo xix). México: INAH, 1976., y de Peñafiel, Antonio. Boletín Semestral de la Dirección General de Estadística de la República Mexicana, México, 1893.
  11. Benítez Zenteno, Raúl y Cabrera Acevedo, Gustavo. Tablas abreviadas de mortalidad de la población de México, 1930, 1940, 1950, 1960. México: El Colegio de México, 1967.
  12. Braun, Juan, Braun, Matías, Briones, Ignacio y Díaz, José. Economía Chilena, 1810-1995. Estadísticas Históricas. Documento de Trabajo n.º 187. Santiago de Chile: Pontífica Universidad Católica de Chile. Instituto de Economía, 2000.
  13. Rosero-Bixby, Luis. “Factores asociados con la mortalidad infantil en Costa Rica, 1961-1975”. En Mortalidad y fecundidad en Costa Rica, editado por Costarricense, Asociación Demográfica, 31-59. San José, 1984., Tabla A-2.
  14. Alfonso Fraga, Juan Carlos. Cuba. Una transición demográfica temprana y completa. La Habana, Centro de Estudios de Población y Desarrollo, 2009.
  15. Mazzeo, Victoria. “La mortalidad de la primera infancia en la Ciudad de Buenos Aires en el período 1860-2001”. Papeles de Población, 53, n.º Julio-setiembre (2007): 241-272.
  16. Rosero-Bixby, Luis. “Infant Mortality in Costa Rica. Explaining the recent decline”. Studies in Family Planning, 17, n.º 2 (1986): 57-65.
  17. Ver Pressat, Roland. The Dictionary of Demography. Editado por Wilson, Christopher. Oxford: Blackwell Reference, 1985., pp. 205-207.
  18. Cepal, Observatorio demográfico. Tablas de mortalidad 2017. Santiago de Chile: Naciones Unidas, 2017.
  19. Somoza, Jorge L. La mortalidad en la Argentina entre 1869 y 1960. Buenos Aires: Instituto Torcuato di Tella, Editorial del Instituto, 1971.; Cepal, Tablas de mortalidad 2017.
  20. Laurenti, Ruy. “Análise da informação em saúde: 1893-1993, cem años da Classificação Internacional de Doenças. Novos Aspectos da Saúde Pública”. Revista de Saúde Pública, 25, n.º 6 (1991): 407-417.
  21. Datos calculados a partir de la base de datos en línea de la PAHO, consultada en febrero de 2019.
  22. Preston, Samuel H. “The changing relation between mortality and level of economic development”. Population Studies, 29, n.º 2 (1975): 231-248.
  23. Los datos de los gráficos 4.17, 4.18 y 4.19 provienen de Bértola y Ocampo, El desarrollo económico, apéndice estadístico, cuadro 2, en el caso del PIB per cápita y de las fuentes demográficas citadas ya en los capítulos 1 y 2 de este libro, en el caso de la e0.
  24. Otros indicadores demográficos, como, por ejemplo, la tasa de mortalidad infantil, son mucho más sensibles a los cambios económicos de corto plazo; sin embargo, aún en este caso, la proporción explicada por las variables económicas sigue siendo relativamente baja.
  25. McKeown, Thomas. The Modern Rise of Population. Nueva York: Academic Press, 1976.
  26. Fogel, Robert William. The Escape from Hunger and Premature Death, 1700-2100. Europe, America and the Third World. Nueva York: Cambridge University Press, 2004.
  27. Siguiendo a Anderson y May, se pueden clasificar en microparásitos (virus, bacterias y protozoarios) y macroparásitos (helmintos y artrópodos). Ver May, Robert M. y Anderson, Roy M. “Population biology of infectious diseases. Parts I and ii“. Nature, 280, n.º agosto (1979): 361-366/455-459.
  28. Livi Bacci, Massimo. Ensayo sobre la historia demográfica europea. Población y alimentación en Europa. Trad. Bignozzi, Juana. Barcelona: Ediciones Ariel, 1988., pp. 188-189.
  29. May y Anderson. “Population biology of infectious diseases. Parts I and ii“.
  30. McNeill, William H. Plagues and Peoples. Nueva York: Anchor Books, 1976.
  31. Le Roy Ladurie, Emmanuel. “Un concept: l’unification microbienne du monde (XIVe-XVIIe siècles)”. Revue Suisse d’histoire, 23, n.º 4 (1973).
  32. Diamond, Jared. Guns, Germs and Steel. The Fates of Human Societies. Nueva York: W. W. Norton & Co., 1997.
  33. Crosby, Alfred W. Ecological Imperialism. The Biological Expansion of Europe 900-1900. Cambridge: Cambridge University Press, 1986.
  34. Ver McNeill, Plagues and Peoples., pp. 230-246. Pollitzer, R. Cholera. Ginebra: World Health Organization, 1959.; Kiple, Kenneth F. “Cholera and race in the Caribbean”. Journal of Latin American Studies, 17, n.º 1 (1985): 155-177.
  35. Eran incapaces de concebir que el contagio pudiera provenir de los mosquitos.
  36. Chambers, J. S. The Conquest of Cholera. Nueva York: MacMillan, 1938., pp. 338.355.
  37. Chambers, The Conquest of Cholera., p. 342.
  38. De hecho, un médico italiano, Filippo Paccini, en 1854 aisló el bacilo del cólera; pero su descubrimiento pasó desapercibido.
  39. Ver el artículo de Patrice Bourdelais en Schofield, Roger, Reher, David, y Bideau, Alain (editores). The Decline of Mortality in Europe. Oxford: Clarendon Press, 1991.
  40. McNeill, Plagues and Peoples., pp. 224-227.
  41. Fenn, Elizabeth A. Pox Americana. The Great Smallpox Epidemic of 1775-82. Nueva York: Hill and Wang, 2001., pp. 3-43; este libro es un magnífico estudio sobre el desarrollo de la gran epidemia de viruela (1775-1782), la cual comenzó en Canadá y Estados Unidos y bajó hacia México, Centro y Sudamérica, precisamente en paralelo con la guerra de la Independencia de los Estados Unidos.
  42. Ver el artículo de Jean Noël Biraben en Schofield, Reher, y Bideau, The Decline of Mortality in Europe.
  43. Ver Osterhammel, Jürgen. The Transformation of the World. A Global History of the Nineteenth Century. Trad. Camiller, Patrick. Princeton: Princeton University Press, 2014., pp. 167-321.
  44. Ver el artículo de Stephen J. Kunitz en Schofield, Reher, y Bideau, The Decline of Mortality in Europe. Ver también, Kunitz, Stephen J.. “Explanations and Ideologies in Mortality Patterns”. Population and Development Review, 13, n.º 3 (1987): 379-408.
  45. Ver el detallado estudio de Ramírez Martín, Susana María. La Real Expedición Filantrópica de la Vacuna en la Real Audiencia de Quito. Madrid: Universidad Complutense de Madrid, tesis de doctorado, 1998.; incluye una copiosa bibliografía y fuentes de archivo. Ver también Gómez de Cruz, Magda. Smallpox Vaccination, the Establishment of Vaccination Boards, and State Formation in Venezuela and Cuba in the Nineteenth Century. Miami: Florida International University, Ph.D. dissertation, 2008.
  46. Cómo mantener vivo el virus fue un desafío serio debido a las distancias. Por lo general, para mantener el virus, se extraía un trozo de la costra de una pústula y se colocaba entre dos cristales, los cuales se cubrían con una envoltura de cera; para usarlo, había que hidratar la costra seca con una gota de agua destilada, empapar con esa solución una lanceta y efectuar la vacunación. A veces esto se hacía con éxito, pero muchas veces el virus no se había conservado bien y la vacunación no funcionaba. Por esto mismo, el ingenioso método de Balmis aseguró que el virus de la vacuna llegara a América en buenas condiciones.
  47. Sater, William F. “The Politics of Public Health: Smallpox in Chile”. Journal of Latin American Studies, 35, n.º 3 (2003): 513-543.
  48. Gómez de Cruz, Smallpox Vaccination, the Establishment of Vaccination Boards, and State Formation in Venezuela and Cuba in the Nineteenth Century., p. 105.
  49. Hochman, Gilberto. “Priority, Invisibility and Eradication: The History of Smallpox and the Brazilian Public Health Agenda”. Medical History, 53 (2009): 229-252.
  50. Ver Cukierman, Henrique. Yes, nós temos Pasteur: Manguinhos, Oswaldo Cruz e a história da ciência no Brasil. Río de Janeiro: Relume Dumará / FAPERJ, 2007.; Stepan, Nancy L. The Begining of Brazilian Science: Oswaldo Cruz, Medical Research and Policy, 1890-1920. Nueva York: Science History Publications, 1976.
  51. En 1907 este instituto pasó a denominarse Instituto Oswaldo Cruz.
  52. Sevcenko, Nicolau. A Revolta da Vacina: mentes insanas em corpos rebeldes. San Pablo: Editora Scipione, 1993.; Chalhoub, Sidney. Cidade Febril: cortiços e epidemias na Corte Imperial. San Pablo: Companhia das Letras, 1996.
  53. El Aedes ægypti transmite la fiebre amarilla, el dengue y el zika, mientras que el Anopheles gambiæ lo hace con la malaria.
  54. Löwy, Ilana. Virus, mosquitos e modernidade: a febre amarela no Brasil entre ciência e política. Trad. Dias, Irene Ernest. Río de Janeiro: Editora Fiocruz, 2006.
  55. El instituto fue establecido en 1901; aunque con fuertes nexos con él, la fundación fue, desde su inicio en 1913, una entidad separada. En 1965 el instituto cambió de nombre a Rockefeller University; en la actualidad (2022), sigue siendo una institución líder en la investigación médica y biológica; en 2017 un total de 36 premios nóbel estaban o habían estado afiliados con dicha universidad.
  56. Cueto, Marcos (editor). Missionaries of Science: The Rockefeller Foundation and Latin America. Bloomington: Indiana University Press, 1994.; Palmer, Steven. Launching Global Health. The Caribbean Odyssey of the Rockefeller Foundation. Ann Arbor: University of Michigan Press, 2010.
  57. Ver el artículo de Armando Solórzano en Cueto, Missionaries of Science: The Rockefeller Foundation and Latin America.
  58. Norrby, Erling. “Yellow fever and Max Theiler: the only Nobel Prize for a virus vaccine”. Journal of Experimental Medicine, 204, n.º 12 (2007): 2779-2784.
  59. Herrero, María Belén y Carbonetti, Adrián. “La mortalidad por tuberculosis en Argentina a lo largo del siglo xx“. História, Ciências, Saúde – Manguinhoa, 20, n.º 2 (2013): 521-536.
  60. González Ochoa, Edilberto, Barroto Gutiérrez, Susana, Armas Pérez, Luisa, Díaz Bacallao, Clara, y López Serrano, Elena. “Mortalidad por tuberculosis en Cuba, 1902-1997”. Revista Cubana de Medicina Tropical, 55, n.º 1 (2003): 5-13.
  61. Armus, Diego. La ciudad impura. Salud, tuberculosis y cultura en Buenos Aires, 1870-1950. Buenos Aires: Edhasa, 2007.
  62. Romero, José Luis. Latinoamérica: las ciudades y las ideas. México: Siglo xxi Editores, 1976.
  63. Molina Bustos, Carlos Antonio. Institucionalidad sanitaria chilena, 1889-1989. Santiago de Chile: LOM Ediciones, 2010.; Salinas Meza, René. “Salud, ideología y desarrollo social en Chile, 1830-1950.” Cuadernos de Historia. Universidad de Chile, 6 (1983): 99-126.; Goic G., Alejandro. “El Sistema de Salud de Chile: una tarea pendiente.” Revista Médica de Chile, 143 (2015): 774-786.
  64. Allende, Salvador. La realidad médico-social chilena (síntesis). Santiago de Chile: Ministerio de Salubridad, 1939.
  65. En 1974 estas proporciones eran, respectivamente, de 61 % (estado), 19 % (cotizantes) y 19 % (patronos).
  66. Mesa Lago, Carmelo. Reassembling Social Security. A Survey of Pensions and Healthcare Reforms in Latin America. Oxford: Oxford University Press, 2008.
  67. Una serie de cambios, ya en el siglo xxi, parecen acercar el caso chileno al modelo mixto.
  68. Los datos de alfabetización provienen de Thorp, Rosemary. Progress, Poverty and Exclusion. An Economic History of Latin America in the 20th Century. Washington – Baltimore: Inter-American Development Bank – The John Hopkins University Press, 1998.; pp. 354-355.
  69. Palmer, Steven. “Confinamiento, mantenimiento del orden y surgimiento de la política social en Costa Rica, 1880-1935”. En Mesoamérica, n.º 43 (2002): 48-50.
  70. Schapiro, Louis. Misión del maestro de escuela en el servicio de la inspección sanitaria escolar. San José: Tipografía Nacional, 1915; Palmer, ídem, p. 49.
  71. Schapiro, Louis. Informe Anual del Departamento Sanitario Escolar correspondiente al curso lectivo 1915. San José: Imprenta Nacional, 1916, p. 8.
  72. Siles Granados, Hildebrando. Higiene escolar. San José: Tipografía Lehmann, 1916; Jiménez Núñez, Ricardo. Nociones de higiene al alcance de los niños. San José, Librería Alsina, 1923; Segreda, Francisco. Cartilla de higiene escolar. San José: Imprenta Nacional, 1937.
  73. Entre varios estudios relativamente recientes, ver Carbonetti, Adrián y González, Ricardo. Historias de salud y enfermedad en América latina. Córdoba: Universidad Nacional de Córdoba CEA, Conicet, 2008.; Armus, Diego. Avatares de la medicalización en América latina (1870-1970). 1.º ed. Colección “Salud colectiva”. Buenos Aires: Lugar Editorial, 2005.; Armus, Diego. Entre médicos y curanderos: cultura, historia y enfermedad en la América Latina moderna. 1.º ed. Colección Vitral. Buenos Aires: Grupo Editorial Norma, 2002.
  74. Cueto, Marcos. Excelencia científica en la periferia: actividades científicas e investigación biomédica en el Perú 1890-1950. Lima: GRADE, 1989.
  75. Ver un ejemplo detallado sobre Argentina, Brasil, México y Perú en Cueto, Marcos. “The Rockefeller Foundation’s Medical Policy and Scientific Research in Latin America: The Case of Physiology”. Social Studies of Sciences, 20, n.º 2 (1990): 229-254.
  76. Cueto, Excelencia científica en la periferia: actividades científicas e investigación biomédica en el Perú 1890-1950., pp. 186-190.
  77. Cutler, David, Deaton, Angus y Lleras-Muney, Adriana. “The Determinants of Mortality”. The Journal of Economic Perspectives, 20, n.º 3 (2006): 97-120.; Easterlin, Richard A. “Cross-Sections are History”. Population and Development Review, 38 (2012): 302-398.
  78. Pérez Moreda, Vicente, Reher, David-Sven, y Sanz Gimeno, Alberto. La conquista de la salud. Mortalidad y modernización en la España contemporánea. Madrid: Marcial Pons Historia, 2015., pp. 392-393; el énfasis es mío.
  79. Cushman, Gregory T. Guano and the Opening of the Pacific World. A Global Ecological History. Nueva York: Cambridge University Press, 2013.
  80. Ver bit.ly/3w7r6Mx.


Deja un comentario