Este capítulo intenta responder, de manera metodológicamente organizada, a la pregunta: ¿qué ha sido producido hasta ahora como reflexión ética sobre el uso de Big Data en salud?
De esta forma, al comprender cuáles son estos aspectos éticos, el libro pretende presentar al lector las principales cuestiones ya abordadas por académicos interesados en el tema. Para eso, busca destacar temas que claman por más debate, especialmente en contextos periféricos y desiguales. No es una respuesta definitiva sobre qué hacer con las tecnologías, incluso porque estas continúan transformándose, lo que significa que cada decisión o prescripción es provisional.
El estudio de estos aspectos éticos es, pues, un paso previo a cualquier decisión o abordaje normativo del tema. En otras palabras, más que decir qué hacer, el propósito de este libro es informar las decisiones, ofreciendo una descripción general de los principales puntos críticos del uso de Big Data. Tales puntos y su lectura, sin embargo, se preocupan irremediablemente por los efectos de estas tecnologías en contextos y cuerpos periféricos.
Con esto en mente, abordamos los aspectos éticos identificados al utilizar los descriptores Big Data, Bioethics y Ethics como parámetros para la búsqueda de artículos científicos en la bibliografía científica regional e internacional[1] [2].
4.1. Cuerpo de análisis
El primer hallazgo significativo es que, durante la búsqueda, hasta noviembre de 2020, no existían artículos latinoamericanos sobre las repercusiones éticas del uso de Big Data en salud. Y el número total, de cualquier manera, fue pequeño: la búsqueda arrojó solo 44 artículos.
Se ve pues que el debate sobre la moralidad del uso de Big Data en salud es todavía muy incipiente. Una señal inequívoca es que el volumen de publicaciones científicas sobre la dimensión ética del uso de Big Data en salud está muy por debajo del de publicaciones técnicas sobre el tema en los últimos años. Al comparar los artículos obtenidos como resultado de la búsqueda de los descriptores Big Data y Salud, en las mismas bases hasta el año 2020, y en contraste con los únicos 44 artículos sobre los aspectos morales de las nuevas tecnologías, se encontraron 2615 artículos en la base de datos PubMed (frente a los 55 artículos en esta base de datos durante la investigación) y siete artículos en la base de datos LILACS (frente a la ausencia de artículos en esta base de datos durante la investigación). En vista de las importantes implicaciones éticas sobre el tema, el debate ético ciertamente necesita intensificarse. Sin embargo, en la Figura 1 se puede ver que, aunque de manera tímida, hay una tendencia creciente de reflexión ética a lo largo de los años, lo que indica un aumento en el interés por el tema.
Figura 1 – Comparación de la tendencia entre producción técnica y discusión ética sobre el uso de Big Data en salud

Fuente: gráfico elaborado por los autores con datos obtenidos de la búsqueda de los descriptores Big Data y Salud en las bases de datos científicas PubMed, LILACS y de los artículos analizados en este libro.
La tendencia continúa hasta 2020, cuando, en comparación con el año anterior, hubo una caída significativa en el número de publicaciones. Una de las posibles explicaciones de este fenómeno es algún retraso que siempre precede a la indexación de los artículos por parte de las bases de datos. Sin embargo, se puede conjeturar que fue en parte el resultado de las consecuencias sin precedentes de la pandemia de COVID-19 en la dinámica global de la investigación y publicación científica (Sohrabi et al., 2021).
En relación con la nacionalidad del primer autor de los artículos, como se puede apreciar en la Figura 2, se observó que la producción científica sobre el tema es principalmente anglosajona, de los EUA en su mayoría, país de origen de 19 (43,18%) de los 44 artículos seleccionados.
Figura 2 – Número de artículos seleccionados por país

Fuente: gráfico elaborado por los autores con base en información de los artículos analizados durante la investigación.
Este patrón sigue generalmente un fenómeno observado a nivel mundial en la publicación editorial y científica, es decir, el liderazgo con gran ventaja de los países desarrollados en el mundo académico. En este sentido, merece destaque Estados Unidos, que cuenta con el 21,36% de la publicación científica mundial (Scimago, 2021). Esta dinámica termina privilegiando un foco en discusiones que reflejan inquietudes, posiciones y desafíos éticos centrados en los contextos del norte geopolítico. Esto es aún más significativo en el caso del Big Data, ya que se trata de un tipo de tecnología que demanda altos recursos técnicos y económicos y sus principales centros de desarrollo se encuentran en Silicon Valley.
Garrafa (2005) señala la necesidad de que la bioética en toda América Latina produzca reflexiones locales y se niegue a importar preocupaciones éticas extranjeras de forma acrítica y descontextualizada. Una de las características resultantes de esta posición fue la politización y ampliación del alcance de la bioética latinoamericana. Desde la década de 1990, esta viene trabajando en la ampliación de su agenda, jugando un papel fundamental en la consecuente transformación que ha sufrido la bioética internacional. Este proceso resultó en la DUBDH como la conocemos hoy (Garrafa, 2012).
En el caso de la reflexión sobre el uso del Big Data en salud, aún queda mucho trabajo por hacer en este sentido. La brecha es aún más significativa a nivel regional. Es significativo que, observando los criterios de búsqueda, no se encontraron publicaciones regionales sobre el tema. Evidentemente, el resultado no permite extrapolar una ausencia total de discusión sobre el tema en América Latina. Lo que sin duda reflejan los datos es que en los contextos latinoamericanos, el vacío en la discusión ética sobre el uso de Big Data en salud es aún mayor que a nivel internacional.
Similar conclusión obtuvo Harayama (2020), quien en la búsqueda con los descriptores Big Data, Bioética y Ética, de mayo a julio de 2020 en las bases de datos Scielo, BIREME y Jstor, además de los sitios web de la Organización Mundial de la Salud y del Ministerio de Salud de Brasil, encontró solo 21 artículos (Harayama, 2020). La misma existencia del artículo mencionado anteriormente, pero que no fue detectado por la búsqueda en Pubmed ni en la base de datos regional en nuestra investigación, es prueba de que sí hay reflexión y que el proceso de indexación por bases científicas representa una dificultad adicional que se destaca en el camino de un mayor debate regional sobre el tema.
El cuerpo de análisis también fue examinado en términos del área de actividad científica de sus primeros autores, como se muestra en la Figura 3 a continuación. Se identificaron cinco áreas; sin embargo, se puede ver la prevalencia de autores que trabajan en salud y tecnología, con 26 de las 44 publicaciones. Además, áreas no comúnmente asociadas con la bioética, como la administración, estuvieron representadas en la muestra. Este hecho destaca el gran valor del uso de datos para la administración de las instituciones privadas, que buscan formas más efectivas y rentables de actuar con la ayuda de Big Data. En algunos casos, no fue posible identificar el área del primer autor con base en la información presente en el artículo.
Figura 3 – Número de artículos seleccionados por área del primer autor

Fuente: gráfico elaborado por los autores con base en información de los artículos encontrados en la investigación.
4.2. Los aspectos éticos
La bibliografía pasó por un proceso de análisis de contenido en el que se identificaron y clasificaron aspectos éticos ya tratados en la bibliografía científica. La Tabla 1 sistematiza una adaptación de los resultados de la investigación, mostrando los desafíos identificados en el conjunto de artículos científicos analizados en conjunto.
Tabla 1 – Lista de aspectos éticos relacionados con el uso de Big Data encontrados en la bibliografía
Aspectos éticos |
Calidad, representatividad, validez, apropiación del conocimiento |
Incertidumbre e imprevisibilidad |
Opacidad |
Toma de decisiones basada en datos y responsabilidad moral |
Conflicto entre intereses individuales y colectivos |
Cooperación |
Percepción pública |
Injusticia y desigualdades |
Prejuicio, estigma e injusticia |
El medio ambiente |
Seguridad digital y mecanismos de protección |
Autonomía |
Consentimiento |
Privacidad y confidencialidad |
Condición humana |
Modulación del comportamiento |
Mercantilización de la privacidad |
Fuente: esquema realizado por los autores basado en aspectos éticos del uso de Big Data en salud identificados en la bibliografía.
Ahora es momento de abordar más directamente los conflictos morales derivados del uso de Big Data en salud. En la forma en que serán considerados aquí, los temas no pretenden ser exhaustivos, aunque reflejen una clasificación del estado actual de la discusión ética en la bibliografía científica. Se han organizado con el fin de dirigir la atención del lector a los ejes principales. Así, al analizar los aspectos éticos del uso de Big Data en salud, se señala que es necesario reflexionar más a fondo sobre Big Data y (1) producción de conocimiento; (2) colectividad; (3) medio ambiente; (4) regulación; (5) tecnologías predictivas.
El capítulo finaliza destacando la importancia de guiar el debate para que las referencias y las herramientas de análisis sean adecuadas a las formas específicas en las que el desarrollo y la aplicación de este nuevo tipo de tecnología alteran las dinámicas sociales en el Sur Global.
4.3. Es necesario reflexionar sobre el Big Data y… la producción de conocimiento
Calidad, representatividad, validez, apropiación del conocimiento
Big Data es, ante todo, un gran acontecimiento epistémico, una nueva forma de producir conocimiento. Los fines, medios de producción y validación del conocimiento adquieren características propias que exigen una evaluación, sobre todo si orientan decisiones sobre la salud de individuos y poblaciones. Las discusiones sobre calidad y representatividad, validez y apropiación del conocimiento así producido aquí serán tratadas en conjunto, con el fin de caracterizar de manera más orgánica el fenómeno Big Data en sus disposiciones epistémicas innovadoras y sus consecuentes repercusiones éticas.
Un aspecto importante a tener en cuenta se refiere a la calidad de los datos utilizados y los algoritmos que realizan los análisis. La calidad e integridad de los datos tienen una gran influencia en los resultados. Los datos de fuentes oscuras, recopilados de forma desorganizada o mal estructurada, o de fuentes falsas, generan resultados poco fiables. La tendencia creciente de utilizar Big Data para la toma de decisiones ignora que la calidad de la recolección de datos puede variar mucho, lo que involucra asuntos éticos evidentes (Mittelstadt, Floridi, 2016).
Además, la falta de representatividad, que atañe a la capacidad de la muestra para representar el universo que se pretende conocer, también es un desafío en el uso de los datos. Aun cuando cuentan con procesos que garantizan la calidad de la recolección hasta el análisis, las bases de datos pueden presentar severas limitaciones en cuanto a su representatividad. Los sesgos de selección pueden excluir a grupos vulnerables, que ya no se incluyen en las bases de datos por falta de acceso a tecnologías de la información o atención médica, por ejemplo. De esta manera, formas peculiares de comportamiento, patrones séricos y enfermedades pueden no estar adecuadamente representados en su distribución en el universo poblacional. Si no hay preocupación por el sesgo a lo largo del proceso de recopilación y uso de datos, la falta de representación de ciertos grupos o porciones de la población puede, además de comprometer las posibles inferencias y predicciones basadas en los datos, contribuir a la discriminación o falta de atención/cuidado de ciertos grupos no representados.
La falta de representatividad también puede actuar como retroalimentación de las distorsiones sociales existentes, y contribuir así a la aceleración de la brecha digital que representó el punto de partida (Mittelstadt, Floridi, 2016). La falta de representación, la exclusión y los mecanismos de concentración del poder están intrínsecamente relacionados.
Teniendo en cuenta todos estos aspectos relacionados con la calidad y representatividad de los datos, es evidente que, si no se realiza con todo el rigor necesario, la investigación clínica y científica puede perder su validez. Si el uso de tecnologías de aprendizaje automático en la investigación clínica hace opacos sus caminos metodológicos a criterios científicos de reproducibilidad, el conocimiento producido tiene problemas de validación (Manrique de Lara, Peláez-Ballestas, 2020).
La validez se convierte en un tema de importancia ética, ya que las decisiones se toman con base en el conocimiento así producido. El objetivo mismo de cualquier inversión en Big Data es precisamente la capacidad de identificar asociaciones estadísticas previamente desconocidas entre fenómenos. Al hacerlo sin la debida atención a los criterios de validez, calidad y representatividad, se corre el riesgo de derivar relaciones causales injustificadas de fenómenos meramente correlacionados, por lo que la calidad del análisis se vuelve insatisfactoria. En otras palabras, dos fenómenos asociados, que incluso pueden tener una causa común aún desconocida, pueden imaginarse como derivados el uno del otro. Dado que muchos de los algoritmos de aprendizaje automático pueden hacer que sea imposible auditar todo el camino seguido para identificar las relaciones entre los fenómenos, es posible que se den por sentadas conclusiones erróneas y sesgadas. Esto podría ocurrir incluso si es difícil para el público e incluso para los expertos demostrar problemas con la validez del conocimiento producido (Überall, Werner-Felmayer, 2019).
Aun así, para evaluar y utilizar las tecnologías, siempre en expansión, la apropiación del conocimiento también aparece como una preocupación. La capacitación adecuada para la interpretación de la información a veces es rara o incluso inexistente y esto debe discutirse en caso de emergencia (Bassan, Harel, 2018). En este sentido, debe revelarse la dimensión educativa de este fenómeno.
Precisamente, este tema relacionado con la producción y apropiación del conocimiento es abordado en un informe del International Bioethics Committee de la Unesco (IBC, 2017) titulado Informe IBC sobre Big Data y Salud, que es el resultado de dos años de discusiones de bioeticistas de todo el mundo convocados por esta organización. El documento aborda la importancia ética de estos nuevos caminos epistémicos que representan el conocimiento obtenido de Big Data. El comité destacó que, dado que los métodos de Big Data pueden ser poderosos generadores de hipótesis para la investigación, también esta fase debe observar los más altos estándares éticos, con preocupación por la protección de datos y la excelencia en su uso. En este sentido, ya existen algunas pautas de buenas prácticas en la investigación de Big Data, que incluyen, por ejemplo, la creación de comités con representación de pacientes para la gobernanza de los biobancos y su participación en los procesos de seguimiento de la información sobre investigaciones con dichos datos (Unesco/IBC, 2017).
Si bien, por un lado, señala posibles críticas en cuanto a la calidad del conocimiento producido, el informe advierte que posiciones regulatorias que reducen la circulación de datos pueden presentarse como un obstáculo para la investigación y la producción de conocimiento. A pesar de mencionar, en ocasiones, la importancia de la propiedad de los datos personales y los derechos que de ella se derivan, el IBC afirma que estos conceptos tradicionales pueden haberse vuelto inadecuados. Es necesario, según el documento, desarrollar un nuevo marco normativo con nuevos conceptos, a fin de equilibrar los intereses involucrados y no obstaculizar la producción de conocimiento (Unesco/IBC, 2017).
Así, reconociendo los desafíos conceptuales y prácticos que implican medidas para la necesaria protección de datos, el IBC apunta la necesidad de medidas que, al mismo tiempo, garanticen seguridad, autonomía y privacidad y posibiliten compartir datos para el bien común (Unesco/IBC, 2017).
Otro aspecto que destaca el Informe del IBC sobre el tema es la educación de la población, fundamental para los resultados sociales deseables, para el ejercicio de la autonomía en la participación en la producción del conocimiento y, en consecuencia, para que los resultados reflejen adecuadamente el objeto analizado (Unesco/IBC, 2017). Este capítulo aborda el tema de la autonomía con más detalle a continuación.
La selección del cuerpo de análisis tuvo como criterio la relación entre Big Data y salud. Quizás por eso la muestra no detectó una discusión creciente en la bibliografía, especialmente en las ciencias de la información, respecto a la integridad científica y el uso de Big Data para la producción de artículos y textos científicos. Algoritmos y aplicaciones, que inicialmente se usaban en la academia para funciones más simples, como la prueba de plagio, actualmente, debido al aprendizaje automático, ya se han utilizado incluso para la producción de texto. Labbé & Labbé (2013) mostraron cómo se han utilizado para la publicación aplicaciones que componen textos a partir de palabras extraídas de artículos científicos. Cabanac, Labbé, Magazinov (2021) propusieron más recientemente rastrear expresiones lingüísticas inapropiadas, resultado de traducciones y paráfrasis fallidas realizadas con la ayuda de inteligencia artificial (IA), como indicadores de artículos no originales.
El uso de la IA para componer textos que luego se presentan como originales a revistas científicas es un aspecto epistémico importante, con ramificaciones éticas evidentes, pero que no emergió en los artículos analizados. El tema ha sido cada vez más debatido en las áreas de integridad científica, entendida como un conjunto de valores y conducta responsable de los investigadores que salvaguardan la producción de conocimiento, su reproducibilidad, condiciones para la colaboración científica, etc.
Incertidumbre e imprevisibilidad
Otros aspectos epistémicos de importante trascendencia ética son la incertidumbre y la imprevisibilidad intrínsecas a la producción de conocimiento a partir del uso de Big Data. Sin duda, junto con sus implicaciones para la autonomía, estas emergen como una de las cuestiones éticas más críticas relacionadas con la aplicación de este tipo de tecnologías en el campo de la salud.
La escala de conjugación y entrelazamiento de datos de diferentes fuentes, tamaños y aspectos hace que los procesos de análisis no puedan conocerse en su totalidad (Überall, Werner-Felmayer, 2019). No es solo una cuestión de no saber qué hacen los algoritmos. Como actualmente transitan, es prácticamente imposible identificar qué informaciones se obtienen y de qué manera se reutilizarán en algún momento en el futuro (Mittelstadt, Floridi, 2016). Por lo tanto, la gama futura de riesgos (así como los beneficios) de la investigación o el análisis también es impredecible.
En cierto modo, a pesar de los riesgos no medibles, la incertidumbre y la imprevisibilidad son intrínsecas e inseparables del conocimiento producido a partir de Big Data. Más que eso, son la razón de ser de todo el fenómeno, ya que lo que se busca es precisamente conocer patrones de comportamiento que no son predecibles ni identificables por otras tecnologías de análisis de datos.
Lo que queda claro es que un tipo de tecnología que tiene la incertidumbre como motor epistémico está relacionada con imponer severos límites a la autonomía de los sujetos. Una decisión autónoma sobre el uso de datos personales requeriría conocimientos y garantías sobre usos, riesgos y anonimato, lo que, en el contexto actual de ausencia de una normativa efectiva, es imposible (Cesare et al., 2018).
Opacidad
Muy relacionado con los aspectos anteriores, la opacidad aparece como uno de los temas derivados de las especificidades epistémicas de las tecnologías Big Data. El término hace referencia a la indisponibilidad e inaccesibilidad del proceso de generación de conocimiento a través del análisis de Big Data, lo que a su vez imposibilita verificar la veracidad y adecuación de sus resultados. La enorme cantidad de datos y operaciones involucrados en el análisis y el uso de algoritmos que se basan en el aprendizaje automático son algunos de los factores que promueven este efecto de opacidad. Como resultado, la información, las inferencias y las predicciones que guían cada vez más los procesos de toma de decisiones provienen de análisis que no son reproducibles ni auditables.
A pesar de contar con un programa inicial, el aprendizaje automático, como su propio nombre indica, utiliza recursos que permiten al algoritmo realizar operaciones para las que no fue diseñado. Por el contrario, al identificar patrones y comportamientos, la máquina los “aprende” y comienza a aplicarlos en sus análisis y operaciones. Así, aunque originalmente fueron desarrolladas por humanos, las máquinas evolucionan de forma autónoma, lo que imposibilita conocer y evaluar el camino para la obtención del conocimiento (Manrique de Lara, Peláez-Ballestas, 2020).
El aprendizaje automático se ha aplicado en las más diversas utilidades y contribuye a la realización de tareas complejas, como la traducción de textos, por ejemplo. El avance de estas funciones, sin embargo, empieza a acercar a la realidad las cuestiones ontológicas y éticas planteadas antes por la ciencia ficción. Recientemente, Blake Lemoine, desarrollador de Google, hizo pública su percepción de que LaMDa, un proyecto de IA que estaba desarrollando con la empresa, debería ser considerado una persona. El desarrollador argumentó que, a través del diálogo, la IA se ha mostrado sensible y manifestó interés en que no se apague, lo que, según él, debe respetarse. A pesar de la impresionante habilidad adquirida para dialogar e incluso para inventar una fábula en la que LaMDA se retrata como un búho sabio que protege a los animales imponiéndose sobre un monstruo que los perturba (y cabe preguntarse aquí si somos los humanos carnales los monstruos de la historia), la empresa desestima los argumentos. A través de anuncios públicos, Google afirmó que la IA solo ha demostrado la capacidad de diálogo que fue programada para buscar a través de tecnologías de modelado lingüístico computacional (Tiku, 2022).
Incluso si la sensibilidad en las máquinas aún no es real, o nunca lo será, la percepción muy concreta de que uno tiene un diálogo con una persona tiene implicaciones éticas reales. Las inteligencias artificiales pueden reproducir sesgos, contribuir a la manipulación, inducir discursos de odio, desinformación y exacerbar conflictos (Tiku, 2022). En el ámbito de la salud, la desinformación y el riesgo de confundir una IA con la atención que ofrece un profesional de carne y hueso en telemedicina, por ejemplo, son aspectos para considerar.
En vista del funcionamiento de los algoritmos y el aprendizaje automático, el riesgo no es solo que nos equivoquemos y comencemos a actuar bajo la impresión de que estamos interactuando con una persona. Incluso cuando buscamos conscientemente analizar el funcionamiento de estos algoritmos, la cantidad de datos o la complejidad de las operaciones a menudo dificultan mucho el examen. En consecuencia, con el uso de Big Data, las tecnologías realizan sus funciones en una rutina similar a la obtención de resultados de una “caja opaca”. En informática, el término se refiere a sistemas cuyo funcionamiento interno es ignorado por su alta complejidad, importando en este tipo de escenario solo la entrada y el resultado obtenido al final. Evidentemente, la toma de decisiones basada en este tipo de información que no puede ser auditada tiene una importante implicación ética (Canales, Lee, Cannesson, 2020).
Toma de decisiones basada en datos y responsabilidad moral
Teniendo en cuenta los aspectos comentados anteriormente, se evidencia la necesidad de mirar la toma de decisiones en salud desde la bioética a partir de una nueva forma de obtención del conocimiento cuyos usos y aplicaciones son fundamentalmente impredecibles, y cuyos procesos de producción muchas veces son opacos a la verificación, inclusive para evaluar aspectos como validez, representatividad, etc.
Esto es aún más urgente si se tiene en cuenta que las tecnologías Big Data son predictivas y, cuando se alimentan de grandes cantidades de datos, pueden ser muy precisas. Es por ello que las tecnologías Big Data se utilizan cada vez más como auxiliares o incluso soberanas en los procesos de toma de decisiones. Sin embargo, desde un punto de vista moral, la autonomía de los algoritmos y la inteligencia artificial presenta un desafío adicional. ¿Cómo lidiar con la responsabilidad moral de una decisión tomada por un algoritmo?
Esta pregunta es aún más importante cuando se trata de la estandarización de los procedimientos en la atención de la salud porque, aunque considerando la capacidad sin precedentes para analizar datos, las inteligencias artificiales tienen una capacidad de contextualización limitada y no entienden la inexistencia de absolutos morales. Estas limitaciones y la dificultad para contabilizar los resultados negativos son algunas de las limitaciones en la toma de decisiones que tienen las máquinas (Ienca, Ignatiadis, 2020).
Además de la dificultad para identificar al responsable de los errores, la auditabilidad del proceso de toma de decisiones también es un factor central para considerar. Este es un aspecto aún importante en la reflexión sobre la regulación ética en la investigación. Esto se debe a que, mientras que las investigaciones realizadas con seres humanos se someten a un escrutinio ético, las conclusiones extraídas de investigaciones con datos secundarios normalmente no se someten a este tipo de revisión (Wang et al., 2020).
4.4. Es necesario reflexionar sobre el Big Data y… la colectividad
Conflicto entre intereses individuales y colectivos
Cuando se trata de los efectos colectivos de estas nuevas tecnologías, la bibliografía analizada señala que una de las primeras dificultades se refiere al equilibrio entre los beneficios colectivos de compartir datos y los daños y riesgos que pueden afectar al individuo (Bassan, Harel, 2018). Esto es especialmente importante con la información de salud.
El avance del conocimiento en Big Data depende de la disponibilidad masiva de datos. Si, por un lado, el uso masivo de datos médicos, por ejemplo, puede revelar relaciones y patrones séricos desconocidos, lo que conduce al descubrimiento de nuevos tratamientos con beneficios colectivos prometedores, por otro, los individuos están expuestos a riesgos relacionados con las violaciones de confidencialidad y privacidad y consecuente exposición a estigma y prejuicios. Las personas vulnerables están aún más expuestas y exigen más protección.
A menudo, en la bibliografía, así como en el Informe IBC mencionado anteriormente (Unesco/IBC, 2017), es predominante la comprensión de que la protección de la privacidad, tal como la conocemos hasta ahora, se ha vuelto obsoleta frente a los beneficios potenciales. En definitiva, se argumenta que la defensa de la privacidad es paradójica, porque lesiona el interés del individuo por cuidar su salud (Montgomery, 2017).
El argumento cobra mucha fuerza en el campo de la salud porque las prácticas de salud son históricamente guiadas por estadísticas. Siguiendo el argumento de que cuantos más datos, mayor el éxito terapéutico (lo que no siempre es cierto), los datos comienzan a aparecer en varios argumentos ya no como datos de individuos, sino como datos sobre individuos. Desde esta perspectiva, Montgomery (2017) argumenta que los datos no deben ser vistos como una propiedad o garantía individual, sino como un bien común.
Esta interpretación es problemática. Primero, porque en contextos periféricos, por ejemplo, es fácil imaginar que la cantidad de datos es suficiente y que lo que falta son recursos materiales (Neff, 2013).
Otro aspecto a observar es que la persona que proporciona los datos no siempre es quien se beneficia de ellos. Los mayores beneficiarios son las grandes empresas, incluidas las aseguradoras de salud y las farmacéuticas, que se benefician de la información. En este caso, dado que el objetivo de una empresa es ser rentable, y no generar bienestar social, no es adecuado esperar que las empresas se guíen por el interés de proteger a las personas. De ahí la importancia de la regulación. De esta forma, la toma de decisiones con base en estos datos puede acabar reflejando intereses distintos al interés público. En consecuencia, enmarcar la discusión en clave de oposición entre intereses individuales y colectivos, que apela a los individuos a renunciar a su privacidad, en realidad sirve a los intereses de los llamados guardianes de datos. Estos que curiosamente obtienen ganancias en la comercialización de los datos que supuestamente guardan.
De hecho, la privacidad tiene importantes funciones sociales que van desde la formación de vínculos comunitarios hasta el ejercicio de la democracia (Cohen, 2013; Pyrrho, Cambraia, Vasconcelos, 2022), por lo que este aparente conflicto entre el bien individual y colectivo no describe el equilibrio de los beneficios y perjuicios de la pérdida de privacidad. Estos aspectos serán retomados en el tema de la mercantilización de la privacidad, más adelante.
Cooperación
Aun sobre la relación entre la comunidad y el uso de las nuevas tecnologías, surge la cuestión/dimensión ética de la cooperación en el acceso a los datos. Considerando el valor estratégico de la información, existen tendencias de monopolización del acceso a los datos tanto por parte de los gobiernos como de las entidades privadas. En ciertos casos, incluso por razones de seguridad, por un lado, es bueno que las bases de datos de información personal estén aisladas y no compartan información. Sin embargo, teniendo en cuenta el argumento de que el beneficio solo se vuelve colectivo en la medida en que se comparte información (debidamente consentida y con las medidas de seguridad necesarias), la monopolización del acceso es perjudicial. En este sentido, la comunidad se beneficiaría de la cooperación entre los más diferentes repositorios, y se considera que lo compartido, es decir, los datos, pueden/deben ser considerados un bien común (Lawler, Maughan, 2017).
Evidentemente, la perspectiva de que los datos personales, especialmente los biológicos y genéticos, no pertenecen a los individuos de los que provienen y que no deben ser protegidos por repositorios, sino ampliamente compartidos, plantea importantes desafíos a la privacidad de los individuos y expone a los grupos poblacionales enteros a riesgo de estigma. Estos problemas se tratarán más específicamente a continuación.
Percepción pública
Otro aspecto de trascendencia ética abordado en la bibliografía es la necesidad de cuidar la percepción pública de las tecnologías Big Data. La preocupación que se expresa a menudo es que el daño a esta imagen puede hacer que las personas no estén dispuestas a las nuevas tecnologías, lo que crea resistencia a la disponibilidad de datos personales (Goodman, 2020).
Varios factores podrían erosionar esta imagen, como el temor público a que los datos personales sean explotados económicamente o que su uso pueda exponer a las personas a discriminación o perjudicar el acceso a bienes y derechos (Manrique de Lara, Peláez-Ballestas, 2020). En el ámbito sanitario, es recurrente la discusión sobre el uso abusivo de los datos por parte de las aseguradoras con el fin de restringir el acceso a la atención médica a quienes más lo necesitan (Manrique de Lara, Peláez-Ballestas, 2020).
En términos generales, el argumento se puede resumir como una preocupación por el público para que no se oponga al intercambio de datos, lo que a su vez podría ser un revés para la ciencia en su conjunto. Mantener la confianza pública es importante, porque están en juego aspectos directamente relacionados con la calidad, validez y representatividad del conocimiento obtenido a partir del análisis de Big Data.
Es curioso, sin embargo, que el abordaje del aspecto ético de la percepción pública parezca más interesado en evitar la no adherencia a la tecnología, que en la participación y debate colectivo sobre ella.
Este tipo de crítica, que identifica que los enfoques de percepción pública están más preocupados por promover la aceptación que por el debate genuino, es recurrente en muchos esfuerzos institucionalizados de reflexión ética sobre las nuevas tecnologías. De hecho, este fue el escenario de los primeros programas de estudio ELSI (Ethical, Legal and Social Implications Program) relacionados con el proyecto Genoma Humano. Como anexo al proyecto de investigación científica, los estudios ELSI fueron financiados con las mismas fuentes y fueron concebidos como un intento de evitar el rechazo social observado anteriormente con los organismos genéticamente modificados. Por lo tanto, actuaron más como relaciones públicas de las nuevas tecnologías que como una búsqueda de formas efectivas de evitar las consecuencias sociales negativas de esas tecnologías. Programas similares apenas presentan independencia y eficacia en la orientación de las políticas, funcionando como nada más que un esfuerzo intelectual para promover la aceptación pública y la adhesión a las nuevas tecnologías y no como una preocupación ética socialmente comprometida (Fisher, 2005).
También es de destacar que esta crítica puede extenderse a los artículos que tratan sobre la percepción pública de las tecnologías Big Data, ya que en la bibliografía analizada, como ilustran los ejemplos anteriores, las tecnologías se representan como una fuente de beneficio colectivo, mientras que el riesgo derivaría de los daños a la percepción pública de las tecnologías. Por el contrario, las discusiones deberían centrarse en estimular el debate y el pensamiento crítico para que la toma de decisiones, en los ámbitos público y privado, pueda estar mejor informada.
Injusticia y desigualdades
Uno de los puntos más importantes, si no el más importante, a evaluar en una nueva tecnología desde un punto de vista ético es cómo su introducción en contextos desiguales afecta la distribución de beneficios, es decir, si contribuye o no a incrementar las injusticias.
En el caso específico de Big Data, el desarrollo de tecnologías y la práctica del análisis implican muchos costos de adquisición y procesamiento de datos, además de inversión en mano de obra altamente especializada y alto costo de operación de computadoras capaces de procesar todos los análisis (Laviolle et al., 2019).
Así, la inversión requerida es un factor limitante y puede excluir a la gran mayoría de los interesados en investigar o trabajar con ella. En consecuencia, se observa un efecto concentrador en manos de algunas grandes corporaciones o gobiernos. La llamada brecha digital, término que describe la asimetría de las relaciones entre quienes recolectan, analizan y se benefician de los clústeres de datos y quienes son vistos como meras fuentes de datos, puede volverse cada vez más importante en este escenario (Andrejevic, 2014).
En pocas palabras, la brecha digital tiende a retroalimentarse debido a que, por la alta demanda de inversión, las poblaciones en desventaja financiera y social tienen cada vez más limitado el acceso a los beneficios que traen estas tecnologías, lo que a su vez invisibiliza en las muestras las especificidades de esta población y sus necesidades, y de ese modo genera un efecto acumulativo de exclusión. Es a través de este proceso que tiende a aumentar la brecha digital, es decir, la desigualdad entre quienes proporcionan datos y quienes pueden aprovecharlos (Manrique de Lara, Peláez-Ballestas, 2020).
El Informe IBC, en este sentido, advierte que, a pesar de los usos prometedores para combatir la pobreza, el acceso a la tecnología aún presenta mucha disparidad, tanto entre diferentes estratos sociales como entre países periféricos y centrales. Existe una gran demanda de infraestructura y recursos humanos para hacer las herramientas y los proveedores necesarios para que estas tecnologías funcionen. Adicionalmente, existe una gran disparidad entre las habilidades tecnológicas, la alfabetización digital y la existencia de contenidos locales relevantes entre países centrales y periféricos (Unesco/IBC, 2017), lo que exige esfuerzos educativos y de producción y apropiación de conocimientos como medida para mitigar las injusticias.
Como resultado de esta diferencia de contexto, el flujo de información se produce desde los países periféricos hacia los países centrales y tecnológicamente desarrollados, lo que ocurre sin garantías de retorno de beneficios. Debido a estas dinámicas, la brecha digital constituye uno de los mayores desafíos para la democratización de la información y sus beneficios, e interfiere en los términos en que se desarrollan las relaciones internacionales y en la soberanía de los países periféricos (Unesco/IBC, 2017).
Es significativo que, en este punto, el informe identifique la posibilidad de que aumente la injusticia, pero no señale los mecanismos con los que las propias tecnologías pueden actuar como factores adicionales en la concentración de poder e ingresos. Una de las dinámicas de concentración de capital más importantes relacionadas con el uso masivo de datos, la mercantilización de la privacidad, será abordada más adelante en un tema específico.
Prejuicio, estigma e injusticia
Además de los problemas relacionados con las crecientes disparidades, los prejuicios y el estigma son otros factores que promueven la injusticia que puede resultar del uso de datos.
En el ámbito de la salud, la práctica de anonimizar datos suele verse como un tratamiento de información sanitaria para evitar la estigmatización. Esta solución, sin embargo, no parece ser suficiente cuando se trata de tecnologías Big Data. En primer lugar, porque los individuos pueden ser clasificados y estigmatizados según los perfiles en los que se caracterizan, independientemente de que sus datos personales hayan sido efectivamente objeto de tratamiento (Mittelstadt, Floridi, 2016). Más grave, existe una tendencia creciente de ataques de desanonimización, posibilitados por la agregación y cruzamiento entre varias bases de datos. Este fenómeno se debe a razones estadísticas, cuanto mayor es la agregación de datos más facilitada es la reidentificación de usuarios, que puede ocurrir a partir de datos más individualizables como los de movimiento y geolocalización, pero también a partir de preferencias en servicios de streaming o de reconocimiento en redes sociales. No solo los sujetos pueden ser identificados por las nuevas técnicas, sino que estas permiten inferencias sensibles como el posicionamiento político, la orientación sexual, entre otras, que incluso pueden presentar riesgos dependiendo de los contextos socioculturales de los sujetos (Li et al., 2020; Ji et al.; 2014; Abawajy et al., 2016).
Desde el punto de vista de los datos de salud, una de las preocupaciones expresadas con mayor frecuencia es la posible difusión de prácticas discriminatorias por parte de aseguradoras, agentes de crédito y en el entorno laboral (Manrique de Lara, Peláez-Ballestas, 2020).
El funcionamiento de los algoritmos también tiene un potencial discriminatorio y estigmatizador, ya que pueden contener sesgos recibidos de quienes los desarrollaron o no contar con las medidas adecuadas para evitar perjuicios a los análisis. Por ejemplo, los sesgos algorítmicos o de selección en la recopilación de datos presentan una alta posibilidad de causar daños discriminatorios, y así reforzar y amplificar injusticias que ya existen en la sociedad (Goodman, 2020).
Además, ante este tipo de sesgos, la propia situación de vulnerabilidad puede reducir la capacidad de los sujetos para reconocer los mecanismos técnicos de recolección de datos y para protegerse de sus efectos negativos (Mittelstadt, Floridi, 2016).
El riesgo de estigmatización es crítico cuando se trata de salud y de consecuencias especialmente crueles en países donde el acceso a ella no está garantizado como un derecho universal. En estos contextos, incluso la contratación de planes de salud puede ser denegada o limitada por las aseguradoras por razones económicas. Específicamente, la preocupación es que las condiciones preexistentes, las tendencias genéticas y las prácticas consideradas riesgosas (que pueden deducirse de los patrones de búsqueda en Internet, consumo o incluso de la recopilación de datos de los miembros de la familia) pueden ser utilizadas por las aseguradoras como justificación para la exclusión de individuos. Tales prácticas, encaminadas a aumentar la rentabilidad de los operadores, pueden, ante el fenómeno Big Data, verse intensificadas por métodos de investigación cada vez más invasivos, utilizando información personal filtrada o incluso recurriendo al proceso de clasificación de los individuos en perfiles de riesgo. Así, como señala el propio IBC, la discriminación y el recrudecimiento de la injusticia contra grupos que ya son vulnerables es una preocupación importante que requiere medidas de regulación y protección (Unesco/IBC, 2017).
4.5. Es necesario reflexionar sobre el Big Data y… el medio ambiente
La preocupación ética con los impactos ambientales no fue abordada en la bibliografía científica analizada. El tema, planteado exclusivamente por el IBC, fue trabajado desde la perspectiva de la sustentabilidad ambiental de la nueva tecnología. La ausencia de este problema en los artículos sobre las implicaciones éticas del uso de Big Data en salud también demuestra una visión compartimentada de los problemas y apunta a la necesidad de ampliar la agenda bioética y profundizar las discusiones sobre la relación inseparable entre la salud de la población y el medio ambiente.
Los resultados ambientales negativos pueden atribuirse brevemente a estos factores: consumo de energía, extracción de materias primas y emisión de contaminantes. El alto poder computacional asociado con el análisis de Big Data exige un alto consumo de energía, lo que impacta negativamente en el medio ambiente. Tampoco son despreciables los impactos que provoca la prospección de materiales para la construcción y mantenimiento de parques tecnológicos que necesitan ser renovados constantemente.
Los complejos necesarios para el procesamiento masivo de estructuras de datos se conocen como centros de datos y constan de tres subsistemas: el sistema de TI (que consta de servidores, equipos de red y dispositivos de almacenamiento), el sistema de energía y el sistema de refrigeración (Marwah et al., 2010). Las estructuras no solo consumen una cantidad significativa y progresiva de energía, sino que con el crecimiento de una economía basada en datos, han acelerado las tasas de emisión de contaminantes. En vista de esto, en un intento por minimizar los impactos ambientales, se han desarrollado tecnologías de ahorro de energía en computación de alto rendimiento, tecnologías de conservación de energía y la búsqueda de fuentes de energía renovable durante la construcción y operación de estructuras (Rong et al., 2016).
Desgraciadamente, mientras en otros subsistemas hay un importante esfuerzo por ganar en eficiencia energética, el sistema TI, responsable del componente de red, no ha recibido la misma atención, lo que, contrariamente a la tendencia, ha provocado un aumento del consumo en este sentido (Bilal, Khan, Zomaya, 2013).
La demanda de energía no es la única preocupación ambiental. El proceso de obtención y transformación de las materias primas, como metales de tierras raras para la producción de conductores y otros componentes esenciales para equipos electrónicos, tiene impactos ecológicos significativos (Madaka et al., 2022).
La ampliación de la agenda bioética implica reconocer las múltiples interrelaciones entre salud, medio ambiente y sociedad. De esta forma, es necesario considerar que si los impactos ambientales se ven incrementados por las prácticas de salud guiadas por Big Data, eso también causa enfermedad. Lo más grave es que todo esto ocurre de manera que afecta de forma desproporcionada a las poblaciones vulnerables, tanto en términos ambientales como de salud, lo que a su vez aumenta las vulnerabilidades.
Si bien el uso de recursos y materiales necesarios para el análisis de Big Data puede representar consecuencias ambientales negativas, el IBC destaca la posibilidad de resultados ecológicos positivos, ya que las investigaciones que hacen uso de clústeres de datos pueden ser un recurso para la búsqueda de conocimiento sobre la utilización más eficiente de los recursos naturales (Unesco/IBC, 2017).
4.6. Es necesario reflexionar sobre el Big Data y… regulación
Seguridad digital y mecanismos de protección
Quizás la salvedad más recurrente entre todas las relacionadas con el uso de datos personales, datos sensibles y de un gran número de individuos, es la necesidad de seguridad en el almacenamiento de todos estos datos (Überall, Werner-Felmayer, 2019).
No son raras las noticias de fugas de datos de millones de personas por parte de corporaciones de los más variados segmentos. A estas se suman los informes de individuos e incluso gobiernos enteros expuestos. Así, es evidente la magnitud del desafío y la responsabilidad de los administradores de bases de datos, especialmente de aquellos con información susceptible de generar discriminación y prejuicio en caso de problemas.
Esta seguridad, sin embargo, no es un procedimiento baladí. Como ya se discutió, las rutinas de anonimización no tienen en cuenta los ataques frecuentes y las consecuencias estadísticas y probabilísticas de la reidentificación debido a la gran cantidad de datos. Los riesgos de la anonimización se abordarán más específicamente en el tema de privacidad y confidencialidad.
Las numerosas posibilidades de análisis y resultados que se pueden obtener a partir de un mismo conjunto de datos, además de la capacidad prácticamente infinita de agregar y cruzar nuevas fuentes de datos, dificultan significativamente la regulación específica del uso de las tecnologías Big Data. Los enfoques regulatorios y los procedimientos éticos utilizados antes están actualmente desactualizados y no están preparados para lidiar con las realidades de Big Data (Lajaunie, Ho, 2018), a veces habiendo inconsistencias regulatorias entre los diferentes niveles de gobierno (Spector-Bagdady, Jagsi, 2018).
Si la libertad de las personas se ve amenazada cuando la recolección es realizada por entidades públicas, porque no siempre hay transparencia en cuanto a la finalidad, el uso de los datos y el posible destino de la información (Margetts, Dorobantu, 2019), en términos globales, en el sector privado la situación es aún más grave. La regulación de las actividades económicas es, en general, menor que la del gobierno. Así, las entidades con fines de lucro, sujetas a poca o ninguna acción regulatoria externa según el país, actúan como agentes autorreguladores (Car et al., 2019).
En ausencia de transparencia sobre qué datos se recopilan, por cuánto tiempo, a quién se venden y cuáles son sus usos, los mecanismos de protección son prácticamente inocuos y obsoletos. Actualmente es un desafío definir límites para este tipo de actividades e igualmente difícil proponer formas de garantizar que se cumplan (Car et al., 2019).
Para ejemplificar los desafíos regulatorios actuales, basta mencionar que la recolección de datos, incluidos los de salud, en las redes sociales es un problema de derecho internacional, ya que mientras las corporaciones actúan de manera digital y transnacional, los Estados están limitados por sus jurisdicciones (Rothstein, 2015).
En cuanto a los posibles mecanismos de protección, la idea de propiedad tiene un fuerte atractivo porque muchos individuos, grupos y pueblos expresan un fuerte sentimiento de que sus especímenes y datos biológicos les pertenecen. Desde esta perspectiva, la regulación se centraría en la relación entre quienes suministran, utilizan y (siendo el caso) se lucran, asegurando claridad y límites a la explotación económica. Sin embargo, aunque el concepto de propiedad es claramente aplicable a los bienes materiales, cuando es transportado al medio digital es más difícil identificar quién es el propietario de los datos si consideramos los reclamos de propiedad intelectual sobre los algoritmos de recolección, sobre las bases y sus análisis. Garantizar que se respete la propiedad es aún más difícil. Incluso definiendo que la propiedad pertenece a una determinada entidad o individuo, aún no está claro qué representa esto para la recolección y análisis de datos (Mittelstadt, Floridi, 2016).
El asunto es abordado por el IBC en el tema “de la propiedad a la custodia y distribución de beneficios” y refleja algunas de las oposiciones frecuentes en la bibliografía, sobre si regulamos la recolección o el uso de datos o, en otras palabras, si la solución es dada por un reconocimiento de la propiedad de los datos a los particulares o si se pretende regular la custodia por parte de las empresas. La posición defendida en el documento es que el concepto de propiedad de los datos, en términos de control, implicaría “el derecho de los interesados a impedir cualquier tipo de manipulación de datos…”, lo que ya no sería posible hoy (Unesco/IBC, 2017, p. 19). El argumento es que sería más adecuado el concepto de custodia, ya que implica “la responsabilidad por la seguridad y el bienestar de alguien o algo y representa valores éticos como el cuidado, la custodia, la protección y la confianza en la custodia o la guarda” (Unesco/IBC, 2017, p. 15).
El IBC refleja una posición cada vez más predominante en la comunidad científica, que enfatiza la importancia de compartir datos, ante la expectativa de que la expansión del conocimiento traerá efectos benéficos para toda la humanidad. Desde esta perspectiva, la propiedad personal de los datos no es una forma posible ni deseable de resolver los desafíos éticos y legales del uso de Big Data (Unesco/IBC, 2017).
Por el contrario, debe reflexionarse más con respecto a la resignación ante la pérdida de autonomía y privacidad y a centrarse únicamente en los beneficios esperados de las nuevas tecnologías. Es precisamente para guiar esta discusión que algunos de estos presupuestos serán retomados para un análisis más profundo en el tema de la mercantilización de la privacidad.
Autonomía
Como ya se mencionó en varias partes de este libro, el tema de la autonomía es central en las reflexiones sobre el uso masivo de datos aglomerados, lo que tiene una estrecha correlación con otros problemas éticos derivados de este reciente fenómeno tecnocientífico. Presente desde el inicio de las discusiones éticas sobre Big Data, el primer registro de preocupación por la autonomía y Big Data, en nuestra muestra, data de 2015 (Rothstein, 2015).
Además, el tema también fue identificado como un problema crítico en el Informe IBC de 2017. Este documento, además de cuestiones relacionadas con la autonomía y el consentimiento en la aplicación de las nuevas tecnologías de la información de Big Data en salud (primer desafío abordado), trata de medidas para la protección y gobernanza de las bases de datos (Unesco/IBC, 2017).
El ejercicio de la autonomía es una práctica compleja y relacional, y el respeto a la acción autónoma presupone como condiciones necesarias: competencia para comprender y evaluar la información relevante; acceso a la información; posibilidad de elegir entre diferentes opciones; consideración de la variación de los valores individuales en las decisiones; voluntarismo de las decisiones; ausencia de coerción; garantía de que las personas puedan elegir los objetivos y los medios de sus acciones; y la acción misma tiene que ser algo consciente (Jennings, 2009).
La autonomía de un individuo está relacionada con su capacidad de decisión y, tradicionalmente, especialmente en el contexto de investigación, el consentimiento se presenta como su principal forma de expresión y garantía. Sin embargo, tiene especificidades que deben observarse durante la reflexión ética sobre el uso de Big Data en salud (Unesco/IBC, 2017).
Los artículos analizados señalan claramente que es posible que los individuos ya no sean capaces de decidir y actuar para proteger sus propios intereses en el escenario creado por las tecnologías de Big Data en salud (Evans, 2017). Como se mencionó anteriormente, la práctica de la caracterización por perfiles contribuye especialmente a esta restricción de la autonomía. Esto se debe a que este tipo de clasificación de los individuos en realidad pretende predecir características y tendencias de comportamiento de los grupos, lo que termina afectando la autonomía y la privacidad de todos, incluidos los individuos que deciden y (con una posibilidad aún más remota) son efectivamente capaces de permanecer en “aislamiento total” de los mecanismos de captura de datos personales. La razón es que, incluso sin haber recopilado sus datos, los individuos pueden clasificarse en función de características demográficas comunes o similitudes genéticas con perfiles grupales ya identificados (Mittelstadt, Floridi, 2016). Por lo tanto, ni el aislamiento ni la recopilación de datos anonimizados protegen a las personas de la discriminación a nivel individual.
Muchos de los planteamientos, incluido el informe del IBC, acaban por concluir que ya existen limitaciones insalvables en la capacidad de decidir sobre el uso de los datos personales, lo que demuestra así una resignación ante esta erosión de la autonomía. Desde esta perspectiva, la solución más frecuente suele ser la de los consentimientos ampliados (que no son más que registros formales donde se establece la conciencia de la falta de libertad), asociados a una búsqueda de anonimización de los datos. Ambas medidas, sin embargo, se centran en garantías a los individuos, mientras que el uso de Big Data constituye un problema de dimensiones sociales que requiere soluciones adecuadas. Más que inocuas (Manrique de Lara, Peláez-Ballestas, 2020), las soluciones individualistas generan efectos negativos, porque terminan por desmovilizar y perjudicar el enfrentamiento de las cuestiones éticas en sus proporciones reales, inevitablemente sociales.
Consentimiento
El consentimiento es un ejercicio autónomo, una expresión de decisión libre e informada. En consecuencia, de manera correlacionada con lo anterior, el uso masivo e intersectado de datos de diversas y crecientes fuentes, en su carácter incierto, desafía la comprensión actual de lo que constituye el consentimiento informado (Mittelstadt, Floridi, 2016).
La imprevisibilidad, característica de la tecnología, se presenta como un factor de complicación frente a lo que entendemos como condiciones para la toma de decisiones. La posibilidad de futuras referencias cruzadas y adiciones a las fuentes de datos, junto con la incertidumbre sobre los usos futuros, plantean la cuestión de cuál sería la forma adecuada de consentimiento en este contexto. Como resultado de toda esta indeterminación, aunque se incluye como un escenario para el uso de tecnologías en el presente, el acuerdo expreso con el futuro intercambio de datos puede ser cuestionado en cuanto a su carácter de consentimiento verdaderamente libre e informado (Unesco/IBC, 2017).
Además, especialmente cuando se formaliza a través de términos de servicio y contratos para el uso de aplicaciones o servicios, el consentimiento es problemático. Con su lenguaje técnico y poco transparente, la vinculación de la aceptación de los términos al uso y la extensión prohibitiva del texto a la lectura, estos instrumentos constituyen en la práctica términos de adhesión, y terminan, en lugar de garantizando, restringiendo la elección real de los usuarios (Manrique de Lara, Peláez-Ballestas, 2020).
Además del poco margen para la discrepancia real, al ser obtenidos electrónicamente, los medios de consentimiento actuales no ofrecen formas de verificar quiénes y en qué condiciones están aquellos que consienten, si son los usuarios titulares aquellos que consienten, si son mayores de edad y si, en el momento en que aceptan, se encuentran en plena capacidad cognitiva y legal para hacerlo (Unesco/IBC, 2017).
Adicionalmente, aun cuando exista y provenga de sujetos capaces, gran parte del consentimiento obtenido por quienes lo aplican no es explícito ni comprensible, y puede pasar desapercibido en medio de los términos del servicio, lo que lo aleja de la condición de informado. En consecuencia, la obtención se lleva a cabo sin que la mayoría de la gente se dé cuenta, usurpando así la posibilidad de elegir qué, con quién y con qué propósito darlo (Beier, Schweda, Schicktanz, 2019; Bassan, Harel, 2018).
Se han propuesto varias aproximaciones al problema, aunque, al menos hasta el momento, ninguna de ellas parece ser completa o definitiva. Un ejemplo es el consentimiento amplio (broad consent), un instrumento diseñado para tener un alcance flexible, en el que el uso de los datos se describe de manera más completa, operando en un mayor nivel de abstracción. Por ejemplo, en lugar de que un paciente dé sus datos y consentimiento a distintas investigaciones sobre el cáncer varias veces seguidas, mediante un consentimiento amplio, consentiría, una sola vez, con que sus datos pudieran ser utilizados en investigaciones cuyo fin fuera el tratamiento del cáncer (Unesco/IBC, 2017).
Otro enfoque propuesto es el opt-out, es decir, una forma negativa de consentimiento en el que los datos de salud siempre se pueden utilizar para la investigación a menos que una persona exprese su deseo de no participar (Unesco/IBC, 2017).
Sin contar con mecanismos de regulación y control para obtener, cruzar y utilizar datos secundarios, las propuestas resultan inocuas, pues no garantizan que la información haya sido obtenida éticamente en su origen.
Privacidad y confidencialidad
La razón por la que la violación de la confidencialidad y la privacidad es tan significativa desde el punto de vista ético es porque atenta contra la intimidad, la identidad y la autonomía de las personas. Privacidad es un término que designa el respeto a una vida privada o intimidad que los individuos quieren mantener reservados para sí mismos o, al menos, para miembros específicos de sus familias o relaciones.
El concepto está fuertemente relacionado con la libertad y sus manifestaciones, como la libertad de expresión, asociación, movimiento, creencias, pensamientos y sentimientos, comportamiento e intimidad. La confidencialidad, por su parte, designa el compromiso de guardar la información compartida, un vínculo de confianza y una obligación que asume una persona o institución cuando es receptora de esa compartición (Francis, 2008).
El tema sigue siendo crucial porque estas violaciones de la confidencialidad implican riesgos adicionales para la salud y la integridad de las personas, especialmente de aquellas que se encuentran en situación de vulnerabilidad y riesgo de estigmatización. Por lo tanto, las razones para respetar la privacidad de un individuo son muchas y siempre se deben reducir y mitigar los posibles riesgos de que los datos personales caigan en manos equivocadas (Dove, Özdemir, 2015).
Quizás el riesgo mencionado con más frecuencia por varios autores es el de la reidentificación después de la recolección de datos. En un principio, reflejando prácticas anteriores y análogas de uso de datos sensibles, era común que solo se emplearan técnicas de anonimización y que estas fueran suficientes. Sin embargo, el riesgo de reidentificación, como ya se ha mencionado, es cada vez mayor y sus consecuencias afectan de diferentes maneras a las personas y colectivos vulnerables (Manrique de Lara, Peláez-Ballestas, 2020).
Si bien las discusiones científicas tienden a resaltar los prometedores beneficios colectivos del uso de Big Data, destacando la capacidad de ayudar con nuevos conocimientos en la resolución de problemas en todas las áreas de la actividad humana (Unesco/IBC, 2017; Lawler, Maughan, 2017; Hallowell, Parker, Nellåker, 2019), es muy importante reconocer y debatir el hecho de que estas tecnologías representan riesgos para diferentes dimensiones de nuestras vidas.
Como ya se mencionó, un artículo publicado en la revista Nature Communications explicó la ineficacia de las prácticas actualmente utilizadas para la anonimización de datos. Los resultados mostraron que en cualquier conjunto de datos, usar solo quince atributos demográficos es suficiente para volver a identificar a cualquier persona en los EE. UU., lo que demuestra que los estándares actuales de la práctica de anonimización son insuficientes (Rocher, Hendrickx, de Montjoye, 2019).
Los datos son objeto de ataques, pero también de comercialización por parte de los llamados intermediarios de datos o revendedores de información, y pueden ser adquiridos y utilizados para anuncios dirigidos, pero también para rastrear personas y sus hábitos por las más diversas razones (Crain, 2018). Es fácil imaginar que revelar la dirección de un testigo protegido, por ejemplo, o incluso la orientación sexual o religiosa puede, en ciertos contextos, poner en riesgo la vida de las personas.
Muchas de las técnicas utilizadas a lo largo del tiempo para proteger los datos no se aplican al uso de Big Data, ya que esto muchas veces implica cambio y apertura de propósito, falta de límites para los datos, procesamiento no transparente, poca protección de datos para obtener el mayor conocimiento posible y falta de transparencia para las personas involucradas como características fundamentales (Unesco/IBC, 2017). Sin embargo, incluso frente a las dificultades, se debe tener en cuenta la necesidad de proteger a las personas. En este caso, la resignación frente a los riesgos y dificultades que privilegia y exalta solo los beneficios esperados no constituye una postura ética adecuada, sino una especie de optimismo intrascendente, que pone en riesgo a todo el mundo.
4.7. Es necesario reflexionar sobre el Big Data y… el uso de tecnologías predictivas
Las tecnologías de Big Data sirven principalmente para predecir y determinar el comportamiento. Dado que este es su principal objetivo, es éticamente importante, como ya se mencionó, conocer la calidad de los datos para conocer la veracidad de sus conclusiones. Sin embargo, quizás lo más importante es cómo se utilizan las tecnologías para inducir elecciones y comportamientos en la población. Este aspecto es crucial porque, independientemente del punto de partida, los datos y los algoritmos producen efectos reales, refuerzan las visiones del mundo, intensifican las tendencias de comportamiento y, en última instancia y de manera espectacular, alteran nuestra comprensión de nosotros mismos como humanos.
Condición humana
Cuando se trata del comportamiento humano afectado y moldeado por estas nuevas tecnologías, uno de los desafíos informados por algunos autores es que la discusión presente en la bibliografía científica aún no ha abordado suficientemente cómo esta transformación digital afecta nuestra percepción de la condición humana (Überall, Werner-Felmayer, 2019).
El uso masivo de datos y nuevas tecnologías de análisis, junto con otras experiencias de socialización en línea, brindan nuevas formas de interactuar y existir en una dimensión digital. Tal experiencia, o al menos las nuevas narrativas sobre ella, ya informan nuestra comprensión de la memoria, de la sociabilidad, del funcionamiento de la mente. Tales eventos se dan en retroalimentación. Ejemplos importantes de este tipo de diálogo continuo que reestructura el conocimiento son la concepción de la memoria que se produce a partir de la interacción entre la informática y la neurociencia cognitiva (Oliveira, 2007).
Frente a esta preocupación de que las nuevas tecnologías Big Data ya nos están transformando como seres humanos y que, a pesar de la importancia de esta mutación, aún faltan discusiones, se cuestiona si realmente debemos basarnos en estas interpretaciones, y en la capacidad descriptiva que tienen estos análisis para tratar el comportamiento de las personas. Se argumenta que los procesos de toma de decisiones guiados por Big Data pueden no tener acceso a la variedad y profundidad de las dimensiones de la realidad humana (Peirce et al., 2020). Según esta perspectiva, cualquier resultado, por completo que sea, es solo una parte de lo que intenta describir, un corte que no representa el todo. Las extrapolaciones, por lo tanto, pueden tener consecuencias desastrosas (Cesare et al., 2018).
En definitiva, es posible, por un lado, que las transformaciones se estén produciendo demasiado rápido y sin pensar. Por otro, que puede que estemos reestructurando nuestra forma de decidir, basándonos en información que solo es parcialmente cierta.
Modulación del comportamiento
La modulación del comportamiento está caracterizada como el uso de datos con la intención de inducir y moldear el comportamiento de los individuos de quienes se obtuvo la información.
No basta con conocer patrones de consumo y preferencias, es necesario realizar consumos, aumentar el engagement, mantener la atención, aumentar el tiempo de interacción. Por lo tanto, los algoritmos se utilizan para reforzar las visiones de mundo, los patrones de relación y el comportamiento (Dhar, 2017). Peor aún, comúnmente se genera una vía de información, es decir, el proceso de vigilancia no se limita a recopilar la información disponible, sino que crea nuevas ventanas, las llamadas cookies de seguimiento, que recopilan más datos, y así generan una retroalimentación continua del poder de manipulación de los individuos.
Más concretamente de lo que a uno le gustaría creer, el nexo entre la modulación del comportamiento y la concentración del poder político y económico alcanza escalas planetarias y amenaza los regímenes democráticos (Arga, 2020). Filtraciones recientes muestran cómo los algoritmos y los datos masivos contribuyeron al Brexit y a la elección de líderes autoritarios. Aún más significativo, durante la pandemia vimos la difusión selectiva de noticias que, circulando en burbujas digitales, reforzaron el negacionismo, la falta de adherencia a medidas profilácticas como el distanciamiento social y la vacunación. La discusión sobre Big Data y la modulación del comportamiento en el campo de la bioética es indispensable y exige con urgencia más investigación, porque la manipulación de la información y el comportamiento social constituyen nuevas causas de enfermedad y muerte en la sociedad digital (Pyrrho, Cambraia, Vasconcelos, 2022).
Mercantilización de la privacidad
Quizá la principal novedad desde un punto de vista ético en relación con el uso del Big Data, y que de algún modo saca a relucir todos los puntos señalados anteriormente, es la comercialización de agregados de datos y tecnologías predictivas, lo que se ha denominado mercantilización de la privacidad (Zuboff, 2019b).
El fenómeno se caracteriza por la creciente comercialización de datos obtenidos por entidades privadas. En estos casos, hay una desviación del propósito, un abuso de confianza y, a menudo, una violación del consentimiento de la persona que proporcionó los datos sin ser plenamente consciente de que se utilizarían para otros fines (Mittelstadt, Floridi, 2016; Dove, Ozdemir, 2015).
En el ámbito de la salud, esto es especialmente sensible, ya que el uso de datos anonimizados obtenidos de historias clínicas y otros registros no es suficiente para evitar este problema. Los datos de salud privados compartidos en nombre de una relación de confianza con profesionales de la salud ahora se comercializan. La práctica genera valor económico sin consentimiento y corrompe la motivación colectiva de las prácticas de salud pública (Manrique de Lara, Peláez-Ballestas, 2020).
La mercantilización de la privacidad y la modulación del comportamiento, aspectos con profundas implicaciones para el tema de la justicia, no están incluidos en el Informe IBC. De esta forma, si bien el documento expresa continuamente la preocupación por la injusticia, la discriminación, la dificultad de apropiación del conocimiento en contextos periféricos, la necesidad de compartir los beneficios, el mecanismo que perpetra la injusticia en estas tecnologías ha estado lejos del análisis del informe.
Es posible sugerir al menos dos razones por las cuales el documento elaborado por los expertos en bioética no menciona tales aspectos. La primera es que esta posición puede haber sido el resultado de una negociación necesaria en contextos multirrepresentativos, como de hecho lo es el comité. Otra explicación puede ser la propia temporalidad de la discusión. La autora más reconocida en el tema de la mercantilización de la privacidad, Zuboff (2019b), gana notoriedad con la publicación de su libro The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power en 2019, tras el informe del IBC.
La discusión iniciada por la autora estadounidense tuvo una acogida muy significativa y representa una dura crítica a la nueva cara del capitalismo neoliberal caracterizada precisamente por el proceso de mercantilización de la privacidad. Más adelante, la presente discusión intentará esbozar algunos ejes a partir de los cuales futuras lecturas puedan profundizar en las formas en que este nuevo contexto puede afectar los modos de vida en los países y contextos periféricos. La comprensión sobre el tema parece bastante significativa, ya que las tecnologías Big Data, en continua expansión, tendrán cada vez más relevancia en el campo de la salud, con implicaciones bioéticas cada vez más importantes.
4.8. ¡Es necesario reflexionar de forma socialmente comprometida!
El punto de vista defendido hasta ahora es que todos estos conflictos suscitados por el uso masivo de datos personales acaban provocando una erosión de los derechos a la intimidad y la libertad. Este es un tema a ser reflexionado por la bioética, por los resultados del fenómeno para la salud y la vida de las personas. Lo que queremos resaltar, sin embargo, es que la defensa del derecho a la privacidad como hilo conductor de esta discusión no contrapone intereses individuales y colectivos, sino que por el contrario necesita estar guiada por la importancia social de estas prerrogativas de los individuos. Más aún, las reflexiones bioéticas, especialmente aquellas basadas en la preocupación por la injusticia de los contextos periféricos donde se producen, deben estar guiadas por la búsqueda y el desvelamiento de los mecanismos que concentran el poder y perpetúan la discriminación y la vulnerabilidad.
Esto se debe a que es suficientemente claro que existe un mayor riesgo de que la periferia del sistema, ya sean partes periféricas de los países centrales o todo el sur geopolítico, solo sirvan como granjas de datos (Carr, Llanos, 2021), es decir, solo como una fuente, un lugar donde los datos se recopilan como si fueran una materia prima. En este modelo que mercantiliza los datos, mientras que la mercancía se extrae de la periferia, la agregación de valor a través del análisis y los beneficios generados por el proceso se concentran en las regiones centrales. Los efectos de perpetuar las injusticias son evidentes.
Precisamente por eso es necesario defender un enfoque de la privacidad que tenga un fuerte componente social. Es en esta dimensión colectiva que se asienta claramente la bioética latinoamericana, especialmente en aquellas áreas cuyo foco de atención ético y teórico es la vulnerabilidad social, como la bioética de intervención (Garrafa, Porto, 2003) y la bioética de protección (Schramm, 2008).
Específicamente, la bioética desarrollada en Brasil tiene una profunda deuda con el movimiento de redemocratización del país y el papel que jugó la reforma de la salud en este proceso, en el que se debatió la absoluta necesidad de universalizar el acceso a los derechos, en especial el acceso a la salud, como mecanismos promotores de ciudadanía, derivados directamente del reconocimiento de la dignidad de las personas. En ese escenario, quedó claro el papel del Estado en el reconocimiento y provisión de la salud como condición necesaria para la ciudadanía, pero también se evidenció que no era la inversión en nuevas y avanzadas tecnologías terapéuticas lo que revertiría la entonces crítica situación de la salud pública. Lo que se percibió fue una limitación de las terapias en la reducción de las tasas de morbilidad y mortalidad del país (Porto, Garrafa, 2011).
La reforma de salud en Brasil afirmó la importancia de atender la vulnerabilidad para el restablecimiento de la salud; sin embargo, no se trataba solo de esa vulnerabilidad biológica agravada por la enfermedad, sino principalmente de la vulnerabilidad social y económica que genera la enfermedad. Las condiciones de vida, el acceso al agua potable, el saneamiento, los hábitos y la vivienda eran importantes. El foco teórico y de inversión pasó a ser la prevención, la atención primaria (Porto, Garrafa, 2011).
Fruto de esa influencia, la bioética producida en Brasil piensa desde y sobre la salud pública. La bioética de protección enfoca su reflexión para comprender y combatir los procesos de vulnerabilidad (Schramm, 2008), la bioética de la intervención afirma su compromiso con los vulnerables y dedica su atención principalmente a situaciones persistentes en la bioética, producto de injusticias e inequidades en salud que ya no deberían existir (Garrafa, Porto, 2003).
Lo que pretendemos demostrar con la discusión del fenómeno Big Data en este libro es que el análisis bioético de las nuevas tecnologías, las denominadas situaciones emergentes según la clasificación propuesta por Garrafa (1996), también necesita ser socialmente comprometida y territorializada, como nos llaman a hacer bioética Feitosa y Nascimento (2015).
Es la comprensión de la importancia social de la privacidad que proporcionó lo que se considera el principal resultado de esta investigación, es decir, la identificación de una categoría/concepto que sirve como clave interpretativa y permite la comprensión del fenómeno Big Data. Es a partir de la lectura bioética de la categoría propuesta por Zuboff (2019b), la mercantilización de la privacidad, que se identifican como principales controversias éticas las relacionadas con la justicia y la acumulación de poder. Es solo a partir de esta conciencia de la dimensión social del fenómeno que se realiza la defensa de la privacidad, pero para sus funciones necesarias para los vínculos colectivos y las libertades democráticas. Es la misma mirada que denuncia los efectos nocivos de la mercantilización de la privacidad y los posibles riesgos para los organismos y países periféricos, de convertirse todos ellos en granjas de datos, cada vez más excluidos de poder ser beneficiarios de las nuevas tecnologías. Se trata de identificar los fines y mecanismos según los cuales el uso de datos aglomerados opera la perpetuación de la injusticia a través de un proceso de expropiación/acumulación de un poder/valor: esto pasa por la mercantilización de la privacidad y es un análisis bioético socialmente enraizado que nos ayuda a develar.
Privacidad y mercado
Un buen ejemplo del cambio de paradigma en la recolección y uso de datos personales con fines comerciales es el de las casas automatizadas. Zuboff (2019b) introduce el tema diciendo que en la década del 2000 un grupo de investigación colaboró para crear un hogar consciente, con sensores y computadoras para tal fin. Entendieron que estaban iniciando un campo de conocimiento completamente nuevo y, por eso, asumieron que los derechos y el poder sobre este conocimiento serían exclusivamente de los residentes. Unas dos décadas después, los hogares inteligentes son una realidad; sin embargo, cada pieza de hardware que compone un sistema de hogar inteligente viene con una política de privacidad, un acuerdo de términos de servicio y un acuerdo de licencia de usuario final. En ellos, los sujetos abdican formalmente de las huellas dactilares que genera su cotidianidad. Como lo refuerza Zuboff (2019b):
Estos documentos revelan consecuencias opresivas para la privacidad y la seguridad, donde la información confidencial personal y del hogar se comparte con otros dispositivos inteligentes, departamentos corporativos no identificados y terceros, con fines de análisis predictivo y ventas a otras partes no especificadas (Zuboff, 2019b, p. 17).
Con esto, queda claro que los derechos han sido usurpados y reivindicados de manera unilateral, a expensas de las experiencias ajenas y del conocimiento que de ellas emana (Zuboff, 2019b).
La mercantilización de la privacidad es el mecanismo central de la era de vigilancia del capitalismo. Este período, en palabras de Zuboff (2019b), consta de
Un nuevo orden económico que reclama la experiencia humana como materia prima gratuita para prácticas comerciales encubiertas de extracción, previsión y venta; una lógica económica parasitaria en la que la producción de bienes y servicios se subordina a una nueva arquitectura global de modificación de conductas; una mutación desastrosa del capitalismo marcada por concentraciones de riqueza, conocimiento y poder sin precedentes en la historia de la humanidad; el marco que sustenta la economía de la vigilancia; una amenaza tan importante para la naturaleza humana en el siglo XXI como lo fue el capitalismo industrial para el mundo natural en los siglos XIX y XX; el origen de un nuevo poder instrumental que reclama el dominio sobre la sociedad y presenta desafíos sorprendentes para la democracia de mercado; un movimiento que busca imponer un nuevo orden colectivo basado en la certeza total; una expropiación de derechos humanos críticos que puede entenderse mejor como un golpe desde arriba: una destitución de la soberanía de los individuos (Zuboff, 2019b, p. 7).
Respondiendo a una lógica de mercado sin precedentes, la mercantilización de la privacidad consiste en el uso de mecanismos de vigilancia para la apropiación de la privacidad, que es tratada como materia prima, una mercancía plena e indiscriminadamente comercializable. Los datos se capturan en las actividades más diferentes, se agregan y comercializan como clústeres. Como mercancía, la privacidad, si bien es personal, se vende independientemente del individuo que produce los datos. Lo que importa es la capacidad de predecir e inducir el comportamiento, especialmente el consumo, de un determinado segmento de mercado (Zuboff, 2019b).
La gravedad del hecho y sus posibles implicaciones para los derechos humanos ya ha sido advertida anteriormente y la singularidad del fenómeno la resume de forma clarísima Albuquerque:
la captura de la experiencia humana que se convierte en un activo de marketing no tiene precedentes; asimismo, este tipo de poder que surge de los medios digitales del capitalismo de vigilancia también es único en la historia (Albuquerque, 2020, p. 41).
Esta nueva realidad del mercado afecta aún más a los países periféricos, donde la población, además de los desafíos mencionados hasta ahora en torno al Big Data, acumula a diario injusticias, situaciones de vulnerabilidad. Estas personas tienen poco o ningún mecanismo para comprender primero lo que se les está quitando y, en última instancia, resistirlo.
Según Zuboff (2019b), “esta lógica transforma la vida ordinaria en la renovación diaria de un pacto faustiano del siglo XXI”. Eso es porque es casi imposible deshacerse de la forma en que funcionan estos sistemas. Más aún cuando nos hacemos dependientes de categorías como monopolio y privacidad en el debate sobre el tema, términos insuficientes para identificar y debatir los puntos más cruciales e inéditos de tal régimen.
El acceso democrático a los beneficios derivados del desarrollo tecnológico ya era algo lejano (Garrafa, Costa, Oselka, 1999). Con la inserción del capitalismo de vigilancia y su nueva lógica de mercado, el acceso democrático a todos los beneficios del Big Data se vuelve virtualmente imposible.
Se recopilan muchos datos con la justificación de que contribuirán a la mejora de productos y servicios. Sin embargo, lo que se obtiene es un superávit comportamental del propietario. Estos datos se agregan y comercializan con el fin de alimentar procesos avanzados de “educación” de inteligencia de máquina. Con el desarrollo del mercado de predicción del comportamiento, las corporaciones, que usaban datos sobrantes para adivinar las preferencias de consumo, comenzaron a usar algoritmos complejos para dar forma a los comportamientos de las personas a escala. Nada es más predecible que los comportamientos inducidos (Zuboff, 2019b).
En la existencia del capitalismo de vigilancia, los datos no solo se desvían de su función original. Se crean rutas de datos para que la experiencia digital se convierta en combustible para el análisis y las predicciones que, a su vez, se utilizan en beneficio de quienes controlan este sistema. Los usuarios que producen los datos valiosos reciben a cambio servicios gratuitos o la promesa de una experiencia de consumo personalizada.
La manipulación y vigilancia del comportamiento ha demostrado ser un negocio rentable. Cuantas menos garantías legales existan, como en el caso de los países periféricos, mayor será la posibilidad de acumular datos y, en consecuencia, enriquecer a unos pocos a expensas de muchos.
Recopilar datos y utilizarlos para crear perfiles específicos para anuncios comerciales ya no es suficiente en el capitalismo de vigilancia, el siguiente paso ya se ha dado, se trata de influir en el comportamiento de las personas para maximizar la ganancia económica, como se expone en el siguiente extracto:
Las presiones de naturaleza competitiva han impulsado el cambio, en el que los procesos automáticos de las máquinas no solo conocen nuestro comportamiento, sino que también dan forma a nuestro comportamiento a escala (Zuboff, 2019b, p. 19).
A pesar de la intrusión ya sustancial y expansiva en la privacidad, la vigilancia de las personas es normalizada y aceptada cada vez más y se ha desarrollado en una modulación masiva del comportamiento. La vigilancia continua necesaria para moldear el comportamiento plantea un gran riesgo para la libertad de expresión, movimiento y reunión. La consecuencia es una profunda amenaza que se cierne sobre las libertades individuales y los sistemas democráticos al mismo tiempo.
La percepción pública de estos riesgos ha aumentado tras las recientes denuncias sobre el uso nocivo de los medios digitales. A través de algoritmos se crean filtros que, mediante la vigilancia y la modulación del comportamiento, crean burbujas que refuerzan las cosmovisiones de los individuos y colaboran con el desarrollo de prácticas racistas y extremistas, por ejemplo (Cohen, 2013).
Con el caso de Cambridge Analytica, entendemos que estos efectos están destinados a actuar a escala global. La empresa, contratada para interferir en el proceso electoral de EE. UU. y Reino Unido, utilizó mecanismos de arquitectura de elección digital, un término más suave para la modulación del comportamiento (Bartlett, 2018).
Es fácilmente concebible que en otro contexto de poder global, sin la difusión de noticias falsas y el negacionismo a través de los medios digitales, la pandemia de covid-19 en sí podría haber tomado un curso diferente. Esta es otra forma en que la realidad del Big Data y la circulación de datos está comenzando a afectar la salud de las poblaciones.
Incluso más recientemente, con los llamados Facebook Files, nos enteramos de programaciones destinadas a dirigir contenidos de apología a la anorexia que tenían como blanco adolescentes del género femenino.
Con la filtración de documentos de grandes corporaciones en el mundo digital, se reveló que estas eran plenamente conscientes de las consecuencias negativas para la salud mental de los adolescentes expuestos a las redes sociales (Horwitz et al., 2021). Este es un tema de crucial interés para la bioética, porque se trata de una nueva forma en que grupos enteros de la población, expuestos a la manipulación inconsciente de su comportamiento, comienzan a experimentar enfermedades que pronto constituirán grandes problemas de salud pública.
La recopilación de datos e información personal ha sido un debate de los organismos reguladores y es algo que divide opiniones. A pesar de que la vigilancia tradicional, por así decirlo, aquella que consiste en grabar audio y video por parte de alguien, es algo repudiado y constantemente rechazado por los tribunales si se hace sin autorización, la vigilancia por parte de grandes corporaciones ha sido aceptada. Varias corporaciones recopilan datos mucho más allá de lo necesario para el funcionamiento de sus aplicaciones y, como ya se presentó, los utilizan para crear rutas de datos en las que se extraen enormes ganancias y poder.
Es necesario que la dimensión digital detectada en el análisis bibliográfico realizado en esta investigación se perciba efectivamente en su extensión. Un enfoque regulatorio que simplemente se centre en proteger a las personas, como lo hace el Informe IBC, no es suficiente para abordar todos estos desafíos.
En el contexto regional, la regulación brasileña sobre protección de datos, representada por la Ley General de Protección de Datos (LGPD) (Brasil, 2018), a pesar de tener ese nombre, protege el secreto industrial y comercial por encima del derecho de acceso a los datos personales en su artículo 9. La regulación prevé tantas excepciones a la obligación de obtener el consentimiento del titular de los datos, incluso para realizar estudios e investigaciones, que ni siquiera puede afirmarse esta preponderancia de intereses individuales. El estudio de esta legislación no es el tema de este libro, pero existe una necesidad urgente de más investigaciones y debates bioéticos sobre las consecuencias complejas del enfoque regulatorio regional sobre datos personales.
Considerando todos estos aspectos, la dimensión estructural que inspira la mercantilización, que caracteriza una posible nueva fase del capitalismo, no puede ser comprendida plenamente por una oposición entre intereses individuales o colectivos. Los individuos y la sociedad tienen el mismo interés en limitar la capacidad de las grandes corporaciones para modular el comportamiento. Este es un riesgo para las libertades individuales, pero también para las democracias por la acumulación de poder y riqueza. Sin embargo, es importante darse cuenta de que este riesgo afecta a las poblaciones de diferentes maneras. Mientras que en el centro la atención se enfoca en la medicina personalizada y en las posibilidades técnicas de anonimización y protección de datos, en la periferia, la vida cotidiana de las personas vulnerables se convierte en granjas de datos.
Privacidad, mercado, autonomía y modulación del comportamiento
La privacidad parece inadecuada ante la necesidad de hacer de la información un bien común.
La protección y defensa de la privacidad sigue ocupando un espacio central en el debate bioético alrededor de las nuevas tecnologías, como las prácticas de salud centradas en datos (Mehta, Pandit, 2018), pero también en temas como la genómica y el uso de la información genética (Cech, 2019), y neurociencia (Leefmann, Levallois, Hildt, 2016), por ejemplo. De ninguna manera es consensual, en la academia o en la opinión general, que la privacidad sea algo a lo que debemos renunciar.
El libre proceso de decisión sobre cómo, con quién y cuánto compartir de la esfera íntima, proporcionado por la existencia de la intimidad, nos permite tener relaciones cercanas y significativas y también más lejanas. La existencia de la privacidad permite graduar diferentes niveles de relación, desde los más íntimos hasta los más formales, según una elección que solo su preservación permite. Ella es, por tanto, fundamental en todos los niveles: para la formación de los individuos, para el tejido social y, en definitiva, para el pleno ejercicio de la democracia, ya que la vigilancia socava la posibilidad de disentir (Pedersen, 1997; Roessler, Mokrosinska, 2013; Cohen, 2013).
Por lo tanto, las violaciones de la privacidad afectan mucho más que la vida de las personas. Su defensa no es obsoleta, egoísta o paradójica.
Incluso en tiempos como el de la pandemia de la COVID-19, aunque sea necesario el aumento del flujo de datos con el fin de reducir la propagación del virus, la Organización Mundial de la Salud ha advertido que los ataques a los derechos humanos y las libertades fundamentales son un riesgo. Asuntos relativos a la discriminación y la autonomía son preocupantes; el peligro más grave es normalizar medidas excepcionales de vigilancia (WHO, 2020).
En cambio, es común percibir en los artículos una lectura de que el ejercicio de la autonomía también se configura como un derecho, al menos en parte, permanentemente perdido. Esto se debe a que la agregación de datos y la búsqueda de relaciones y causalidades imprevistas, finalidades del uso de Big Data, imposibilitan mantener plenamente la privacidad y la autonomía. El Informe IBC, por ejemplo, busca proponer medios alternativos de consentimiento, como ya se mencionó, como el opt-out o el consentimiento amplio. En general, la declaración del IBC refleja el entendimiento de que tales pérdidas son irreversibles, pero que generarán ganancias en el conocimiento y la distribución de beneficios a nivel colectivo que justifican la reducción de estos derechos.
La discusión en el informe, pero también en gran parte de la bibliografía, parece girar en torno a un contraste entre los intereses individuales y colectivos. La conclusión suele ser que el uso de Big Data se convierte en un beneficio social. En esta perspectiva, sin embargo, hay dos problemas: primero, que, como ya se mencionó, la garantía de derechos como la autonomía y la privacidad, aun tratándose de prerrogativas individuales, son estructurantes para la sociedad; finalmente, no siempre se demuestra y es inequívoco si los resultados finales del uso de Big Data son de hecho beneficiosos para la sociedad. Dados los gigantescos intereses comerciales, la acumulación de riqueza observada en los últimos años y la concentración de poder en figuras del mundo empresarial que controlan comportamientos sin un mandato democrático adecuado, este beneficio colectivo es un campo de disputa.
El informe es rico en recomendaciones concretas sobre la regulación del uso para evitar los efectos negativos de la utilización de Big Data. Se sugiere que la ONU lidere el proceso de gobernanza internacional, a ser seguido por las agencias nacionales, en el uso de datos; la Agencia Internacional de Energía y las Agencias Ambientales están llamadas a actuar para salvar recursos ambientales escasos. La OMS está llamada a controlar las aplicaciones de salud y se recomienda la creación de un sistema de vigilancia global para controlar el uso de datos de salud. Se pide a la Unesco que promueva una convención sobre la protección de la privacidad y se recomienda a la OCDE que desarrolle un marco para compartir los beneficios de las aplicaciones de Big Data (Unesco/IBC, 2017). Sin embargo, no se dice nada sobre la modulación del comportamiento de los usuarios, que mitigue el peligro democrático en el uso de estas tecnologías, o que monitoree las prácticas oligopólicas y monopólicas en la comercialización de la privacidad.
En cuanto a la modulación de la conducta, en la bibliografía se identifica la aguda capacidad para determinar conductas y percepciones que se pueden adquirir a partir del uso de datos. Estos cambios afectan las formas humanas de consumir, de relacionarse, de expresarse, en fin, de estar en el mundo y de entenderse en él. Esto, tal como lo entienden algunos autores, también necesita ser estudiado en su dimensión ética (Überall, Werner-Felmayer, 2019). Otros autores, como Arga (2020), son más enfáticos en advertir que la capacidad predictiva se ha utilizado con fines de control y vigilancia y conduce a una gran concentración de poder a nivel global.
Si bien existe un tono optimista, en la bibliografía y en el propio Informe IBC, respecto a los efectos colectivos del fenómeno Big Data, varios autores expresan su preocupación por el aumento de las desigualdades económicas, con la exclusión de oportunidades de las personas de bajos ingresos, y con la perpetuación de prejuicios y estigmas, debido a sesgos presentes en los algoritmos (Madden et al., 2017). Cuando se habla de datos sensibles, como la información de salud, se suele mencionar la discriminación derivada de la cesión de datos a compañías de seguros o empleadores (Manrique de Lara, Peláez-Ballestas, 2020; Gürsoy et al., 2019). También existe el riesgo de que la información proveniente de la práctica de categorizar individuos en perfiles pueda crear estigmas y perjudicar a grupos de pacientes y ciudadanos, por alguna enfermedad, estilo de vida, o cualquier factor que genere sobrecostos a los operadores de salud (Dorey, Baumann, Biller-Andorno, 2018).
Cada una de estas implicaciones apunta a la posibilidad de que estas tecnologías aumenten la injusticia de diferentes maneras, todas las cuales incluyen la concentración de poder y la exclusión y explotación de los vulnerables. Esto no quiere decir que las tecnologías no puedan ser utilizadas de manera que traigan beneficios, pero es necesario que cesen los discursos neutrales sobre las tecnociencias y que sus riesgos se hagan evidentes, para que se desarrollen regulaciones cuidadosas que los mitiguen.
Es necesario que las regulaciones en materia de recolección, almacenamiento, uso y análisis de datos se preocupen principalmente por el aumento de riesgos de los grupos y sujetos vulnerables, para que los avances científicos y tecnológicos, en general, y el intercambio de datos, específicamente con Big Data, pueda traducirse efectivamente en el bien común.
La lectura no neutral de las implicaciones éticas de las nuevas tecnologías nos ayuda a tomar decisiones adecuadas a nuestros contextos, a nivel individual y político. Es necesario reflexionar sobre las nuevas formas en que se reproduce la injusticia, y estas están profundamente relacionadas con la opacidad de la información.
Al detectar que aún no producimos suficientes reflexiones sobre Big Data en nuestra región, nos pareció importante ofrecer nuestra modesta colaboración para transformar este panorama. Por eso, traemos al público, en forma de libro, un análisis bioético latinoamericano comprometido con la justicia social, para ser leído también por latinoamericanos y latinoamericanas.
¡Qué la información científica produzca salud y que sea un instrumento de emancipación y no de explotación! Es a este proyecto al que queremos contribuir.
Referencias
Abawajy J.H., Ninggal M.I.H., Herawan T. Privacy Preserving Social Network Data Publication. IEEE Communications Surveys & Tutorials, 2016; 18(3), pp. 1974-1997.
Albuquerque A. A privacidade na era dos algoritmos sob a ótica dos direitos humanos. In: Neto A.B.S., Almeida G.H.C.B. (org.). Norma, linguagem e teoria do direito: reflexões para a compreensão do direito do século XXI. Goiânia: Editora Espaço Acadêmico, 2020, pp. 36-57.
Andrejevic M.B. The Big Data divide. International Journal of Communication, 2014; 8(1), pp. 1673-1689.
Arga K.Y. COVID-19 and the futures of machine learning. OMICS: a Journal of Integrative Biology, 2020; 24(9), pp. 512-514.
Bartlett J. The people vs. tech: how the internet is killing democracy (and how we save it). London: Random House. 2018.
Bassan S., Harel O. The ethics in synthetics: statistics in the service of ethics and law in health related research in Big Data from multiple sources. Journal of Law and Health, 2018; 31(1), pp. 87-117.
Beier K., Schweda M., Schicktanz S. Taking patient involvement seriously: a critical ethical analysis of participatory approaches in data-intensive medical research. BMC Medical Informatics and Decision Making, 2019; 19, p. 90.
Bilal K., Khan S.U., Zomaya A.Y. Green data center networks: challenges and opportunities. In 11th International Conference on Frontiers of Information Technology, 2013, Dec 16 (pp. 229-234). IEEE.
BRASIL. Lei n. 13709, de 14 de agosto de 2018. Dispõe sobre a proteção de dados pessoais. Diário Oficial da União, Brasília (2018 ago. 15). Recuperado de: https://bit.ly/40KpGTP [20 de septiembre de 2022]
Cabanac G., Labbé C., Magazinov A. Tortured phrases: A dubious writing style emerging in science: Evidence of critical issues affecting established journals. Arxiv, 2021.
Canales C., Lee C., Cannesson M. Science without conscience is but the ruin of the soul: the ethics of Big Data and artificial intelligence in perioperative medicine. Anesthesia and Analgesia, 2020; 130(5), pp. 1234-1243.
Car J., Sheikh A., Wicks P., Williams M.S. Beyond the hype of Big Data and artificial intelligence: building foundations for knowledge and wisdom. BMC Medicine, 2019; 17: 143.
Carr M., Llanos J.T. Data: Global governance Challenges. In: Weiss, Thomas G., and Rorden Wilkinson (eds.). Global Governance Futures. London: Routledge, 2021, digital file (sp).
Cech M. Genetic privacy in the “Big Biology” era: the “autonomous” human subject. Hastings Law Journal, 2019; 70(3), pp. 851-886.
Cesare N., Lee H., McCormick T., Spiro E., Zagheni E. Promises and pitfalls of using digital traces for demographic research. Demography, 2018; 55(5), pp. 1979-1999.
Cohen J.E. What privacy is for. Harvard Law Review, 2013; 126(7), pp. 1904-1933.
Crain M. The limits of transparency: Data brokers and commodification. New Media & Society, 2018; 20(1), pp. 88-104.
Dhar V. Should we regulate digital platforms? Big Data, 2017; 5(4), pp. 277-278.
Dorey C.M., Baumann H., Biller-Andorno N. Patient data and patient rights: swiss healthcare stakeholders’ ethical awareness regarding large patient data sets – a qualitative study. BMC Medical Ethics, 2018; 19: 20.
Dove E.S., Özdemir V. What role for law, human rights, and bioethics in an age of Big Data, consortia science, and consortia ethics? The importance of trustworthiness. Laws, 2015; 4(3), pp. 515-540.
Evans B.J. Power to the people: data citizens in the age of precision medicine. Vanderbilt Journal of Entertainment and Technology Law, 2017; 19(2), pp. 243-265.
Feitosa S.F. e Nascimento W.F. A bioética de intervenção no contexto do pensamento latino-americano contemporâneo. Revista Bioética, 2015; 23(2), pp. 277-284.
Fisher E. Lessons learned from the Ethical, Legal and Social Implications program (ELSI): Planning societal implications research for the National Nanotechnology Program. Technology in Society, 2005; 27(3), pp. 321-328.
Francis L.P. Privacy and confidentiality: the importance of context. The Monist, 2008; 91(1), pp. 52-67.
Garrafa V., Costa S.I.F., Oselka G. A bioética no século XXI. Revista Bioética, 1999; 7(2), pp. 207-212.
Garrafa V., Porto D. Intervention bioethics: a proposal for peripheral countries in a context of power and injustice. Bioethics, 2003; 17(5-6), pp. 399-416.
Garrafa V. Ampliação e politização do conceito internacional de bioética. Revista Bioética, 2012; 20(1), pp. 9-20.
Garrafa V. Bioética das Situações Persistentes e das Situações Emergentes. Fragmentos de Cultura, 1996; 6(21), pp. 51-52.
Garrafa V. Da bioética de princípios a uma bioética interventiva. Revista Bioética, 2005; 13(1), pp. 125-134.
Goodman K.W. Ethics in health informatics. Yearbook of Medical Informatics, 2020; 29(1), pp. 26-31.
Gürsoy G., Harmanci A., Tang H., Ayday E., Brenner S.E. When Biology Gets Personal: Hidden Challenges of Privacy and Ethics in Biological Big Data. Pacific Symposium on Biocomputing, 2019, pp. 386-390.
Hallowell N., Parker M., Nellåker C. Big data phenotyping in rare diseases: some ethical issues. Genetics in Medicine, 2019; 21(2), pp. 272-274.
Harayama R.M. Reflexões sobre o uso do Big Data em modelos preditivos de vigilância epidemiológica no Brasil. Cadernos Ibero-Americanos de Direito Sanitário, 2020; 9(3), pp. 153-165.
Horwitz J., Wells G., Seetharaman D. et al. Facebook files series. New York: Wall Street Journal, 2021. Recuperado de: https://bit.ly/42byGlM [15 de diciembre de 2021]
Ienca M., Ignatiadis K. Artificial intelligence in clinical neuroscience: methodological and ethical challenges. AJOB Neuroscience, 2020; 11(2), pp. 77-87.
Jennings B. Autonomy. In: Steinbock B. (ed.). The Oxford Handbook of Bioethics. Oxford: Oxford Academic, 2009, pp. 72-89.
Ji S., Li W., Srivatsa M., Selena He J. & Beyah R. Structure based data de-anonymization of social networks and mobility traces. In: Chow S.S.M., Camenisch J., Hui L.C.K., Yiu S.M. (eds). International Conference on Information Security, 2014; 8783, pp. 237-254.
Labbé C., Labbé D. Duplicate and fake publications in the scientific literature: how many SCIgen papers in computer science? Scientometrics, 2013; 94(1), pp. 379-396.
Lajaunie C., Ho C.W.L. Pathogens collections, biobanks and related-data in a one health legal and ethical perspective. Parasitology, 2018; 145(5), pp. 688-696.
Laviolle B., Denèfle P., Gueyffier F., Bégué É., Bilbault P., Espérou H. et al. The contribution of genomics in the medicine of tomorrow, clinical applications and issues. Therapie, 2019; 74(1), pp. 9-15.
Lawler M., Maughan T. From Rosalind Franklin to Barack Obama: data sharing challenges and solutions in genomics and personalised medicine. The New Bioethics, 2017; 23(1), pp. 64-73.
Leefmann J., Levallois C., Hildt E. Neuroethics 1995-2012: A bibliometric analysis of the guiding themes of an emerging research field. Frontiers in human neuroscience, 2016; 10: 336.
Li H., Chen Q., Zhu H., Ma D., Wen H., Shen X.S. Privacy leakage via de-anonymization and aggregation in heterogeneous social networks. IEEE Transactions on Dependable and Secure Computing, 2020; 17(2), pp. 350-362.
Madaka H., Babbitt C.W., Ryen E.G. Opportunities for reducing the supply chain water footprint of metals used in consumer electronics. Resources, Conservation and Recycling, 2022; 176: 105926.
Madden M., Gilman M., Levy K., Marwick A. Privacy, poverty, and Big Data: a matrix of vulnerabilities for poor americans. Washington University Law Review, 2017; 95(1), pp. 53-125.
Manrique de Lara A., Peláez-Ballestas I. Big data and data processing in rheumatology: bioethical perspectives. Clinical Rheumatology, 2020; 39(4), pp. 1007-1014.
Margetts H., Dorobantu C. Rethink government with AI. Nature, 2019; 568, pp. 163-165.
Marwah M., Maciel P., Shah A., Sharma R., Christian T., Almeida V., Araújo C., Souza E., Callou G., Silva B., Galdino S. Quantifying the sustainability impact of data center availability. ACM SIGMETRICS Performance Evaluation Review, 2010; 37(4), pp. 64-68.
Mehta N., Pandit A. Concurrence of Big Data analytics and healthcare: A systematic review. International Journal of Medical Informatics, 2018; 114(1), pp. 57-65.
Mittelstadt B.D., Floridi L. The ethics of Big Data: current and foreseeable issues in biomedical contexts. Science and Engineering Ethics, 2016; 22(2), pp. 303-341.
Montgomery J. Data sharing and the idea of ownership. The New Bioethics, 2017; 23(1), pp. 81-86.
Neff G. Why Big Data won’t cure us. Big Data, 2013; 1(3), pp. 117-123.
Oliveira A. Uma breve história da pesquisa da memória. In: ___. Memória, cognição e comportamento. São Paulo: Casa do Psicólogo, 2007, pp. 17-36.
Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura – UNESCO / International Bioethics Committee – IBC. Report of the IBC on Big Data and health. Paris: United Nations Educational, Cultural and Scientific Organization, 2017. Recuperado de: https://bit.ly/3oShRhu [15 de diciembre de 2021].
Pedersen D.M. Psychological functions of privacy. Journal of Environmental Psychology, 1997; 17(2), pp. 147-156.
Peirce A.G., Elie S., George A., Gold M., O’Hara K., Rose-Facey W. Knowledge development, technology and questions of nursing ethics. Nursing Ethics, 2020; 27(1), pp. 77-87.
Porto D., Garrafa V. A influência da Reforma Sanitária na construção das bioéticas brasileiras. Ciência & Saúde Coletiva, 2011; 16(1), pp. 719-729.
Pyrrho M., Cambraia L., Vasconcelos V.F. Privacy and Health Practices in the Digital Age. The American Journal of Bioethics, 2022; 22(7), pp. 50-59.
Rocher L., Hendrickx J.M., de Montjoye Y.A. Estimating the success of re-identifications in incomplete datasets using generative models. Nature Communications, 2019; 10: e3069.
Roessler B., Mokrosinska D. Privacy and social interaction. Philosophy & Social Criticism, 2013; 39(8), pp- 771-791.
Rong H., Zhang H., Xiao S., Li C., Hu C. Optimizing energy consumption for data centers. Renewable and Sustainable Energy Reviews, 2016, May 1; 58, pp. 674-691.
Rothstein M.A. Ethical issues in Big Data health research: currents in contemporary bioethics. Journal of Law, Medicine & Ethics, 2015; 43(2), pp. 425-429.
Schramm F.R. Bioética da Proteção: ferramenta válida para enfrentar problemas morais na era da globalização. Revista Bioética, 2008; 16(1), pp. 11-23.
Scimago Journal and Country Rank (SJR). International Science Ranking: all subject categories. 1996-2020. Recuperado de: https://bit.ly/3oYp4wn [01 de diciembre de 2021].
Sohrabi C., Mathew G., Franchi T., Kerwan A., Griffin M., Del Mundo J.S.C. et al. Impact of the coronavirus (COVID-19) pandemic on scientific research and implications for clinical academic training – a review. International Journal of Surgery, 2021; 86(1), pp. 57-63.
Spector-Bagdady K., Jagsi R. Big data, ethics, and regulations: Implications for consent in the learning health system. Medical Physics, 2018; 45(10): e845-847.
Tiku N. The Google engineer who thinks the company’s AI has come to life. Washington Post, 11 jun 2022. Recuperado de: https://bit.ly/3LFMmQy [11 de junio de 2022].
Überall M., Werner-Felmayer G. Integrative biology and big-data-centrism: mapping out a bioscience ethics perspective with a S.W.O.T. Matrix. OMICS: A Journal of Integrative Biology, 2019; 23(8), pp. 371-379.
Wang S., Bonomi L., Dai W., Chen F., Cheung C., Bloss C.S. et al. Big Data privacy in biomedical research. IEEE Transactions on Big Data, 2020; 6(2), pp. 296-308.
World Health Organization (WHO). Joint statement on data protection and privacy in the COVID-19 response, 2020, 19 nov 2020. Recuperado de: https://bit.ly/3LFmzIh [12 de septiembre de 2022].
Zuboff S. A era do capitalismo de vigilância: a luta por um futuro humano na fronteira do poder. Rio de Janeiro: Intrínseca, 2019b.
- A nivel regional, la investigación se realizó en la base de datos virtual “Literatura Latinoamericana y del Caribe en Ciencias de la Salud” (LILACS), en https://bit.ly/40UCNSi, y a nivel internacional, se realizó en la prestigiosa base de datos Pubmed, en https://bit.ly/4261o7K.↵
- Los artículos incluidos en el cuerpo de análisis fueron los señalados como resultado de los criterios de búsqueda hasta noviembre de 2020.↵







