Nuestros cursos:

Nuestros cursos:

Multilateralismo, organismos internacionales y Derecho Internacional

Gobernanza de la inteligencia artificial para el desarrollo sostenible

Javier Surasky

Introducción

Este capítulo busca explicar la necesidad de establecer un esquema de gobernanza de la inteligencia artificial (IA) para el desarrollo sostenible. Para ello, comenzamos por explicar qué es la IA y por qué debe ser entendida como una herramienta, un medio que carece de fines propios, idea que completaremos afirmando que el desarrollo sostenible debe convertirse en el fin principal de la IA. Sostendremos que para que ello ocurra deben tomarse acciones en el campo político que produzcan ese resultado, las que deberán expresarse en la creación de un esquema de gobernanza capaz de operar a tres niveles: global, regional y nacional.

Tras ello, analizaremos algunos de los primeros intentos por regular la IA, para cerrar el trabajo presentando los elementos que consideramos esencial tener en cuenta en la construcción de una gobernanza de la IA para el desarrollo sostenible.

La inteligencia artificial

¿Qué debemos entender por inteligencia artificial? El término parece haberse extendido, marketing mediante, hasta englobar cualquier artefacto capaz de producir un resultado a partir de ciertos insumos que se le proveen, lo que claramente es un error. Si usted compró el último modelo de una cafetera porque en su descripción decía que aplicaba inteligencia artificial a preparar su café, ha sido engañado.

Buscando una respuesta a la pregunta inicial, lo primero que hallamos, como es de esperar, es que existen múltiples definiciones posibles de IA. Nos limitaremos a algunas que son representativas de diferentes aproximaciones posibles:

  • Para John McCarthy, pionero en al campo de la IA, esta se presentaba como la “ciencia e ingeniería de la fabricación de máquinas inteligentes, especialmente programas informáticos inteligentes” y por tanto estaba relacionada con el uso de computadoras “para comprender la inteligencia humana”.[1]
  • George Lugger (2009: 1) la presenta como “la rama de la informática que se ocupa de la automatización del comportamiento inteligente”.
  • Lasse Rouhiainen (2108: 17) presenta a la IA como “la capacidad de las máquinas para usar algoritmos, aprender de los datos y utilizar lo aprendido en la toma de decisiones tal y como lo haría un ser humano”.
  • Para Marvin Minsky, otro de los padres de la actual IA, “la inteligencia artificial es la ciencia de hacer que las máquinas hagan cosas que requerirían inteligencia si fueran realizadas por seres humanos” (citado en Geist y Lohn, 2018: 9).

La primera definición se enfoca en el elemento técnico de la IA (la fabricación de máquinas y software inteligentes) como apoyo para el entendimiento de los procesos que sigue nuestra propia inteligencia natural (por contraposición a artificial). La segunda pone el acento en la mecanización automática de los procesos inteligentes, mientras que las siguientes incluyen elementos del “hacer” junto a los del “pensar”, ya sea en referencia a las formas en las que las máquinas construyen sus decisiones o al resultado activo de las decisiones adoptadas.

Queda fuera del alcance de este capítulo analizar qué debemos entender por inteligencia, pero debemos señalar que nos aproximamos a ella como un proceso que ocurre en los humanos sobre un sustrato particular (el cerebro) a través de procesos físico-biológicos que la ciencia aún no comprende en su totalidad.

Lo anterior es crítico, en tanto al considerar el cerebro como un sustrato estamos afirmando que nada impide que se pueda pensar sobre otros sustratos alternativos mediante procesos físicos diferentes que repliquen los resultados, ya sea total o parcialmente, o incluso los superen en “capacidad de producción de pensamiento”. Al fin y al cabo, ¿no es eso lo que hacen los motores (de vapor, de combustión, etc.) respecto de los músculos?

¿Pueden los componentes físicos de una computadora ser ese nuevo sustrato para crear pensamiento e inteligencia? Esta es la pregunta que se hacía Turing ya en 1950 (433): “¿Pueden pensar las máquinas?”.

Siete años antes, en 1943, McCullough y Pitts (1943) habían publicado un artículo de neurofisiología teórica donde afirmaban que los eventos neuronales y las relaciones entre ellos podían ser abordados mediante lógica proposicional bajo un esquema de redes que aportaban medios lógicos de complejidad creciente, con lo que sentaron los fundamentos de las redes neuronales. El mismo año en que Turing publicaba su artículo seminal, Marvin Minsky y Dean Edmonds, por entonces estudiantes en Harvard, trabajaron sobre los aportes de McCullough y Pitts para crear el primer computador neuronal, al que llamaron SNRAC (Stochastic Neural Analog Reinforcement Calculator). Dos años después, Arthur Samuel desarrolló para IBM el primer software capaz de aprender a jugar al ajedrez.

Los progresos se sucedieron y llevaron a la realización de la Conferencia del Dartmouth Summer Research Project on Artificial Intelligence en 1956, donde se utilizó por primera vez el término “inteligencia artificial”. Participaron de esa reunión varios de los investigadores que se convertirían en pioneros o padres fundadores de la IA, como Marvin Minsky, Julian Bigelow, D. M. Mackay, Ray Solomonoff, John Holland, John McCarthy, Claude Shannon, Nathanial Rochester, Oliver Selfridge, Allen Newell y Herbert Simon.

Con ello se iniciaba una etapa de crecimiento exponencial para la IA, marcada tanto por sus primeros progresos como por expectativas de logro demasiado optimistas que acabarían incumplidas, lo que sumiría a la IA en lo que se denomina comúnmente como su “invierno”, reflejando la caída en el financiamiento que recibió el campo durante algunos años a mediados de la década de 1970 primero, y a partir de fines de la década de 1980 después (McCorduck, 2004: 442, Haugeland, 1985).

La IA volvería a recuperar la atención y los recursos necesarios para seguir progresando a partir de la segunda mitad de 1990. La principal razón para este “renacer” de la IA fue que el progreso tecnológico de los ordenadores permitía ahora superar límites de cálculo con los que se habían topado los investigadores y desarrolladores de IA en años anteriores, a lo que se sumó una explosión en los datos disponibles para entrenar esas máquinas (en 1991 se hace pública la World Wide Web, que en cinco años conecta ya a 10 millones de terminales), lo que a su vez contribuyó a una mejora en el desarrollo y resultados de ejecución de algoritmos, la “harina del pan” de la IA.

A esas razones tecnológicas se suman impactos sociales trascendentes de la IA, como el triunfo del computador Deep Blue sobre Gary Kasparov al ajedrez en 1997, y el ingreso de la IA a los hogares de la mano (para ser más exactos, de la programación) de las aspiradoras Roomba, que se lanzan al mercado en 2002.

Desde entonces el campo no ha detenido sus progresos y expresiones que, antes reservados a expertos, se van popularizando: machine learning (aprendizaje automático), deep learning (aprendizaje profundo), internet de las cosas, sistemas multiagente, inteligencia artificial generativa ya no son términos que se asocian a un robot destructor de la humanidad al estilo “Terminator” sino a los buscadores web, los traductores automatizados entre idiomas, ChatGPT, Google Maps, los asistentes virtuales de los teléfonos móviles, Grammarly, Netflix y tantos otros que conforman hoy una extensa lista integrada a nuestra vida cotidiana.

Por supuesto, junto con el crecimiento de la IA se han incrementado los riesgos y las amenazas: desde el espionaje masivo y la compraventa de datos privados hasta la seguridad de los automóviles de conducción autónoma y el uso de armas de guerra “inteligentes”. Sobre estos temas regresaremos luego en más detalle.

La IA como herramienta: medio sin fines propios

La IA es una herramienta de enorme potencia, y sus avances modificarán pautas constitutivas del actual orden social, desde los modos y organización del trabajo hasta los procesos educativos que aseguran la reproducción en las sociedades modernas. Al considerarla como “herramienta”, estamos afirmando que no tiene una intencionalidad propia, sino que esta vendrá dada por quien la utiliza. Un martillo, ejemplo clásico de herramienta, podrá ser utilizado para esculpir una obra de arte o para destruirla.

La intencionalidad que aporta el usuario de la herramienta, sin embargo, está condicionada por las características de esta: nadie utilizaría un martillo para atornillar ni un destornillador para clavar a pesar de las similitudes en las formas de clavos y tornillos. La característica de la IA era en su origen su capacidad para realizar tareas repetitivas y automáticas, incluyendo el cálculo, para liberar a las personas de tener que realizarlas. La realidad muestra que la IA se mueve hacia un horizonte que va más allá de ese límite:

  • Dentro de la IA existe una rama denominada “IA expresiva” dedicada a la generación de arte: música, literatura, pintura. En el campo musical, el proyecto AIVA de composición mediante IA financiado por fondos europeos compuso en 2017 el himno de la ciudad de Dubái.[2] Un año antes, el proyecto The Next Rembrandt pintó una obra que reproduce su estilo hasta el más mínimo detalle (Yusa, Yu, Sovhyra: 155-157).
  • La IA ha mostrado indicios de indicios de “creatividad” propia. Un buen ejemplo de ello tuvo lugar en un partido de Go, un juego de tablero tremendamente complejo dada la cantidad de situaciones posibles durante una partida: Demis Hassabis (Sneed, 2016), uno de los cofundadores de Deep Mind, explicó que mientras que en el ajedrez existen aproximadamente 20 opciones de movimientos por turno, en el Go el número trepa hasta 200. Deep Mind AlphaGo derrotó en 2016 al campeón mundial de ese juego, el chino Ke Jie, realizando movimientos “contraintuitivos”.

Estos horizontes difusos de capacidad de la IA no hacen más que potenciar el riesgo de dejarla a la libre intención de su usuario. Cambie un equipo técnico de composición musical o de generación de imágenes por un grupo terrorista y los resultados son estremecedores.

De esta forma, la libertad de fines se convierte en un peligro cuando se encuentra con la IA, con una agravante: una vez hecha pública, la capacidad de controlar el uso de la IA se disuelve, tal como ocurre con la compraventa de un martillo sobre cuyo uso posterior el fabricante no tendrá control. ¿Es posible establecer una gobernanza de la IA donde el proceso de desarrollo de la herramienta actúe limitando sus posibles usos de tal forma de excluir todos aquellos que se consideren indeseables? La respuesta es, claramente, negativa.

No obstante, sí es posible establecer marcos de gobernanza que atemperen los riesgos y creen salvaguardas. El desarrollo sostenible puede jugar un rol fundamental en ello si se lo considera un fin al cual “atar” el medio que, hemos visto, es la IA; pero para comprender su alcance debemos detenernos en la conceptualización misma del desarrollo sostenible.

El desarrollo sostenible

Hay muchas formas de contar la historia del desarrollo sostenible. Podríamos hablar sobre la manera en que la mayor atención sobre temas ambientales, la búsqueda de eficacia de acciones en pro del desarrollo o el intento de la humanidad de cambiar su relación con la naturaleza modificaron el concepto mismo del desarrollo. Todas estas historias, y tantas otras posibles, son ciertas a medias. Cada una se enfoca en un punto y lo convierte en la clave para explicar el desarrollo sostenible. Por ello, cada una de esas narrativas es incompleta.

Se suele marcar como un hito de origen del concepto la publicación del Informe Bruntland, elaborado por la Comisión Mundial sobre el Medio Ambiente y el Desarrollo establecida por la Asamblea General de las Naciones Unidas en 1983 (A/Res/ 38/161) y presentado en abril de 1987. Ese informe, que lleva por título Nuestro futuro común, se escribió en un contexto marcado por las consecuencias económicas y sociales del Consenso de Washington y la creciente preocupación de la opinión pública por temas ambientales: en 1967 se producía el primer derrame de petróleo de un buque superpetrolero, el Torrey Canyon, en 1978 se repetía la situación con la catástrofe del buque Amoco Cadiz, y un año más tarde, con el derrame petrolero de la plataforma Ixtoc I en el Golfo de México. Durante los años de elaboración del reporte se produjo el accidente en la planta de químicos en Bophal, India, que dejó más de 12.000 personas muertas (1984); se detectó el agujero en la capa de ozono (1985), y tuvo lugar el accidente en la planta nuclear de Chernóbil (1986).

Con este telón de fondo, los expertos que integraban la comisión definieron al desarrollo sostenible como “aquel que satisface las necesidades del presente sin comprometer la capacidad de las futuras generaciones para satisfacer las propias” (World Commission on Environment and Development, 1987: párr. 27), una definición que llega hasta nuestros días con algunos pocos pero relevantes cambios: la Agenda 2030 para el desarrollo sostenible adoptada por la Organización de las Naciones Unidas en 2015 (A/Res/70/1) señala su triple integración, que incluye los pilares ambiental, económico y social. Esta ampliación del concepto, desde su acento en el ambiente hasta su balance entre las dimensiones señaladas, lejos está de significar el cierre de las discusiones sobre su extensión. Actualmente, por ejemplo, existe un creciente impulso por incorporar la cultura como cuarta variable.

En términos concretos, hoy solo podemos hablar de desarrollo sostenible cuando las dimensiones ambiental, económica y social confluyen de manera equilibrada. En la práctica, esta comprensión del concepto como expresión de un equilibrio de múltiples áreas ha impulsado un enfoque integrado del desarrollo sostenible (ONU Medio Ambiente, 2018). De las múltiples expresiones que nacen de esta visión del desarrollo vamos a dedicar nuestra atención a una “nueva solidaridad” que se desprende del desarrollo sostenible

Hasta la formulación del concepto de desarrollo sostenible, las diferentes miradas teóricas del desarrollo compartían que este era representación de una “solidaridad horizontal” entre todas las personas que habitan el planeta por la que los más favorecidos debían apoyar a los menos favorecidos para que pudieran mejorar su calidad de vida. El desarrollo sostenible trae al debate una “solidaridad vertical”, intergeneracional, que se extiende en el tiempo hacia las futuras generaciones, que atraviesa presente y futuro convocando a modificar los esquemas de pensamiento con los que se analizan los impactos de nuestras decisiones políticas actuales en el bienestar futuro del planeta y sus habitantes.

Esta idea de incluir a las generaciones futuras en la ecuación de tomas de decisiones se ha ido extendiendo y consolidando. Ejemplo de ello es el nombramiento de un Enviado Especial del secretario general de las Naciones Unidas para las generaciones futuras o la propuesta de los Principios de Maastricht sobre los derechos humanos de las generaciones futuras,[3] publicados en julio de 2023 tras más de seis años de trabajo experto, cuyo artículo 10(b) establece que

Todos los seres humanos, pertenezcan a las generaciones presentes o a las futuras, tienen derecho a un orden social e internacional en el que los derechos y las libertades puedan realizarse para todas las personas. Tal orden internacional únicamente es posible, ahora o en el futuro, si las personas, los grupos y los Estados adoptan el principio de la solidaridad internacional.

El desarrollo sostenible como fin para la IA

Como acabamos de ver, tanto la IA como el desarrollo sostenible comparten el hecho de ser trabajados en el presente con efectos directos sobre el futuro que deben ser tenidos en cuenta en sus procesos de toma de decisiones. Si se actúa de forma coordinada, la IA puede convertirse en un motor de desarrollo sostenible. Si ello no ocurre, las consecuencias pueden ser desastrosas. El estado actual de situación es preocupante:

  • Las tecnologías digitales aceleran la concentración del poder económico en un grupo de élites empresariales cada vez más reducido: “la riqueza combinada de los multimillonarios tecnológicos, 2,1 billones de dólares en 2022, es superior al producto interno bruto anual de más de la mitad de las economías del Grupo de los 20” (Naciones Unidas, Asamblea General, 2023: 2-3).
  • Somos testigos de una competencia entre empresas y entre Estados por obtener las ventajas que la IA brinda en las áreas política, económica y militar, insuficientemente reguladas y con alto potencial de generar inestabilidad y accidentes.
  • La ausencia de un marco de gobernanza de las tecnologías digitales conlleva la ausencia de “sistemas básicos de protección; hoy en día es más difícil sacar al mercado un juguete de peluche que un chatbot de IA” (Naciones Unidas, Asamblea General, 2023: 3).
  • La concepción de los elementos que hacen a la noción de “ser humano” entran en debate y con ello se introducen tensiones en campos que van desde la normativa internacional sobre propiedad industrial hasta los derechos humanos.

De los muchos caminos posibles para examinar el desafío de coherencia entre IA y desarrollo sostenible, vamos a seguir aquí uno que nos parece especialmente relevante: la gobernanza internacional. Entendemos por gobernanza el conjunto de actores, instituciones, normas, procesos de tomas de decisiones y mecanismos para su implementación. Desde esa perspectiva, es conveniente comenzar por señalar que mientras que el desarrollo sostenible es responsabilidad principal de cada Estado, y sus lineamientos y compromisos tienen tanto la forma de normas nacionales como de acuerdos políticos multilaterales, el actor principal en la IA son hoy empresas y corporaciones privadas, que se regulan fundamentalmente mediante códigos de conducta de adscripción optativa. Como veremos, este factor introduce tensiones a medida que los Estados buscan avanzar en el establecimiento de un marco multilateral para la gobernanza de la IA. Estos elementos iniciales nos sirven para identificar elementos críticos al pensar la gobernanza de la IA en relación con la del desarrollo sostenible.

Los impactos de la IA en el logro del desarrollo sostenible han sido extensamente tratados, desde aproximaciones más generales (Vinuesa et al., 2020; van Wynsberghe, 2021; Sætra, 2021) hasta aquellas centradas en los ODS (Sætra, 2022), pasando por desarrollos que abordan áreas específicas que van desde el procedimiento judicial (Arrabal Platero, 2022) a la economía (Marino y Monaca, 2020). En todos los casos queda claro que la IA es una fuerza relevante en el impulso o detracción del desarrollo sostenible.

La potencia de la IA en el desarrollo sostenible es de magnitud tal que sus impactos no solo pueden conducir a acelerar su logro, sino que aun bien intencionados, pueden dar como resultado efectos benéficos para campos específicos que se traduzcan en resultados indeseados en otros. Así, por ejemplo, la IA podría mejorar la calidad de la educación al tiempo que aumente las inequidades entre estudiantes. La IA, además, genera nuevas inequidades que se suman a las tradicionales: explica la Conferencia de las Naciones Unidas sobre Comercio y Desarrollo (2021) que los Estados Unidos y China concentran el 70 % del talento mundial en inteligencia artificial.

Así, las decisiones que se toman en materia de IA y desarrollo sostenible tendrán impactos profundos sobre la vida de las personas, las relaciones internacionales y el orden social futuros. La IA puede contribuir a la solución de problemas que afectan el desarrollo sostenible, pero también va a crear nuevos problemas que deben ser considerados desde ahora para minimizar sus efectos negativos y evitar que nos encuentren desprovistos de respuestas cuando lleguen a concretarse. Como lo afirma el secretario general de la ONU (Naciones Unidas, Asamblea General, 2023: 3):

Urge encontrar formas de aprovechar las tecnologías digitales en beneficio de todos. Necesitamos acuerdos de gobernanza nacionales e internacionales que impidan su uso indebido. Debemos orientar la innovación de manera que refleje los valores humanos universales y proteja al planeta. Las acciones unilaterales regionales, nacionales o industriales no bastan: esta cooperación debe ser mundial y multilateral para evitar que las desigualdades digitales se conviertan en abismos globales irreversibles.

Buscando regular la IA: algunas propuestas iniciales

Tanto Estados como empresas y expertos han expresado reiteradamente su preocupación por el progreso descontrolado de la IA, lo que dio lugar a la emergencia de la tensión entre regulación y progreso del campo. Un hito en este sentido fue la publicación, en marzo de 2023, de una carta abierta firmada por más de 1000 expertos en IA junto a ejecutivos de la industria tecnológica en la que pidieron “se pause de inmediato, durante al menos seis meses, el entrenamiento de los sistemas de inteligencia artificial más potentes que GPT-4” en tanto implican “profundos riesgos para la humanidad”.[4] Esa carta menciona en su inicio los “Principios de Asilomar”, 23 principios para la gobernanza de los sistemas de IA propuestos por expertos en IA reunidos en 2017 en California, que se agrupan en torno a tres ejes: investigación (cinco principios), ética y valores (trece principios) y aspectos de largo plazo (cinco principios).

Dos años antes, en 2015, con el marco de las negociaciones internacionales que llevaron a la adopción de la Agenda 2030 para el desarrollo sostenible como telón de fondo, un grupo de investigadores en AI y científicos sociales habían fundado AI4Good (Inteligencia Artificial para el Bien), cuya misión se describe como “Un mundo donde podamos aprovechar todo el potencial de las tecnologías emergentes para crear un cambio social positivo”.[5] La lista de iniciativas en esa dirección continuó creciendo con la creación del Ethical Framework for a Good AI Society: Opportunities, Risks, Principles and Recommendations, propuesto por la europea AI4People en diciembre de 2018; las Ethics Guidelines for Trustworthy AI de abril de 2019, adoptadas por el Grupo de Alto Nivel de Expertos sobre IA de la Comisión Europea, y la Declaración de Derechos Humanos para un Entorno Digital, presentada por la Universidad de Deusto en noviembre de 2018.

Sobre estos antecedentes, la Unión Europea se convirtió en el primer espacio político del mundo en trabajar una regulación de la creación de IA mediante la Propuesta de Reglamento del Parlamento y del Consejo Europeos por la que se establecen “normas armonizadas en materia de inteligencia artificial (Ley de inteligencia artificial)”. No ausente de críticas por grandes empresas que utilizan IA, esa regulación tiene en su centro un sistema de agrupamiento de IA de acuerdo con criterios de riesgo, que puede ser considerado como “inaceptable”, “alto”, “mediano” o “mínimo”.

Otra potencia de investigación y desarrollo en IA, Estados Unidos, muestra menos propensión a regular la IA, y sigue un camino diferente: son los estados federados quienes avanzan en la adopción de normativa sobre asuntos específicos vinculados a la inteligencia artificial. Solo en 2023 se aprobaron aproximadamente 85 normas de este tipo en territorio estadounidense. En el conjunto destaca, por la atención que ha recibido a nivel nacional, una norma adoptada por Nueva York en 2021, que entró en vigor en julio de 2023, donde se exige, por ejemplo, que las empresas que utilizan IA en los procesos de contratación de personal deben notificarlo a los candidatos y contar con auditores independientes que aseguren la IA no tenga sesgos o prejuicios (bias).

Por su parte, el presidente de China, Xi Jinping, presentó la propuesta de su país de Iniciativa Mundial de Gobernanza de la IA (documento de la Asamblea General A/78/565) ante el Tercer Foro de la Franja y la Ruta para la Cooperación Internacional reunido en octubre de 2023. La propuesta, que es un listado de principios generales, comienza afirmando que “La inteligencia artificial (IA) es un nuevo campo del desarrollo humano” y parece asumir que su regulación no es posible si se trabaja exclusivamente en el nivel nacional.

En una línea similar se pronuncia el secretario general de las Naciones Unidas en su policy brief “Un Pacto Digital Global – Un futuro digital abierto, libre y seguro para todas las personas” (Informe de políticas N.º 5), donde propone que

se elabore un Pacto Digital Global que establezca principios, objetivos y acciones para promover un futuro digital abierto, libre, seguro y centrado en el ser humano, anclado en los derechos humanos universales y que permita alcanzar los Objetivos de Desarrollo Sostenible (p. 3).

Propuesta de elementos a considerar en el diseño de una gobernanza de la IA para el desarrollo sostenible

Comencemos por asumir una serie de hechos sobre los cuales debe darse el diseño de una gobernanza de la IA para el desarrollo sostenible:

  • No tenemos experiencia regulando un campo como el de la IA, que cambia de manera siempre acelerada sus productos y desafíos. Cualquier intento de establecer una gobernanza de este campo deberá estar sujeto a un continuo ciclo de análisis y mejora. Parafraseando a Julia Stoyanovich, directora del Centro para una IA Responsable de la Universidad de Nueva York, cualquier regulación será controversial, pero mucho mejor que no tener ninguna. Mientras no intentemos crear una regulación, no aprenderemos cómo hacerlo” (Lohr, 2023).
  • Las formas y procesos tradicionales de gobernanza (normativas, institucionales y para la toma de decisiones) no son capaces de seguir el ritmo del cambio que muestra la IA ni prever sus consecuencias.
  • La importancia del conocimiento experto en la toma de decisiones alcanza niveles especialmente altos, comparables con lo que ocurre en el campo de la lucha contra el cambio climático.
  • Como sucede en varios otros campos internacionales, se requiere de la acción multinivel (nacional, regional y global), pero las soluciones solo tienen posibilidades de éxito si se acuerdan a este último nivel.
  • La extensión de las aplicaciones de la IA y su ya referido impulso por el sector privado hacen que cualquier esquema de su gobernanza deba ser necesariamente inclusivo y participativo, abierto a múltiples actores.
  • La ausencia de regulación de la IA afecta el desarrollo sostenible: “El avance desenfrenado de la IA supone el riesgo de disminuir el progreso hacia los Objetivos de Desarrollo Sostenible de las Naciones Unidas en una serie de áreas clave, y este riesgo aumenta en el mundo en desarrollo” (Truby, 2020: 946).

Sobre estos seis pilares, proponemos que un esquema de gobernanza de la IA para el desarrollo sostenible debe incluir acciones a nivel global, regional y nacional. A continuación enumeramos una primera lista de pasos por darse que no pretende agotar las múltiples necesidades y opciones de trabajo existentes, pero sí plantear elementos que consideramos esenciales y urgentes:

A nivel global

  • Los problemas del multilateralismo actual se relacionan, al menos en parte, con la incapacidad de la ONU para hacer frente a los problemas actuales. Anclada en un diseño que no está alineado a los tiempos actuales, la ONU requiere de un siempre difícil pero ya impostergable proceso de reforma estructural. Existe una oportunidad abierta en el marco del proceso iniciado por la Declaración Política adoptada por los Estados en la conmemoración del 75 aniversario de la Organización, seguida por el informe del secretario general Nuestra agenda común, y la futura Cumbre del Futuro, a reunirse en septiembre de 2024.

La consideración de las tecnologías digitales, incluida la IA, ya es parte de ese proceso, pero se requerirá de voluntad política impulsada por una fuerte presión de los actores de la sociedad civil y la academia para garantizar que se produzcan innovaciones, especialmente porque el sector privado, con importantes excepciones, no está especialmente interesado en que eso ocurra.

Sin una reforma de las Naciones Unidas que la tenga en consideración, la oportunidad de generar una gobernanza para la IA que tenga posibilidades de ser realmente global y perdurar en el tiempo es mínima.

  • El principal espacio global de debate sobre el desarrollo sostenible es el Foro Político de Alto Nivel de las Naciones Unidas. Conforme lo define la Agenda 2030 para el Desarrollo Sostenible, tiene la responsabilidad de brindar guía política a la implementación de los Objetivos de Desarrollo Sostenible a nivel global. Si bien el Foro no consigue ser exitoso en esa tarea (Cepei, 2023), sigue siendo el único espacio multilateral global con esa misión.
  • Fortalecer el rol de líder político de ese Foro e incluir en su debate un capítulo permanente sobre IA que permita los intercambios entre múltiples actores es un paso necesario para reforzar una IA para el desarrollo sostenible.
  • El Mecanismo de Transferencia de Tecnología establecido en la Agenda 2030 debe incorporar un capítulo sobre IA que incluya metas medibles de transferencia de saberes, equipos y capacidades en la materia.
  • La Asamblea General debe solicitar a la Comisión de Derecho Internacional que inicie sus trabajos para llegar a un tratado internacional que regule los elementos más críticos de la IA. Dado que esos procesos demoran años, la propia Asamblea y otros organismos del sistema de la ONU, tales como el Consejo de Derechos Humanos, deben aumentar su trabajo de estudio y aprobación de lineamientos para la IA en sus campos específicos.
  • El Consejo Económico y Social debe hacer de la IA un tema permanente en su agenda de trabajo, pero también un elemento transversal que se tenga en consideración en los demás asuntos de su competencia.

A nivel regional

  • El proceso de seguimiento y examen de la Agenda 2030 se apoya en foros regionales de desarrollo sostenible que tienen lugar anualmente en cada una de las cinco regiones en que se organiza el trabajo de la ONU. Esos escenarios abren un espacio para el logro de acuerdos a nivel regional para impulsar el desarrollo sostenible y podrían impulsar la realización de reuniones, ya en paralelo o de forma sucesiva, de foros sobre IA y desarrollo sostenible.
  • Las comisiones económicas regionales de las Naciones Unidas pueden dar inicio al proceso de investigación y sistematización de prácticas y reglas sobre IA que tienen lugar en los espacios regionales, de tal forma que puedan contribuir al diálogo global de forma coherente y ordenada. La utilización de modelos de análisis y de reportes comparables previamente acordados entre sus expertos resulta indispensable para no duplicar esfuerzos y aumentar la eficacia de los resultados.
  • Los procesos y tratado de integración regional deben contar con capítulos específicos que regulen el diseño, transferencia y uso de la IA, haciendo del desarrollo sostenible un pilar de su construcción.

A nivel nacional

  • Avanzar procesos de adopción y/o sistematización normativa en materia de IA a efectos de construir corpus jurídicos integrados en la materia es una tarea cuyo primer paso debe tener lugar a nivel de cada Estado.
  • Diseñar políticas nacionales de IA con participación real de expertos y múltiples actores interesados, en las cuales se incluya un capítulo sobre desarrollo sostenible, también es una materia pendiente que debe ser abordada por los gobiernos. Esas políticas deberían estar integradas, o al menos claramente alineadas, a los documentos que guían el desarrollo nacional (planes o estrategias nacionales de desarrollo sostenible).
  • Establecer una autoridad dentro del gobierno nacional con competencias para supervisar el desarrollo y uso de sistemas de IA. Por las características del objeto con que debe trabajar, esa autoridad bien podría tener una estructura interministerial y debería contar con expertos entre sus integrantes.
  • El Estado debe garantizar no solo la rendición de cuentas de las empresas que desarrollan IA sobre sus productos, sino la transparencia de sus algoritmos y su control externo por terceros expertos que verifiquen su alineamiento con el desarrollo sostenible.
  • En sus informes de sostenibilidad o responsabilidad social corporativa, las empresas deberían incluir un capítulo sobre su producción y uso de herramientas de IA.
  • La formación en desarrollo sostenible debe estar incluida en cualquier proceso educativo, pero debe reasegurarse que las personas que trabajan en el diseño de IA o la utilizan cuenten con capacitación en la materia. Un sistema de certificaciones profesionales puede ser útil a tal fin. Los desarrolladores de IA, y especialmente las empresas dadas sus capacidades, deberían ser legalmente responsables por los daños que puedan causar los productos que lancen al mercado.

Conclusión

La IA, su incorporación en tareas cotidianas por las personas y la velocidad de sus desarrollos abren oportunidades para un avance acelerado hacia el desarrollo sostenible, pero estas no se convertirán en realidad de manera natural, liberadas a sus propias dinámicas.

No hemos entrado en este trabajo a contemplar un segundo elemento que debe incluirse en la gobernanza de la IA para el desarrollo sostenible: la sostenibilidad de la propia IA, porque eso nos hubiese alejado de nuestro objetivo, pero debemos recordar que el entrenamiento que recibió AlphaGo para lograr vencer al campeón mundial de ese juego fue equivalente al consumo energético de 1000 horas de viaje aéreo. Con relación al consumo energético de operación de redes neuronales, Strubell, Ganesh y McCallum (2019) han calculado que este se corresponde con cinco veces el valor de las emisiones de carbono que genera un automóvil estadounidense promedio, incluida su fabricación, a lo largo de su vida útil.

Sin descuidar ese tema, afirmamos que es necesario orientar las capacidades que surgen de los avances en IA hacia el desarrollo sostenible mediante medidas específicamente orientadas a tal fin, esto solo puede ocurrir si los niveles global, regional y nacional actúan de manera coherente mediante un esquema de gobernanza donde cada nivel tome elementos de los demás y a la vez los provea de nuevos elementos en un proceso de fertilización cruzada.

Para que ello pueda ocurrir, no solo es necesario que tengan lugar desarrollos normativos e institucionales. Lo que se necesita primero es comprender que la IA no constituye un Frankenstein moderno que va a terminar con nuestras sociedades y con la humanidad, es una herramienta con un potencial de transformación de nuestras vidas sociales y personales que podría ser más poderoso que los que trajeron consigo la creación de la imprenta, el motor a vapor o la introducción de la computación e Internet.

Los avances de la IA nos ponen frente a preguntas históricas: ¿qué nos hace humanos?, ¿qué debemos considerar como una persona?, ¿qué clase de sociedad queremos?, ¿cómo debemos distribuir socialmente los bienes tangibles e intangibles con los que contamos para ser justos?

La IA amplía nuestra capacidad para hallar múltiples respuestas a cada una de esas preguntas, pero no será ella quien defina cuál será la opción que finalmente escojamos, decisión que seguirá siendo fundamentalmente humana.

La mayor amenaza para la humanidad sigue estando en cabeza de la humanidad, no de la IA. Podemos hacer de ella un factor de cambio que nos acerque al mundo en el que, como humanidad, decimos tenemos deseos de vivir, aunque nuestras acciones no siempre indiquen que eso sea cierto. Al fin y al cabo, en el libro de Mary Shelly Frankenstein o el moderno Prometeo, escrito en 1818 cuando la electricidad era la fuerza tecnológica del cambio, el verdadero monstruo es Víctor Frankenstein, el científico humano que lo crea, le da su nombre y luego lo rechaza, con lo que crea una tragedia.

La realidad de la insostenibilidad de nuestros modelos de desarrollo debería hacer que las palabras finales de otro de los libros de esa autora, El último hombre, publicado ocho años después, resuenen hoy en nosotros:

un sentimiento de respeto, de asombro, la dolorosa sensación de que la humanidad se iba degradando, anidaba en todos los corazones. La naturaleza, nuestra madre, nuestra amiga, volvía hacia nosotros su rostro amenazante. Nos demostraba sencillamente que, aunque nos permitía asignarle leyes y someter sus poderes aparentes, ella, moviendo apenas un dedo, podía hacernos temblar (Shellly, 2007: 260).

Referencias bibliográficas

Arrabal Platero, P. (dir.) (2022). Los Objetivos de Desarrollo Sostenible y la inteligencia artificial en el proceso judicial. Valencia. Tirant lo Blanch.Cepei (2023). Nuestro Futuro Posible. Informe Insignia 2023. Bogotá.

Cepei. Disponible en https://cepei.org/wp-content/uploads/2023/09/Informe-Insignia-CEPEI-2023-1.pdf.

Cepei (2022). ¿Cómo contribuyen los foros regionales sobre desarrollo sostenible a los ODS? Bogotá. Cepei. Disponible en https://cepei.org/wp-content/uploads/2022/09/Global_and_Regional_Forums_Esp.pdf.

Comisión Mundial sobre el Medio Ambiente y el Desarrollo (1987). Nuestro Futuro Común (A/43/427). Disponible en https://web.archive.org/web/20111201061947/http://worldinbalance.net/pdf/1987-brundtland.pdf.

Conferencia de las Naciones Unidas sobre Comercio y Desarrollo (2021). Informe sobre la economía digital 2021. Flujos de datos transfronterizos y desarrollo: para quién fluyen los datos. UNCTAD/DER/2021. V https://unctad.org/system/files/official-document/der2021_es_0.pdf.

Geist, E. y Lohn, A. (2018). How Might Artificial Intelligence Affect the Risk of Nuclear War? Santa Monica. RAND Corporation.

Lohr, S. (2023). A Hiring Law Blazes a Path for A.I. Regulation. New York Times. Disponible en https://www.nytimes.com/2023/05/25/technology/ai-hiring-law-new-york.html?smid=li-share.

Luger, G. (2009). Artificial intelligence: structures and strategies for complex problem solving. Boston. Pearson/Addison Wesley.

Marino, D. y Monaca, M. (eds.) (2020). Economic and Policy Implications of Artificial Intelligence. Cham. Springer.

McCorduck, P. (2004). Machines who think: A personal inquiry into the history and prospects of artificial intelligence. Natick (Massachusetts). A K Peters Ltd.

McCulloch, W. y Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, Vol. V, 115-133.

Naciones Unidas, Asamblea General (25 de abril de 2023). Nuestra Agenda Común. Informe de políticas núm. 5: un Pacto Digital Global – un futuro digital abierto, libre y seguro para todas las personas: Informe del Secretario General, A/77/CRP.1/Add.4

Naciones UNidas Medio Ambiente (2018). El Enfoque Integrado para el Desarrollo Sostenible y la Dimensión Ambiental en los Informes Nacionales Voluntarios sobre la implementación de la Agenda 2030 presentados por países de América Latina y el Caribe (2016-2017). Ciudad de Panamá. Programa de las Naciones Unidas para el Medio Ambiente.

Rouhiainen, L. (2018). Inteligencia artificial. 101 cosas que debes saber hoy sobre nuestro futuro. Barcelona. Planeta.

Sætra, H. S. (2022). AI for the Sustainable Development Goals. Boca Raton: CRC Press.

Sætra, H. S. (2021). AI in Context and the Sustainable Development Goals: Factoring in the Unsustainability of the Sociotechnical System. Sustainability, 13, 1738. Disponible en https://doi.org/10.3390/su13041738.

Shelly, M. (2007). El último hombre. Barcelona. El Cobre Ediciones.

Shelly, M. (2013). Frankenstein o el moderno Prometeo. Madrid. Plutón.

Sneed, A. (2016). Computer Beats Go Champion for the First Time. Scientific American. Disponible en https://www.scientificamerican.com/article/computer-beats-go-champion-for-first-time/

Strubell, E.; Ganesh, A. y McCallum, A. (2019, julio). Energy and Policy Considerations for Deep Learning in NLP. 57th Annual Meeting of the Association for Computational Linguistics (ACL). Florencia, Italia. Disponible en https://doi.org/10.48550/arXiv.1906.02243.

Truby, J. (2020). Governing Artificial Intelligence to benefit the UN Sustainable Development Goals. Sustainable Development, 28: 946-959. Disponible en https://doi.org/10.1002/sd.2048.

Turing, A. (1950). Computing Machinery and Intelligence. Mind, LIX, 236: 433-460.

van Wynsberghe, A. (2021). Sustainable AI: AI for sustainability and the sustainability of AI. AI and Ethics, 1: 213-218. Disponible en https://doi.org/10.1007/s43681-021-00043-6.

Vinuesa, R.; Azizpour, H.; Leite, i. Balaam, M.; Dignum, V.; Domisch, S.; Felländer, A.; Langhans, S.; Tegmark, M. y Fuso Nerini, F. (2020) The role of artificial intelligence in achieving the Sustainable Development Goals. Nature Communications, 11, 233. Disponible en https://doi.org/10.1038/s41467-019-14108-y.

Yusa, I. M. M.; Yu, Y. y Sovhyra, T. (2022). Reflections on the use of artificial intelligence in works of art. Journal of Aesthetics, Design, and Art Management, 2, 152-167. Disponible en https://tinyurl.com/4jjk3yat.


  1. Professor John McCarthy. Father of AI. http://jmc.stanford.edu/artificial-intelligence/what-is-ai/index.html.
  2. Puede escucharlo en https://soundcloud.com/user-95265362/ode-to-dubai.
  3. Disponible en https://www.rightsoffuturegenerations.org/the-principles/espa%C3%B1ol.
  4. ​​Texto completo disponible en https://dialektika.org/2023/03/30/carta-abierta-sobre-inteligencia-artificial-pongamos-pausa-experimentos/.
  5. https://ai4good.org/about-us/.


Deja un comentario