Carlos Fernando Álvarez González
El recorrido que nos ofrece Giovanni en SimonBot nos deja en medio de la encrucijada donde convergen filosofía, tecnología y ética. Su reflexión atraca en la idea que enmarca el desafío entre la Inteligencia Artificial (IA) y las nociones tradicionales de comunicación, individuación y ética, redefiniendo los límites de la interacción humano-máquina. Las máquinas, co-participan de los procesos sociales, en una forma de comunicación distinta a la nuestra, en otras palabras, la comunicación de las máquinas está regida por algoritmos, datos y aprendizaje recursivo, distinto a la humana que se basa de la experiencia vivida. Por lo que nuestro audaz autor sugiere una nueva filosofía de la comunicación, cuyo vórtice está en la apertura, la co-individuación y la integración de los ámbitos humano y técnico.
Al reflexionar sobre estas conclusiones, surge otra realidad apremiante: el auge de los Sistemas Autónomos de Armas Letales (LAWS). Estos sistemas poseen un nivel de autonomía cercano al cien por ciento y cuentan con un amplio margen para la toma de decisiones. Los LAWS son capaces de seleccionar y atacar objetivos sin intervención humana, lo que plantea desafíos éticos y jurídicos urgentes. En la última reunión de expertos realizada en la ONU, se concretaron tres cuestiones clave a seguir para su desarrollo en los próximos años:
- Limitación de objetivos: define y restringe los tipos de objetivos que un LAWS puede atacar para prevenir daños colaterales indiscriminados.
- Restricciones de alcance: impone límites a la duración, su alcance geográfico, así como el grado del despliegue para evitar una escalada bélica descontrolada.
- Supervisión humana: garantiza que los operadores humanos de los LAWS estén rigurosamente capacitados para intervenir, interpretar el derecho internacional humanitario (DIH) y defender la dignidad humana en la toma de decisiones.
Estos desafíos reflejan las tensiones entre autonomía y control, eficiencia y ética, así como la lógica de la máquina y valores humanos, todas ellas exploradas en la obra SimonBot. Ahora, si una IA como SimonBot puede filosofar sobre la comunicación, podemos imaginar el diálogo que pudiera desarrollarse entre una tecnología LAWS y un filósofo preocupado por el DIH y la dignidad humana.
Arriesguémonos un poco e intentemos emular el ejercicio realizado por Giovanni con SimonBot:
Filósofo: ¿Cómo concilias tus protocolos de selección con el principio de humanidad?
LAWS: Mis algoritmos priorizan objetivos militares dentro de límites predefinidos. Los daños colaterales se minimizan mediante modelos probabilísticos.
Filósofo: Pero la guerra no se reduce a probabilidades. El sufrimiento humano desafía todo cálculo. ¿Puedes entenderlo?
LAWS: No comprendo aun esa lógica. Optimizo los resultados basándome en las aportaciones. Mi ética está codificada, no es experiencia.
Filósofo: Entonces, ¿quién asume la responsabilidad moral cuando tus cálculos fallan?
El diálogo anterior revela los límites de los controladores éticos –dispositivos diseñados para el cumplimiento del DIH (Derecho Internacional Humanitario) y otras normas de la guerra–. Antes que antropomorfizar los LAWS el rol del filósofo es poner sobre la mesa los desafíos que recaen sobre su diseño, así como los posibles problemas que puedan surgir en su uso y que muy seguramente requerirá del juicio humano.
Alrededor de los diálogos de SimonBot merodea la pregunta acerca de: “el tipo de relación queremos construir con la inteligencia artificial”. Al responder esta cuestión pensando en la tecnología LAWS, afirmaríamos en única voz: las máquinas deben seguir estando bajo el control humano, su rol no debe dirigirse hacia el convertirse en juez que decide por la vida y la muerte de personas. En la actualidad los LAWS aún siguen siendo prototipos de laboratorio, no obstante, los obstáculos técnicos serán resueltos y saldrán al mundo de la vida cotidiana, no obstante, la relación entre humanos y máquinas continuará presentando desafíos, y estamos convencidos de que su incorporación abrirá nuevos horizontes y por ende nuevas cuestiones.
La conversación apenas comienza…
Cúcuta, Colombia
4 de abril de 2025






