El Papa Francisco advierte sobre los riesgos de la IA

Josué Navarrete | [email protected]

En una histórica intervención ante los líderes del Grupo de los Siete (G7) en su cumbre anual en Bari, Italia, el pontífice se convirtió en el primer Papa en asistir a esta reunión de las principales economías mundiales.

En un momento en que la inteligencia artificial (IA) está transformando rápidamente el panorama tecnológico, el Papa Francisco ha alzado su voz moral para exigir un enfoque ético en el desarrollo y uso de esta poderosa tecnología.

El Papa Francisco desafió a los líderes de las democracias más ricas del mundo a mantener la dignidad humana como prioridad al desarrollar y utilizar la IA. Advirtió que esta tecnología podría convertir las relaciones humanas en meros algoritmos si no se establecen límites éticos adecuados.  En un discurso cargado de autoridad moral, instó a los políticos a asumir un papel de liderazgo para garantizar que la IA siga siendo centrada en el ser humano.

Preservar la Autonomía Humana
Según el Papa, condenar a la humanidad a un futuro sin esperanza sería quitarle a las personas la capacidad de tomar decisiones sobre sí mismas y sus vidas, condenándolas a depender de las elecciones de las máquinas. Enfatizó la necesidad de preservar un espacio para el control humano adecuado sobre las decisiones tomadas por los programas de IA, ya que la dignidad humana depende de ello.

El llamado del Papa se suma a un coro global de países y organismos internacionales que exigen mayores salvaguardas para la IA, impulsado por el auge de la IA generativa desencadenado por el chatbot ChatGPT de OpenAI.

En su mensaje anual por la paz de este año, el pontífice argentino pidió un tratado internacional para garantizar que la IA se desarrolle y utilice de manera ética.

Prohibición de armas autónomas letales
En su discurso, el Papa Francisco no repitió explícitamente su llamado a un tratado internacional, pero dejó claro que la responsabilidad recae en los políticos para liderar este tema. Además, instó a prohibir el uso de armas autónomas letales, conocidas coloquialmente como “robots asesinos”, afirmando que ninguna máquina debería decidir quitarle la vida a un ser humano.

La presencia del Papa Francisco en la cumbre del G7 generó un impacto significativo, ya que los líderes presentes parecían estar debidamente impresionados por su autoridad moral y su estrellato. El zumbido ruidoso en la sala se silenció por completo cuando el pontífice llegó, demostrando el respeto y la atención que su figura inspiraba.

Ética y Humanidad en la Tecnología
En su discurso, el Papa subrayó que hablar de tecnología es hablar de lo que significa ser humano y, por lo tanto, de nuestra singular condición de seres que poseen libertad y responsabilidad. Esto implica abordar cuestiones éticas y garantizar que la IA no socave los derechos humanos fundamentales, promueva la paz y evite la desinformación, la discriminación y la distorsión.

Los miembros del G7 se encuentran a la vanguardia del debate sobre la supervisión de la IA. Japón lanzó el proceso de Hiroshima para elaborar principios rectores internacionales y un código de conducta para los desarrolladores de IA.  La Unión Europea fue una de las primeras en actuar con su amplia Ley de IA, que entrará en vigor en los próximos dos años y podría convertirse en un modelo global.

Estados Unidos, por su parte, ha emitido una orden ejecutiva sobre salvaguardas de IA y ha pedido una legislación para fortalecerla, mientras que algunos estados han intentado aprobar sus propias leyes de IA.  Reino Unido, Francia y las Naciones Unidas también han contribuido a este diálogo global. Además de su discurso sobre IA, el Papa Francisco tuvo un día completo de reuniones bilaterales en los márgenes de la cumbre del G7. Se reunió con el presidente ucraniano Volodymyr Zelenskyy y líderes invitados de Argelia, Brasil, India, Kenia y Turquía, así como con miembros del G7, incluidos los presidentes de Estados Unidos, Canadá y Francia.

El Papa enfatizó la necesidad imperiosa de garantizar una supervisión humana adecuada, significativa y coherente de los sistemas de armas. Sus palabras resuenan como un llamado a la reflexión sobre el papel de la inteligencia artificial en los conflictos armados y la preservación de la dignidad humana.

El Incidente que Evitó una Catástrofe Nuclear
Para comprender la importancia del factor humano en situaciones críticas, debemos remontarnos a un episodio ocurrido hace cuatro décadas, que se ha convertido en un paradigma al hablar de inteligencia artificial aplicada a la guerra y las armas.

La noche del 26 de septiembre de 1983, en plena Guerra Fría, el teniente coronel soviético Stanislav Yevgrafovich Petrov estaba de guardia en el búnker “Serpukhov 15”, monitoreando las actividades de misiles estadounidenses. En ese momento, la tensión entre las superpotencias era crítica, con el presidente Reagan invirtiendo grandes sumas en armamento y describiendo a la URSS como un “imperio del mal”, mientras que la OTAN realizaba ejercicios militares simulando escenarios de guerra nuclear.

El desafío a los Protocolos
Esa noche, el sistema informático Oko, considerado infalible para monitorear actividades enemigas, detectó el lanzamiento de un misil desde una base en Montana dirigido hacia la Unión Soviética. El protocolo dictaba que Petrov debía notificar de inmediato a sus superiores, quienes darían luz verde para un lanzamiento de misiles de represalia hacia Estados Unidos. Sin embargo, Petrov dudó, recordando que un ataque potencial probablemente sería masivo. Consideró la alerta como falsa y tomó la misma decisión para los siguientes cuatro misiles que aparecieron en sus monitores, preguntándose por qué no había confirmación del radar terrestre.  Sabía que los misiles intercontinentales tardaban menos de media hora en llegar a su destino, pero decidió no activar la alarma, sorprendiendo al personal militar presente.

La Inteligencia Humana Prevalece
En realidad, el “cerebro electrónico” estaba equivocado; no hubo ataque de misiles. Oko había sido engañado por un fenómeno de refracción de la luz solar en contacto con nubes de gran altitud. En resumen, la inteligencia humana había visto más allá que la máquina.  La decisión providencial de no tomar medidas fue tomada por un hombre, cuyo juicio pudo mirar más allá de los datos y protocolos.

Se evitó una catástrofe nuclear, aunque nadie supo del incidente hasta principios de la década de 1990. Petrov, quien falleció en septiembre de 2017, comentó sobre aquella noche en el búnker “Serpukhov 15”: “¿Qué hice? Nada especial, solo mi trabajo. Estaba en el lugar correcto en el momento correcto”.

Josué Navarrete | [email protected]