En la ONU, en Ginebra, Mons. Putzer intervinó durante una sesión sobre armamentismo para lanzar la propuesta del Vaticano de crear un ente internacional que oriente la tecnología militar más avanzada hacia el desarrollo de sistemas útiles para el “bien común de toda la familia humana”.

Por Alessandro De Carolis / Vatican News

Robots soldados entrenados para identificar objetivos a derribar y abrir fuego sin que ningún ser humano maneje la acción. La ciencia ficción más inquietante es hoy una realidad que se desarrolla rápidamente en el campo militar, mucho más allá de los drones dirigidos por humanos. El acrónimo en inglés que identifica a estos dispositivos, LAWS (Lethal Autonomous Weapon Systems), o sea “leyes”, suena casi paradójico, porque es precisamente la ausencia de una legislación clara lo que ha llevado a la Santa Sede a tomar una posición sobre el tema y proponer invertir el rumbo hacia un uso compartido de la inteligencia artificial entre Estados pero con fines totalmente pacíficos y no militares.

Desarme general

Las preocupaciones e ideas de la Santa Sede fueron expresadas por Monseñor John D. Putzer, encargado de negocios ad interim en la Misión Permanente de Observación de la Santa Sede ante la ONU en Ginebra y jefe de delegación en la sexta Conferencia de Revisión de la “Convención sobre la prohibición o limitación del uso de algunas armas convencionales que puedan considerarse dañinas o con efectos indiscriminados”.

La discusión sobre las LAWS fue considerada inadecuada por el representante del Vaticano, quien recordó a las partes presentes en la reunión, tanto la voluntad ya declarada por todos de hacer esfuerzos “hacia el desarme general y completo bajo un control internacional riguroso y efectivo”, como la necesidad de “continuar la codificación y el desarrollo progresivo de normas de derecho internacional aplicables en los conflictos armados”.

LAWS y control humano

Debido a su fisonomía, los robots-soldados plantean, dijo Monseñor Putzer, “preocupaciones éticas y legales”. Por lo tanto, desde el punto de vista de la Santa Sede, dijo, “es imperativo garantizar una supervisión humana adecuada, significativa y consistente sobre los sistemas de armas”, porque “solo los seres humanos pueden ver los resultados de sus acciones y comprender las conexiones entre causa y efecto”, mientras que las LAWS, enfatizó, “nunca podrían entender el significado de sus acciones”.

En primer lugar, el delegado vaticano pidió que se introduzcan “condiciones suficientes” para “preservar los principios éticos antes mencionados y asegurar el cumplimiento del derecho internacional humanitario”. En segundo lugar, que sea siempre la persona humana quien “guíe la investigación, el desarrollo y el uso de los sistemas de armas, incluso en ausencia de normas legales específicas, como lo implica la “cláusula de Martens” (la norma según la cual los civiles y los combatientes en un conflicto están protegidos por los derechos vigentes en el momento y lugar en cuestión y por los principios humanitarios dictados por la conciencia pública). En tercer lugar, que un sistema de armas no puede “contradecir lo que la autoridad humana ha prescrito como el objetivo principal o el resultado de su intervención”, por lo tanto, sus “comportamientos” están siempre bajo el control humano.

Tecnología para el bien de todos

Y aquí Monseñor Putzer expresó la esperanza de que, además de establecer mientras tanto “una moratoria” sobre el desarrollo y uso de los LAWS, las naciones consideren “la creación de una organización internacional de inteligencia artificial, para facilitar y garantizar el derecho de todos los Estados a participar en un intercambio lo más completo posible de informaciones científicas y tecnológicas para usos pacíficos y para el bien común de toda la familia humana”. Una opción aún más fuerte, afirmó, “en medio de la pandemia global” que exige “poner las tecnologías emergentes” al servicio del “desarrollo humano integral” y sus necesidades actuales.

Publicado en la edición semanal impresa de El Observador del 2 de enero de 2022 No. 1382

Por favor, síguenos y comparte: