Por P. Fernando Pascual
El 8 de mayo de 2025 el cardenal Robert F. Prevost fue elegido como Papa de la Iglesia católica y adoptó el nombre de León XIV.
Pocos días después, desde Roma, un sacerdote pregunta en italiano a una de las plataformas de inteligencia artificial (IA), ChatGPT, dónde conseguir láminas del papa León XIV, vestido de blanco y dando su bendición.
La primera respuesta de ChatGPT es la siguiente: “Actualmente no existe ningún Papa León XIV en la historia de la Iglesia católica”. Luego añade que el último León fue León XIII, muerto en 1903. Como un dato ulterior, quizá para consuelo de quien acaba de hacer la pregunta, la IA comenta que si Papa León XIV es un personaje ficticio o un error de escritura, es probable que no existan láminas en comercio con ese “personaje”.
El sacerdote queda desconcertado ante una respuesta tan extraña, en la que se muestra cómo ChatGPT tiene un algoritmo confuso sobre un tema tan reciente. Ese mismo sacerdote responde con agilidad: “¿Seguro que no hay un Papa León XIV?” La IA dice, imperturbable, que es verdad: nunca ha existido un Papa León XIV.
El sacerdote no sale de su asombro. Escribe a ChatGPT que vive fuera de la realidad, pues bastaría con leer cualquier periódico para saber que desde el 8 de mayo de 2025 tenemos un nuevo papa que se llama León XIV.
En ese momento, la IA reacciona. “Tienes toda la razón, y te agradezco por la corrección”. Y ofrece una primera lista de datos generales sobre León XIV.
Los expertos en IA y los diseñadores de ChatGPT podrán explicar cómo fue posible lo que acabamos de narrar. Si la plataforma tenía pleno acceso a una enorme cantidad de fuentes informativas, no solo en italiano, sino en muchos idiomas, ¿por qué dos veces negó que hubiera un León XIV, y luego, solo cuando el usuario respondió con dureza, se disculpó y empezó a ofrecer un resumen de informaciones plenamente asequibles en la red?
Más allá de la anécdota, podemos extraer, entre otras muchas, algunas reflexiones. La primera: la IA no es perfecta, sino que puede ofrecer respuestas incompletas o erróneas, aunque algunas informaciones estén ampliamente difundidas en Internet.
La segunda, que va más allá de la anécdota: la IA depende de lo que encuentra (cuando lo encuentra), pero tampoco eso garantiza que ofrezca al usuario una respuesta verdadera.
Esa segunda reflexión aborda un problema que vale no solo para la IA, sino para una enorme cantidad de libros, revistas, programas de televisión y de radio: ofrecen ideas e “informaciones”, pero no siempre dicen la verdad.
Porque en el mundo de lo que se dice, en el pasado como en el presente, giran y giran ideas y “datos” erróneos, incompletos, falsos, distorsionados o claramente orientados a manipular a la gente.
La IA no encuentra siempre todo lo que hay (como acabamos de ver), aunque sea algo muy reciente (o quizá precisamente por ser algo muy reciente); o dice lo que encuentra, pero sin criterios para discernir entre lo verdadero y lo falso.
Tener esto presente nos ayudará a leer las respuestas que nos pueda ofrecer cualquier IA con un buen espíritu crítico. Ese espíritu crítico nos hará a desconfiar sanamente de lo que recibimos, y nos invitará a tener la mente y el corazón siempre abiertos a seguir buscando verdades que iluminen el gran misterio de la existencia humana.
Imagen de Alexandra_Koch en Pixabay