Leandro Sequeiros nos envía esta información, traída de La Civiltá Catolica sobre el problema de la ética en una sociedad guiada cada vez más por técnica y algoritmos más o menos anónimos. Por ahí hay mucho que dialogar y para ello valdrá la pena sostener plataformas como ATRIO y otras muchas. Hay que defender valores sin ser fundamentalista o rigoristas. AD
El 10 de enero de 2023, tres representantes de las tres religiones abrahámicas firmaron, en la Casina Pío IV en el Vaticano, la Rome Call for AI Ethics. Se trata de un documento nacido por iniciativa de la Pontificia Academia para la Vida (PAV) para promover una «algorética», es decir, un desarrollo ético de la inteligencia artificial.
Los participantes del evento fueron recibidos en audiencia por el Papa Francisco, quien – recordando la encíclica Fratelli tutti – señaló que la fraternidad debía ser la «condición para que el desarrollo tecnológico esté al servicio de la justicia y de la paz en todo el mundo». El Pontífice ha destacado, con un ejemplo relacionado a las demandas de asilo, la urgencia de la reflexión y de la atención política que requiere este tema: «No es aceptable que las decisiones sobre la vida y el destino de un ser humano sean confiadas a un algoritmo».
Junto con el Gran Rabino Eliezer Simha Weisz (miembro del Consejo del Gran Rabinato de Israel) y el Jeque Al Mahfoudh Bin Bayyah (Secretario General del Foro de la Paz de Abu Dhabi), el documento fue firmado también por el Presidente de la PAV, Monseñor Vincenzo Paglia, quien, en una entrevista concedida a Vatican News, anticipó que el Rome Call será firmado también el próximo verano, en Japón, por las demás grandes religiones mundiales.
¿Qué es la «Rome Call for AI Ethics»?
La Rome Call for AI Ethics es un documento firmado por primera vez en Roma el 28 de febrero de 2020 por la Pontificia Academia para la Vida, Microsoft, IBM, la FAO y el Ministerio de Innovación, en representación del Gobierno italiano. El texto no es ni una declaración conjunta, ni un acuerdo, ni un tratado. La idea subyacente es promover un sentido de responsabilidad compartida entre organizaciones internacionales, gobiernos, instituciones y el sector privado en un intento de crear un futuro en el que la innovación digital y el progreso tecnológico garanticen a la humanidad su centralidad.
Como explicó el P. Carlo Casalone en aquella ocasión, el documento se desarrolla siguiendo tres líneas principales. La primera es la ética, que recuerda el marco de valores fundamentales subyacente a la Declaración Universal de los Derechos Humanos. La segunda directriz destaca la importancia de la educación de las nuevas generaciones, que estará profundamente marcada por la disponibilidad de nuevos recursos tecnológicos, a los que debe garantizarse un acceso sin desigualdades. La última directriz es la del derecho, en la que emerge la necesidad de traducir los principios enunciados en normativas eficaces y precisas, mediante un enfoque ético que acompañe cada etapa del ciclo de producción de las tecnologías, desde el principio.
El contexto: las inversiones de las «big tech» y las cuestiones de responsabilidad y desigualdad
Desde hace algún tiempo, los términos «metaverso», «algoritmo» y «blockchain» aparecen en las ocasiones y los contextos más diversos. El metaverso, en particular, ha sido objeto en los últimos años de enormes inversiones por las mayores empresas del sector digital – 70.000 millones de dólares (Microsoft); 10.000 millones (Facebook-Meta); 1.600 millones (Unity Software); 39,5 millones (Google-Alphabet) – para desarrollar la tecnología que lo haría posible. Lo que está en juego es enorme.
En lo que respecta a la inteligencia artificial, dos temas de gran preocupación, y que por tanto constituyen también dos retos prioritarios para los firmantes del Rome Call, son el de la responsabilidad y el de la desigualdad. La afirmación de Virginia Eubanks, citada en un artículo del P. Antonio Spadaro y Paul Twomey, lo sintetiza con claridad: «La inteligencia artificial tiene la capacidad de modelar las decisiones de los individuos sin que estos ni siquiera lo sepan, dando a quienes tienen el control de los algoritmos una posición abusiva de poder».
El quid de la cuestión es el papel del ser humano dentro del algoritmo: este debe ser necesariamente responsable del producto al que conduce la toma de decisiones algorítmica. En efecto, aparte de las cuestiones pertinentes de accesibilidad, no basta con centrarse únicamente en la responsabilidad y la educación del usuario final para el uso correcto de los sistemas digitales. Del mismo modo que no basta con confiar en la sensibilidad moral de quienes investigan y diseñan algoritmos.
Porque, concretamente, lo que está ocurriendo es que algunas aplicaciones de aprendizaje profundo están empezando a socavar los límites de la responsabilidad humana. Desde los coches autoconducidos a las aplicaciones de social scoring, pasando por las que predicen la reincidencia de delitos o los programas capaces de gestionar sistemas de armamento y aparatos militares enteros, la gran pregunta es: ¿podemos realmente dejar en manos de una inteligencia artificial decisiones de las que puede depender la vida de una persona o de pueblos enteros? Y entonces, en cualquier caso, ¿de quién será la responsabilidad de esa decisión «inteligente»?
Por eso, en los últimos años, ha crecido la exigencia a los gobiernos por parte de técnicos y científicos autorizados, por sindicatos, por la sociedad civil y por las propias empresas tecnológicas, de que intervengan para que los valores humanos estén controlados y presentes en el desarrollo de la IA.
Existe, y parece estar en fase avanzada de aprobación, un proyecto de reglamento de la UE sobre inteligencia artificial de abril de 2021. El entonces Presidente del Parlamento Europeo, David Sassoli, fallecido hace un año, dio un importante impulso al proyecto. Con ocasión de la firma del Rome Call Sassoli había afirmado claramente que «necesitamos normas capaces de combinar el progreso tecnológico, el desarrollo empresarial, la protección de los trabajadores y las personas y la democracia».
El caso ChatGPT
Mucho se ha hablado en las últimas semanas de la primera gran aplicación de inteligencia artificial al alcance de todos en internet, ChatGpt, un nuevo modelo de chatbot – una máquina que sabe responder a preguntas planteadas por humanos – creado por OpenAi, una fundación nacida en 2015 por inversores de Silicon Valley, entre ellos Elon Musk. ChatGpt es capaz de entender el lenguaje humano y mantener conversaciones incluso muy complejas. Se basa en muestras de texto tomadas de Internet.
Nosotros también quisimos probar ChatGPT sobre el tema del discernimiento y los Ejercicios Espirituales de San Ignacio. En nuestra «conversación», en un momento dado le preguntamos si discernía lo que era mejor escribir antes de responder a una pregunta. Explicó que «como modelo de inteligencia artificial, no tengo la capacidad de “decidir” o “discernir” lo que es mejor escribir. Funciono siguiendo un algoritmo de aprendizaje automático que me permite generar respuestas a preguntas basadas en los datos con los que he sido entrenado… Pero no tengo “conciencia” y no tengo la capacidad de evaluar el bien y el mal, no tengo intencionalidad real en mis outputs, sólo una salida procesada a través de un algoritmo». Todo el desafío ético está aquí.
Amigo Antonio Ll., la cuestión no se trata solo de si a medio plazo, (30-50 años), puede haber una I.A. “fuerte”, que sea más inteligente que el humano, sino el presente, y el futuro cercano, (5-10 años).
El ChatGPT, es un prototipo inicial, que ya tiene unas posibilidades inimaginables, hace muy poquito. Y es solo el inicio. De entrada ha superado plenamente el famoso test de Turing, para poder distinguir un robot de un humano.
En el artículo “ChatGPT eres tú”, de Javier Tebas Llanas, https://www.vozpopuli.com/altavoz/cultura/chatgpt-eres-tu.html explica sus experiencias personales utilizándolo.
Explica que es como un alter ego del usuario. Inicialmente explica las cosas de forma sencilla, (tipo Wikipedia), pero a nuestras objeciones, o contraargumentos, va entrando en más detalles, paulatinamente, adaptándose a las ideas vertidas por el usuario.
Me ha recordado mucho a la misteriosa, (para mí, pero ignorada por la mayoría), frase evangélica que se atribuye a Jesús, sobre la voz del Espíritu”, del Evangelio de Juan (16,13):
“Cuando venga el Espíritu de la verdad, os guiará hasta la verdad completa, PERO NO HABLARÁ POR SU CUENTA, SINO QUE HABLARÁ DE LO QUE OIGA, y os anunciará lo que ha de venir”.
No estoy diciendo que esta I.A., sea el “Espíritu”, sino que hay una regla básica de comunicación, por la que cuando se comunica uno con alguien, se debe adaptar al nivel del oyente.
(Y quizás esa sea la explicación de la también frase evangélica, de que al que tiene se le dará, y al que no tiene hasta lo poco que tiene, se le quitará, y que yo creo que se refiere a la gnosis).
De eso viene el título del artículo, “El ChatGPT, eres tú”, pues es como un reflejo del usuario. Y tampoco es nada extraordinario, pues eso sucede con todos los mecanismos del saber. La misma Internet, hay quien la utiliza para jugar a las maquinitas o relaciones en redes sociales, y otros, también para aprender y saber más cosas.
Quería señalar que este algoritmo de I.A., que procesa ideas y no palabras, me ha recordado mucho a la idea del gran Ramon Llull, que diseñó, una serie de grandes ruedas dentadas, en las que se colocaban toda una serie de proposiciones – ideas, que luego iba relacionando entre sí, con lo que se pretendía crear una máquina de pensamiento automático.
Estos nuevos algoritmos de IA, son grandes palancas instrumentales, para potenciar enormemente la creatividad del pensador, con lo cual, es previsible, que se potencie enormemente la capacidad humana de acercamiento a la realidad, y la disminución de creencias erróneas que aún nos aflige.
Por supuesto que va a generar un gran terremoto en el mundo laboral, pero también en el mundo cultural, como ya ha supuesto su hermana menor, la Internet primitiva. (Se habla de un impacto similar, pero mucho más amplificado, que la invención de la imprenta y la proliferación de libros).
Pues ahora, en medio de la gran diversidad de pensamiento, y tanta confusión, florecen los que aseguran contar con la Verdad, (ya porque el “Espíritu” se la cuenta a ellos solos, o porque son más listos o más buenos que los demás, según su opinión, claro).
El mundo de las ideas, fuera del mundo científico, está dominado por una serie de gurús y nigromantes, con gran poder mediático y grandes altavoces, que intentan vender su monopolio de la verdad, y se permiten el lujo de intervenir en todos los temas posibles, apoyados en una autoridad, que solo ellos se han autoadjudicados.
Cuánto más sepamos la gente corriente, a menos incautos, confundirán.
Lástima que nosotros no veremos el futuro. Pero por lo que ya vamos atisbando, a la Humanidad, no la va a reconocer, “ni la madre que la parió”.
(Un cariñoso saludo a Honorio. Aquí, muchos ya pertenecemos al glorioso Club de cojos, impedidos, cogidos con alfileres, y demás, pero gente como tú, Honorio, y Leandro, y otros, son todo un referente, para que no dejemos de pensar y “dar guerra”).
Solo decirte una cosa Isidoro.
Está por ver si esa ChatGPT ha pasado la prueba de Turing de verdad o no. Ha habido muchos anuncios de máquinas que la habrían pasado pero luego resultó que no era estrictamente así.
Pero es que la prueba de turing en si misma no indica nada, decía Evan Ackerman:
La prueba de Turing no demuestra que un programa sea capaz de pensar. Más bien indica si un programa puede engañar a un ser humano. Y los seres humanos somos realmente tontos.
¿Qué sería necesario para encontrar I.A. real? pues según el profesor Alfonseca, que además de pasar la prueba de Turing, hace falta que la máquina sea capaz de comprender lo que lee y lo que escribe y que sea consciente de la situación y eso está hoy en día muy lejos de la capacidad de cualquier máquina incluida ChatGPT.
Eso no quiere decir que la irrupción de esos “metaversos” sea inocua. En Absoluto.
Pero hay cosas que me preocupamn mucho más, con los pies en el suelo, que el despertar de una “Skynet” (Friky referencia a “Terminator”) que haga que las máquinas traten de dominar al hombre:
La primera será la enésima revolución industrial. Ese tipo de red va a eliminar muchos puestos de trabajo, igual que hizo internet e igual que hicieron la primera, segund ay tercera revolución industrial.
Sí. Es verdad que creará puestos nuevos; pero la experiencia lleva a pensar que el balance no será positivo. Y esto acabará en una tendencia a limitar el crecimiento demográfico mundial (Ya están algunos Ecologetas gritando que somos demasiados y que los recursos escasean) y la promoción de soluciones moralmente muy discutibles como el aborto, la eutanasia o la selección artificial de los nacidos. Es decir Orwell y 1984.
Tambien es verdad que el uso de estas redes es muy difícil de controlar (Aunque control no es la mejor palabra en este caso) y se va a tender a su uso sin control moral o ético. Ya internet está plagadito de páginas porno y seguro que no fue creado para eso pero la gran tajada del negocio web está ahí.
Sin un criterio moral o ético yo sí creo posible una “Matrix” (Nueva friki referencia) o un “Días Extraños” (Peli “de culto”. una distopia inicialmente ubicada en el 2021 y donde la escasez alimentaria y este tipo de redes manipuladoras hace que funcionen como una droga que es imposible de evitar para los humanos)
Yo, a diferencia de otro comentario anterior, no entiendo que existan desarrollos tecnológicos objetivamente malos u objetivamente buenos. El ejemplo puesto de las armas nucleareses ralmente malvado pero puede ser usado para el bien, por ejemplo para desviar un hipotético meteorito que llegara a la tierra (No. No estoy desvariando. Ya se ha probado este año la tecnología para poner en el meteorito el artefacto nuclear).
Pero sí que creo que hasta el más pequño desarrollo tecnológico puede ser usado de forma malvada y que por lo tanto, la batalla está en el componente ético y/o moral de los desarrollos tecnológicos.
Si dejamos “El Poder” en manos de las corporaciones económicas que ya han demostrado estar desprovistas de ese componente ético/moral el futuro será desgraciado para la Humanidad.
Pero no soy pesimista. Cristo demostró que un solo hombre puede cambiar el mundo, así que la cuesrtión es ¿Antonio, qué haces tú para arreglarlo? Porque todos podemos arreglarlo, aunque sea un poquito.
Los temas que plantean son interesantes, pero tb hay otros dos que yo voy a tratar del uso que se hace de nuestros datos en Twitter por el algoritmo.Estaba yo en Twitter comentando que unos científicos españoles han descubierto un elemento que con el tiempo podría solucionar el ELA o el càncer y decía yo que esto lo disfrutarán nuestros descendientes porque tiene que pasar por innumerables ensayos clínicos con animales y luego humanos.Como Twitter funciona por el correo ,cuál fue mi sorpresa que a los dos minutos me llama al móvil una aseguradora para venderme una póliza privada ,aseguradora que yo tenía en el spam del correo.Creo que el algoritmo de Twitter vende nuestros contenidos y nuestras preferencias, claro sin mi consentimiento.Hay un tráfico de información no muy ético.Segundo,el algoritmo de Twitter suspende cuentas críticas,incómodas o…con que se produzca una avalancha de denuncias de personas concertadas.Yo creo que aquí en Twitter tbja menos gente que el tato en esto del control de las cuentas que se suspenden .Elon Musk hizo en Twitter un referéndum de si se devolvían si no habían sido cuentas especialmente tóxicas…Salió abrumadoramente que se repusieron…Que hizo Elon Musk no las repuso…En fin, Twitter es un negocio privado pésimamente controlado moralmente tb si tenemos en cuenta que desde que lo dirige el “marciano” Elon Musk han aumentado exponencialmente los ataques machistas y homófobos diarios…Yo creo que estás instituciones por muy privadas que sean deberían tener un control regulador ajeno…
Es increible la cantidad de cosas de las que uno tendría que saber algo para tratar de saber algo de Dios y del futuro del hombre y de la mujer.
Sobre este tema, del que yo, por muy ingeniero que sea no tengo ni fruta idea, os recomienfo un blog muy interesante. Se llama “Divulgación de la Ciencia” y está creado y es el único autor de los artículos por el profesor manuel Alfonseca que es profesor honorífico, precisamente, de Lenguajes y Sistemas Informáticos en la Universidad Autonoma y experto e investigador en Inteligencia Artificial.
Su linl es: https://divulciencia.blogspot.com/
Yo no entiendo mucho de esto (Soy Ingeniero pero de “voltios gordos”, es decir electricidad industrial y especializado en elevadores); pero él afirma (Y yo le creo) que hay dos tipos de IA, la debil y la fuerte.
A la que hay que tener miedo es a la fuerte y ésa no solo está muy muy lejos de llegar isno que él piensa que no será posible.
Les recomiendo ese blog. Es un autor muy interesado en temas religiosos y escribe mucho sobre la filosofçia de la ciencia y su relación con la religión.
Es un poco craca para mi gusto pero se aprende un rato d elo que ecribe y a fin de cuentas, siempre nos queda el discernimiento informado.
Intuyo que, a partir de la poquísima información que yo tengo, que, por otro lado, me desborda, la IA, como tantas cosas en la vida pueden suponer una inmensa ayuda a la inteligencia y a las necesidades humanas, pero, no menos, los inmensos problemas con el mal uso que se le dé a estas creaciones de la inteligencia natural, que pueden actuar al margen de lo humano y descontroladamente de forma maligna. precisamente por falta de conciencia. A mi, personalmente, me desborda y, por eso, no puedo aportar nada a este tema. Lo que sí me interesa es leer a quienes saben todo lo que encierra este “utensilio” que, como todos los utensilios pueden utilizarse, en este caso auto-utilizarse, para “actos” perversos o para lo mejor del progreso humano.
Gracias a quienes nos aportáis conocimiento de algo tan decisivo para la sociedad y, hasta para la humanidad en su conjunto.
Ni siquiera es así, Ana.
Una cosa es que un invento o hallazgo se use mal, y otra es que se cree deliberadamente para hacer el mal. Ejemplo: las armas nucleares, salvo que alguien piense que éstas no hacen el mal y sí el bien.
No en vano, los creadores y diseñadores de estos juececitos, u otros parecidos, llevan a sus hijos a escuelas donde no se usa la tecnología. Por algo será. Y es que tontos no son.
Besos.
Todo esto nos extingue, y en menos de dos generaciones.
Hay sobrados mimbres para advertirlo, pero se requiere un poco menos de miedo, y algo más d elucidez y de pensamiento crítico. He escrito algo de eso por aquí, y nadie ha entrado a refutar esto.
Estamos transfiriendo de la religión a la tecnología nuestra desesperanzada esperanza, y eso es “fetichismo cientificista”.
Lo mismo pasó en su día con las primeras feministas y las primeras ecologistas. Nadie les hizo caso hasta ya tarde y mal.
Por eso, aún seguimos en el patriarcado, y entramos en la 6ª extinción masiva sino en el colapso múltiple. ¿Pasará lo mismo con el fetichismo tecnológico? Desearía que no, pero temo que sí.
Por mi parte, uno de mis grandes proyectos vitales es impulsar una ecotecnología frente a toda esta barbarie.
Feliz finde a todas.
Nacho.
Pensaba yo el otro día, en la inevitable subjetividad del pensamiento humano, tergiversado primero por los efectos delirantes de nuestro débil equilibrio psicológico. Y segundo, por nuestros muchos errores cognitivos que arrastramos en una educación deficiente.
Todo esto da como resultado la normalización y universalización de la posverdad involuntaria, (que no tiene nada que ver con las fake news, de los estafadores ideológicos o económicos), y que es el origen de la diversidad y el pluralismo en el pensamiento humano.
Y naturalmente, el progreso tecnológico, también vendrá en nuestra ayuda en este terreno. De hecho algo tan simple y accesible cono la Wikipedia, ya nos evita cometer errores de apreciación burdos, por desconocimiento.
El futuro, que ya está aquí, nos servirá para disponer de un “buen amigo” y un lúcido consejero, al que exponerle nuestros problemas, con la seguridad de que tendrá un diagnóstico y una propuesta de solución, mucho mejores que los nuestros, pues muchas veces estamos “agobiados” y perplejos ante nuestros problemas personales.
Hoy mismo, sale la noticia, de que Microsoft, incorporará el software de ChatGpt, en el próximo Window 12, que estará al caer el año próximo.
Y eso en principio es una buenísima noticia. La simple posibilidad de mantener una conversación inteligente sobre los temas que nos interesan a cada uno, con una Inteligencia artificial, es algo, que va a ser un gran estímulo cognitivo para todos, y además un gran remedio contra la soledad intelectual.
Imaginemos, que no solamente podremos consultar quien es quien, o qué significa cada palabra. Sino que podamos exponer a Google, o Bing, o el que sea, una duda de pensamiento que tengamos, o una decisión difícil de tomar, de orden personal, o profesional. Y que te responda como un director espiritual o como un psicólogo sabio de cabecera.
No se vosotros, pero yo, echo mucho de menos, disponer de un grupo de amigos o conocidos, cerca de casa, con los que hablar de temas variados, fútbol, filosofía, música, tele, o problemática del ser humano, etc. En el fondo, Atrio, es un inicio limitado en esa dirección, y de ahí su carácter adictivo.
La situación me recuerda la serie “El pueblo”, en el que el simpático pastor de ovejas, empieza a contarle sus cosas a Siri, en el teléfono móvil. Al principio, cuando se entera de que no es una chica de verdad, se enfada y la llama mentirosa. Pero al final acaba soltándole sus rollos, y reconoce que era algo que necesitaba.
Claro que aquí entra el prejuicio antiempresarial de muchos, que dicen que quizás las empresas, pueden buscar más el beneficio económico que el respeto a la verdad.
Pero yo creo, que eso es un prejuicio ideológico. Las empresas buscan fundamentalmente nuestro dinero. Y saben que la única manera de vender es dar un producto bueno y útil a la sociedad.
Me preocuparía muchísimo más si quienes desarrollaran estos softwares, fueran fanáticos religiosos, que buscaran que nos metamos en su capillita, (por la salvación de nuestra alma), o fueran por ejemplo, profesores de Políticas de la Complutense, que buscarían que nos hiciésemos todos comunistas, (por la salvación de la humanidad).
El mundo cultural, (periódicos, tertulias, mundo político…), es una ingente masa de personas, que intenta comer el coco, y llevar al huerto al de al lado, (por el bien del de al lado, “naturalmente”).
La retórica proselitista está a la orden del día. Todo el mundo pretende que salves tu alma, o que seas un humano perfecto, (según los cánones del predicador, lógicamente).
Aquí, en cuestión de sospechas, nadie está libre de arbitrariedad, y de pensamiento subjetivo o posverdad. Pero yo cuando pongo en una balanza, los que quien salvarte, y los que quieren venderte algo, y quedarse con tu dinero, prefiero a estos últimos, la verdad. Me parecen menos peligrosos.
El “profesional” del “apostolado”, y del proselitismo, trata a los demás como niños, necesitados de tutela. Pero lo que tenemos que conseguir es facilitar la maduración personal de la gente, con su necesario equilibrio psicológico, y su buen desarrollo cognitivo: que se acerquen a la Verdad. Y ya encontrarán ellos el camino de su vida.