Добавить новость
ru24.net
World News in Spanish
Январь
2025
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

Asesor del Papa y la ONU en IA: «Debemos resistir la tentación de proyectar nuestras ideologías en las tecnologías»

0
Abc.es 
El hábito de la Tercera Orden Regular de San Francisco contrasta con el ordenador de última generación en el que escribe con rapidez mientras espera para la entrevista. Lejos de los estereotipos, la imagen resume a la perfección el mundo de Paolo Benanti (Roma, 1973): el fraile franciscano experto en inteligencia artificial (IA) y asesor en este campo del Papa Francisco, el Gobierno italiano y la ONU. El título de sus tesis doctoral en Teología Moral no deja lugar a dudas de ese complejo mundo que domina: 'El cyborg. Cuerpo y corporeidad en la era posthumana'. Acaba de publicar 'La era digital' (Ed. Encuentro) y está en Madrid para participar en un coloquio con la copresidenta del Comité Asesor de IA de la ONU , la española Carme Artigas , en la Fundación Pablo VI. —El algoritmo sirve para encontrar el candidato perfecto para un trabajo, la pareja ideal e incluso podría llegar a impartir justicia. ¿Nos está llevando a un neodeterminismo digital?   —Atención, esto no es un problema de la tecnología, sino de la ideología que tenemos sobre el ser humano. Entonces, ¿vemos al ser humano como alguien que puede ser sometido o como un ser libre, consciente y responsable? Porque si pensamos que el ser humano es una marioneta, veremos la tecnología como los hilos que lo controlan. Pero si pensamos que el ser humano está llamado a la libertad, esos hilos podrán incomodarle, pero tarde o temprano se los quitará de encima. Debemos resistir la tentación de proyectar nuestras ideologías en las tecnologías. —Desde la aparición de internet ha aflorado en su contra un 'neoludismo' que se ha agudizado con la IA. Se quiere acabar con ella por temor a que nos quite el trabajo o que se revuelva contra las personas de una forma irreversible. Algunos plantean parar ya su desarrollo. ¿Cómo valora este debate? —Un eticista sabe que si hay algo que la ética no es, es el reflejo del miedo. No hacemos ciertas cosas porque tenemos miedo, debemos hacerlas porque buscamos y deseamos el bien. Si pensamos que ser éticos, o incluso tener fe, significa dejarnos guiar por el miedo, estamos equivocándonos en ambas cosas. Es normal saber que podemos tener miedo al cambio, y las tecnologías traen cambios, pero el cambio no significa necesariamente algo mejor ni peor. No es momento de evitar el cambio, sino de ser actores en este cambio, para que tome la forma que deseamos. Es el momento de ser activos, para que esos valores que animan nuestra comprensión del mundo puedan, en alguna medida, ser efectivos en la contemporaneidad. Si hay algo que no debemos hacer, es dejarnos guiar por el miedo. —¿Está ahí el límite? —Es una mala comprensión, incluso desde el punto de vista de la fe, porque la tumba vacía de la mañana de Pascua nos dice que podemos amar sin miedo a perder. Por lo tanto, el cristiano, en cierta medida, también debe ser un maestro o peregrino de la esperanza, como nos recuerda el Jubileo. —Un ejemplo de estos miedos es el ámbito de la educación. Hay escuelas que están actuando como si fueran amish, y elimina toda tecnología de las aulas. ¿Cómo se puede formar a las nuevas generaciones en estas condiciones? —Hemos heredado un sistema educativo que, si lo analizamos, es fordista, como una cadena de montaje. Los estudiantes entran en esa cadena y pasan por las mismas transformaciones uniformes. Si lo pensamos, esto es lo más antihumano que existe, porque cada uno de nosotros es diferente y necesita una perspectiva personalizada. Por lo tanto, necesitamos ver estas tecnologías como las mejores herramientas posibles para crear formas educativas personalizadas que se adapten a las necesidades y ritmos de las personas que estamos formando. –En 1997, cuando Deep Blue venció a Kasparov quedó claro en que llegaría un punto en que la inteligencia artificial superaría a la humana en prácticamente todos los procesos. Todavía hoy hay quien habla de límites en que no será capaz de alcanzarnos. ¿Tiene sentido esa resistencia o deberíamos alinearnos con esa transformación tecnológica? –Debemos ser muy cuidadosos, porque la inteligencia artificial no se limita a los grandes titulares de los periódicos. Por ejemplo, cuando Deep Blue venció a Kasparov, lo único que hizo fue aprender de todas las partidas de ajedrez jugadas previamente y encontrar las mejores jugadas según estadísticas. Esto supone dos cosas: primero, que esa actividad fue inicialmente realizada por seres humanos, y segundo, que se trata de una actividad equiparable a un juego en el que uno gana y otro pierde. Pero esta es solo una pequeña parte de las actividades humanas. Muchas de las cosas más valiosas que logramos no provienen de la competencia, sino de la cooperación. Cuando investigamos para erradicar el cáncer, no es un juego de ajedrez en el que uno gana y otro pierde, sino que solo trabajando en conjunto podemos multiplicar nuestros esfuerzos. Las actividades más importantes de la vida humana son aquellas que surgen de la cooperación, y sus resultados suelen ser mucho mayores que la simple suma de las partes. La inteligencia artificial será realmente útil y revolucionaria no cuando derrote al ser humano, sino cuando coopere con nosotros, ayudándonos a ser más humanos y liberándonos de las tareas más desagradables o repetitivas. Esto nos lleva a concluir que no debemos reducir la inteligencia artificial a una especie de competición evolutiva en la que los humanos somos los dinosaurios y la inteligencia artificial es la nueva especie que nos reemplazará. No es así. La inteligencia artificial es una nueva forma de martillo, una nueva herramienta, una nueva prensa. Lo que necesitamos es comprender cómo diseñar el mejor «mango» para esa herramienta, que nos permita ser más humanos en este momento de transformación. —Plantea que debemos 'domesticar' la IA dentro del contexto social en el que vivimos. ¿Cómo se puede hacer? —A través de una herramienta llamada gobernanza. Es ese espacio, una forma moderna del ágora de las ciudades griegas, donde las diferentes partes de la sociedad discuten, dialogan, se enfrentan y deciden cómo esta tecnología puede impactar (o no) a la sociedad. Por ejemplo, cuando inventamos los automóviles, decidimos crear espacios exclusivos para peatones, carriles para vehículos y una serie de sistemas que permitieran que coches y personas coexistieran en las carreteras. Se trata de hacer algo similar con la inteligencia artificial. —Ahí existe un problema cuando los Gobiernos, no la gobernanza, hacen un uso interesado de esta tecnología… —Es el gran desafío de la modernidad ¿cuándo el poder sigue siendo legítimo? Hemos aprendido que el poder se mantiene legítimo sólo cuando respeta el Estado de Derecho. Las democracias, nacidas tras las páginas oscuras del siglo XX, nos enseñan que existe un límite constitucional más allá del cual los gobiernos no pueden ir; si lo hacen, pierden su legitimidad. Por tanto, esta tecnología debe adaptarse a esa infraestructura fundamental del espacio público que llamamos infraestructura democrática. Es evidente que este proceso no ocurre espontáneamente. Los Estados no democráticos podrían usar la tecnología de manera antidemocrática, pero esto no es una novedad: ya lo hacen, con armas como pistolas y fusiles. Podrían, de manera similar, transformar el uso de una herramienta tecnológica en algo represivo o destructivo. Conocemos la película '2001: Una odisea del espacio'. Una de las escenas muestra a un mono que ve un hueso y, de repente, lo transforma en un arma. Aquí la cuestión depende de cómo veamos al ser humano: ¿es como ese mono, destinado inevitablemente a transformar todo en violencia, o existe la posibilidad de otra humanidad? Esto cambia radicalmente el enfoque: ya no se trata tanto de la tecnología, sino de lo humano. Una cosa muy interesante de esta época es que cuanto más interrogamos a la máquina, más preguntas sobre la humanidad nos vemos obligados a hacernos. Cada vez se vuelve más relevante cuestionar quiénes somos y qué debemos hacer con nosotros mismos. —Otra cuestión planteada en el libro es la del transhumanismo, es decir, la mezcla entre tecnología artificial y lo humano. Antes hablábamos de la brecha entre generaciones, pero también podría presentarse una brecha entre los propios seres humanos. Podríamos llegar al punto de decir que estamos asistiendo al final del ser humano tal como lo conocemos. ¿Habrá dos tipos de seres humanos? —No. Cuando se descubrió América hubo un gran debate sobre si los indígenas eran humanos como nosotros, porque en ese momento se descubrió que es posible ser humano de una manera diferente. Estamos en una circunstancia similar: la cultura digital probablemente nos dará nuevas categorías que nos harán un poco diferentes, de la misma forma que quienes sabían que la Tierra era redonda eran distintos de quienes pensaban que era plana. Pero no porque dejemos de ser humanos o porque seamos humanos diferentes, sino porque en nuestra condición humana también está la capacidad de comprender y adaptarnos. —¿Pero quizás los más pobres no tengan acceso a esta tecnología? —Esa es una cuestión de igualdad, y ocurre con todas las tecnologías. Pensemos en la bomba atómica, en la energía eléctrica, en las telecomunicaciones. La tecnología da poder, y ese poder tecnológico podría no distribuirse de manera equitativa. —¿Descarta entonces que quedara un reducto de humanos apartados del mundo, como los habitantes de la isla Sentinel? —Hay un dato muy revelador: en el mundo hay 8.100 millones de personas, pero ya existen 6.100 millones de teléfonos móviles. Diría que ya hemos decidido que no. —Hemos visto como la inteligencia artificial se ha utilizado para crear imágenes falsas. ¿Dónde deben estar los límites? —Bueno, lo que vendrá todavía está por verse en su totalidad. Sin embargo, hay al menos un par de ejemplos que nos deberían hacer reflexionar. Uno es lo que sucedió recientemente en la guerra de Gaza. Hubo episodios en los que se bombardearon edificios con niños adentro, y los padres llevaban a los niños en brazos. Estas imágenes circularon en las noticias, pero algunas de las fotos no eran reales, sino generadas por inteligencia artificial. El episodio fue real, pero las imágenes no. Y esta es la novedad: debemos ser capaces de reconocer esta diferencia. ¿Qué quedará de lo que hoy llamamos verdad y verificabilidad? Otro ejemplo es lo que está ocurriendo con productos como Replika. Cuando alguien muere, existe un chatbot que puede hablar y expresarse exactamente como la persona fallecida. Entonces, ¿qué significa esto? ¿Una nueva forma de «momificación» digital de las personas? ¿O es algo completamente distinto? Estos dos ejemplos nos muestran que el problema no es la tecnología en sí, sino el uso social que hacemos de ella. Este es el verdadero tema sobre el que debemos debatir, porque hay categorías del pasado que podrían no seguir siendo válidas si utilizamos la tecnología de cierta manera. —¿Y qué aportación se hace en esta discusión desde la Iglesia Católica? —Es algo hermoso, la Iglesia Católica tiene una larga tradición de reflexión, que es, básicamente, la tradición de la Doctrina Social de la Iglesia. En esta tradición, hemos reflexionado extensamente sobre la máquina, la tecnología y la centralidad del ser humano. En este sentido, la inteligencia artificial es un eslabón más en esta discusión.



Moscow.media
Частные объявления сегодня





Rss.plus




Спорт в России и мире

Новости спорта


Новости тенниса
WTA

Рейтинг WTA. Касаткина опустилась на 10-ю строчку, Рыбакина – на 7-ю, Киз вернулась в топ-15






Мамаев рассказал о шокирующих сообщениях от дочери после развода с женой: «Чтоб ты сдох, чтоб ты умер»

Свеча привела к пожару в ЖК "Савеловский Сити": Есть пострадавшие

Дочь Альфии Авзаловой: «Мама была счастлива, говорила: «У меня есть дети, ремесло, я выжила»

«Бордовая пробка»: в центре Петрозаводска образовался затор из вереницы машин