Skip to main content

 

Inteligencia Artificial: ¿apocalipsis o paraíso?

18 de julio de 2023 – 00:00 GMT+0000Compartir

 
 

Las noticias que estamos recibiendo sobre los recientes desarrollos tecnológicos en el campo de la informática y, muy especialmente, de la inteligencia artificial (IA) son realmente extremas: apocalipsis o paraíso. El fatal cumplimiento de una de las más siniestras pesadillas tecnológicas o la realización de algunos de nuestros más anhelados sueños.

Oímos que podemos estar acercándonos peligrosamente al fin del mundo, literalmente al fin de un mundo con seres humanos como nosotros. Pero también nos dicen que estamos abriendo las puertas a paraísos con los que hasta hace poco tan sólo podíamos soñar. Sin apenas darnos cuenta, es como si estuviéramos en una gran encrucijada existencial. Como si todo dependiera de unas pocas decisiones que tenemos que tomar ahora mismo, sin tener tiempo para deliberar; desde una situación de incertidumbre que no sabemos cómo reducir. Uno se levanta por la mañana, mira su móvil mientras desayuna y se entera de que la IA puede causar la extinción completa de la humanidad. Y te quedas sorprendido porque se trata de una carta abierta de Elon Musk acompañado de un enorme número de científicos y personalidades conocidas. Pero mientras recordamos otras llamadas de atención similares, leemos que gracias a un robot quirúrgico se ha podido hacer un trasplante de pulmón completo a un adulto con una incisión de apenas ocho centímetros de longitud. Y nuestro móvil también se llena de anuncios publicitarios sobre la posibilidad de aprender inglés con fluidez y sin esfuerzo gracias a cierta aplicación que incorpora la tecnología GPT. Te están asegurando que por fin el inglés, o cualquier otro idioma, dejará de ser un problema. Los ejemplos pueden multiplicarse tanto en un sentido como en el otro. Ahora son los chatbots como ChatGPT, pero antes fue el multiverso, o los coches de conducción autónoma, o la propia Internet.

«No estamos abocados a ningún tipo particular de futuro, ni apocalíptico ni utópico. El determinismo tecnológico es falso. La historia de la humanidad no tiene ningún destino prefigurado por nuestras capacidades tecnológicas. No hay leyes de la historia. Las actitudes que orientan nuestros actos siguen siendo decisivas para que se tome un curso u otro.»

¿Podemos saber cómo será nuestro mundo en el futuro? Tajantemente, no podemos. Podemos aventurar algunas cosas. Hacemos predicciones sobre aspectos concretos con éxito variable. Pero saber cómo será el futuro es otra cosa. No estamos abocados a ningún tipo particular de futuro, ni apocalíptico ni utópico. El determinismo tecnológico es falso. La historia de la humanidad no tiene ningún destino prefigurado por nuestras capacidades tecnológicas. No hay leyes de la historia. Las actitudes que orientan nuestros actos siguen siendo decisivas para que se tome un curso u otro. 

En un sentido parecido, tampoco la moralidad está determinada por ningún conjunto de leyes o reglas. No hay ninguna receta para saber cuándo sería moralmente permisible llevar a cabo acciones que podrían tener efectos indeseables, como por ejemplo arriesgar una vida para salvar otras vidas. También aquí intentamos hacer protocolos de actuación. Y es conveniente hacerlos. Pero pensar que la moralidad consiste en seguir mecánicamente ciertas reglas o códigos es un mito equiparable al mito del determinismo histórico. Nuestras intenciones y compromisos desempeñan un papel esencial en la moral.

El desarrollo de la IA puede seguir cursos muy diferentes. Hay un amplio espacio intermedio entre el apocalipsis y el paraíso. Y lo más probable es que nos situemos en ese espacio.  De hecho, esto es lo que ha ocurrido en casos parecidos como los de la energía nuclear o la ingeniería genética. Y en ese espacio intermedio necesitamos normativas sensatas que regulen los procesos de investigación y de uso. Cambiarán muchas cosas, sí. Como también las cambiaron Internet y la telefonía móvil, la revolución industrial, la máquina de vapor, la imprenta, la escritura o el desarrollo de la agricultura en el neolítico. También desaparecerán algunas profesiones y surgirán otras nuevas. Pero debemos intentar que los cambios no sean dramáticos y acaben siendo beneficiosos para la humanidad. Debemos intentarlo porque la historia no está escrita en ningún sitio. Aunque nos empeñemos en negarlo, la estamos escribiendo nosotros.

¿Podrá la IA llegar a ser un peligro para nuestra existencia?

¿Podrá la IA llegar a ser un peligro para nuestra existencia? Sin duda, podría serlo. Pero hay muchas cosas que pueden ponerla en peligro. Y no sólo debemos pensar en ejemplos como el armamento nuclear o la ingeniería genética. Como hemos visto hace poco, un pequeño virus puede ser una enorme amenaza.

La IA que actualmente tenemos es muy variada. Hay programas, robots y chatbots. Se procesa información digital y analógica. Se utiliza en la industria, en la economía, en nuestros móviles, en los laboratorios y quirófanos, en los campos de batalla, en la creación artística, en los videojuegos, etc. Pero toda nuestra IA siempre tiene  límites muy definidos en tres ámbitos: 1. Las bases de datos sobre las que esa IA modula su comportamiento; 2. La estructura matemática o lógica que permite esa modulación y, 3. La conversión del comportamiento resultante en actuaciones efectivas sobre la realidad. En estos tres ámbitos la intervención humana es imprescindible. Y en todos ellos, la noción de «alineación» es crucial. La IA debe estar en línea con los intereses, objetivos y valores de la humanidad. Ciertamente, se puede crear IA muy autónoma, pero de momento siempre existirán esos tres ámbitos de intervención para poner límites.

¿Pueden existir sistemas capaces de aprender directamente de la realidad, capaces de organizar su estructura interna en base a esos aprendizajes directos y capaces de actuar a partir de ello sobre la realidad con completa autonomía? Nosotros mismos somos sistemas de ese tipo. Somos productos de la evolución, tanto en un sentido biológico como cultural. Tal vez haya algo más, pero podemos dejarlo al margen al preguntar si no sería posible diseñar de manera artificial sistemas inteligentes con una dinámica sometida únicamente a, digámoslo así, las fuerzas naturales. Hasta ahora, no hemos podido hacerlo. Pero una pregunta sumamente pertinente es: ¿Por qué quisiéramos hacerlo?  Esas máquinas carecerían de los tres límites antes señalados. Su autonomía respecto de nosotros sería plena. Únicamente podríamos buscar una alineación con los intereses, objetivos y valores humanos a través de la educación, tal como hacemos con nuestros hijos e hijas. Pero, insisto en la pregunta: ¿Por qué habríamos de querer crear artificialmente ese tipo de sistemas inteligentes?

No se puede hablar de la IA, sin acabar hablando de la conciencia. En 1950, Alan Turing publicó en Mind, una importante revista de filosofía, un artículo cuya influencia llega hasta nuestros días. Se titulaba «Computing Machinery and Intelligence». Se preguntaba si las máquinas podrían llegar a pensar. Dada la ambigüedad de esta pregunta, Turing proponía sustituirla por otra: «¿Podría una máquina simular tan bien ciertas tareas típicamente humanas, como por ejemplo mantener conversaciones, de manera que su comportamiento no se distinga del comportamiento de un auténtico ser humano?» Turing llamaba a esto «El juego de imitación». También se conoce como «El test de Turing». Su respuesta era rotunda: si una máquina puede imitar perfectamente nuestro comportamiento, no hay ninguna razón de peso para rechazar que tiene mente.

Asumimos que hay una diferencia crucial entre los conceptos de inteligencia y de conciencia. La conciencia implica experiencia subjetiva, cosas como tener dolores y alegrías, tener sentimientos y emociones, etc. Y también implica ser un sujeto moral. Puede haber mucha inteligencia, incluso superinteligencia, sin conciencia en este sentido. Y también puede haber conciencia sin mucha inteligencia. Pero, una cosa es distinguir conceptualmente entre inteligencia y conciencia, y otra cosa muy diferente poder disponer de criterios que nos permitan aplicar esa distinción con garantías. Y también aquí volvemos a movernos en un terreno intermedio.

Turing hablaba de «la mente», que es una noción ambigua entre la inteligencia y la conciencia. Pero sus análisis son válidos respecto a lo difícil que puede ser rechazar que algunas máquinas sean capaces de desarrollar una mente y conciencia personal. Como imaginaba Turing, la AI podría desarrollarse de tal forma que no supiéramos distinguir bien si estamos ante una persona o ante una máquina. ¿Qué hacer en una situación así?

A principios del siglo XX, la filosofía estuvo intensamente ligada al desarrollo de la informática. No es posible entender nuestra informática, ni en particular la IA, sin la lógica formal iniciada por autores como Frege, Russell o Gödel. Hoy día, algunas de las cuestiones más inquietantes que nos plantea la IA vuelven a reclamar una reflexión filosófica profunda. No creo que tenga ningún interés crear máquinas que no puedan distinguirse de las personas. Pero de llegar a una situación tal, también creo que la única actitud ética razonable sería la de aplicar el principio de la duda en favor de las máquinas y ampliar nuestro concepto de persona. Simplemente, manteniendo igual todos los demás factores, es moralmente preferible equivocarnos al tratar a una máquina como una persona que equivocarnos al tratar a una persona como una máquina.

AUTOR: Manuel Liz

ILUSTRACIÓN CARLA GARRIDO


Archivado en: Revista Hipótesis
Etiquetas: Número 15, Artículo, Ciencia y Sociedad, Universidad de La Laguna