18 de julio de 2023 – 00:00 GMT+0000Compartir
FacebookXWhatsAppCopy Link
La idea de autómatas, lo que hoy conocemos más comúnmente como robots, tomando conciencia de sí mismos y ejerciendo su propia voluntad es tan antigua como la propia Historia. Egipcios, griegos, chinos… Parece que esta fascinación es común a todas las culturas. Pero, también parece común el miedo a que estos autómatas se vuelvan en contra de sus creadores. ¿Hay algo de realidad en esos mitos? ¿Nos enfrentamos en este momento al surgimiento de las primeras inteligencias artificiales? ¿Está el mundo a punto de cambiar?
Pero, no adelantemos acontecimientos. ¿Son ChatGPT o Stable Diffusion inteligencias artificiales (I.A.)? ¿Debemos preocuparnos de lo que son capaces de hacer? A la escritura de este artículo, Italia ya ha limitado el acceso a la primera, y probablemente no sea el único país que lo haga, especialmente en Europa, donde la privacidad está muy protegida, en comparación con Estados Unidos. De esta manera, podríamos estar dirigiéndonos hacia la prohibición total de la I.A., como ocurre en la historia humana reimaginada del juego de mesa Warhammer 40K (1987), o en la primera temporada de Star Trek Picard (2020). Al fin y al cabo, si no abrimos la caja de Pandora, no pasará nada, ¿verdad?
Antes de volver a la pregunta que nos ocupa, aclarar que sólo hablaremos de esas dos herramientas porque están surgiendo tantísimas que, con toda probabilidad, para cuando este artículo se publique, habrán aparecido docenas nuevas, o las presentes habrán evolucionado enormemente. Estamos, al fin y al cabo, viendo el desarrollo de una tecnología punta de manera pública.
ChatGPT es lo que se conoce como un Large Language Model (LLM; Modelo de Lenguaje Grande). Simplificando mucho, podríamos decir que esta herramienta es como si al algoritmo de autocompletar de tu móvil le hubieran dado muchos más recursos, una cantidad ingente de textos para analizar y hubiera sido entrenado para cumplir ciertas funciones. Pero, ¿qué es entrenar un algoritmo? ¿Es como en Rocky (1976)? No. Cuando se habla de entrenar a un algoritmo, normalmente de Deep Learning, se refiere al proceso de darle información que procesar, en este caso texto; que este proceso produzca cambios en el procesado, y luego calificar el resultado. Según estas calificaciones, los mejores cambios del procesado se mantienen, y volver a empezar. Hacer esto billones o trillones de veces, hasta llegar al punto de que, estadísticamente, el algoritmo puede realizar la tarea encomendada con una cierta probabilidad de éxito.
Stable Diffusion usa la capacidad de ChatGPT para «entender» los textos que se le dan para, después (una vez más, simplificando), cotejar eso con una enorme base de datos de imágenes y mezclar las imágenes correspondientes, convertirlas en ruido y, después, “deshacer” el ruido para crear una imagen nueva que represente el texto introducido.
EL GENIO ENCERRADO
Pero seguimos sin saber la respuesta a la pregunta. ¿Son I.A. o no? Bueno, el problema es que esa respuesta, e incluso la propia pregunta, están en discusión desde hace siglos, incluso milenios. Nos enfrentamos al autómata, a lo que es humano sin serlo, al fantasma en la máquina.
Los egipcios pensaban que durante sus rituales, las estatuas de piedra eran imbuidas por sus dioses para observar el proceso. Entre los griegos se consideraba que en Rodas habían descubierto el secreto para hacer que sus estatuas de bronce y piedra se moviesen y respirasen como los humanos. Esta es probablemente la inspiración para la batalla con la que comienza God of War 2 (2007), contra un Coloso de Rodas animado por los dioses. De los judíos proviene la idea del gólem, la estatua humanoide animada, capaz tanto de hacer el bien como el mal, que sirve de base para la mezcla curiosa que crea con esta idea Terraria (2011), que tiene como uno de sus jefes precisamente un gólem, pero inspirado por las culturas precolombinas.
Todas estas mitologías tienen un punto común: objetos inanimados donde habita un influjo sobrenatural que las anima, que les hace actuar de forma humana o casi humana. Un influjo o, tal vez, un fantasma dentro de la máquina. Ésta es la expresión con la que el filósofo Gilbert Ryle describió en 1949 la dualidad de la mente y el cuerpo propuesta por René Descartes en el siglo XVII en su Discurso del método (1637); ésta es la idea sobre la que se asienta la famosa frase «Pienso, luego existo», y que sostiene que mente y cuerpo son dos entes distintos y separables. En cierta manera, Descartes defendía que todo ser es un autómata, una máquina controlada por una mente etérea en control. Pero, si mente y cuerpo son separables, ¿qué parte es la que nos hace humanos? Este tipo de preguntas son exploradas en la película Ghost in the Shell (1995), una de las grandes obras de ciencia ficción del anime japonés de los 90, que tuvo un remake por parte de Hollywood unos años atrás, para consternación de los seguidores de las películas y series originales.
Sin embargo, una vez más, la pregunta se mantiene. Y es que, una de las razones por las que esta discusión continúa es que ni siquiera tenemos claro qué es la inteligencia. Aunque continúa habiendo debate, hoy en día hay cierto consenso en considerar que una inteligencia debe aprender de la experiencia, reconocer problemas y proponer soluciones a dichos problemas. Con estas condiciones, por desgracia, el problema no se simplifica, sino que se vuelve aún más complicado. Al fin y al cabo, algunas versiones de ChatGPT tienen memoria, y por tanto pueden mejorar sus respuestas basándose en lo que ha ocurrido anteriormente en su conversación con el usuario. Además, el usuario le plantea dudas o cuestiones que el programa resuelve haciendo uso de su conocimiento adquirido o, en el caso de la versión implementada por Bing, haciendo búsquedas en tiempo real por Internet. Y sin embargo, según el paper publicado por Emily M. Bender et al, On the Dangers of Stochastic Parrots: Can Laguage Models Be Too Big?, estas herramientas no comprenden ni el idioma ni las preguntas que se le hacen, tan sólo responden a base de pura estadística, lo cuál produce los errores garrafales que pueden cometer estos programas en sus respuestas. Y sin embargo, nunca ha sido una condición de la inteligencia que ésta sea infalible. Al fin y al cabo, nosotros nos equivocamos constantemente y eso no nos arrebata el título de «seres inteligentes». Entonces, ¿cumplen las condiciones o no?
EN UN FUTURO… ¿CERCANO?
Lo cierto es que, ya sean inteligencias artificiales o no, estas herramientas tienen visos de quedarse con nosotros durante un buen tiempo. Tal vez terminen siendo la base sobre la que se construyan los replicantes de Blade Runner (1982), o tal vez se quede a medio camino, como el ayudante KITT de El coche fantástico (1982). Lo que parece plausible, sobre todo porque alguien ya está trabajando en una versión con el nombre y todo, es que mucho antes de lo que creíamos, un asistente virtual como Jarvis, de la serie de películas Iron Man (2008), viva en nuestros ordenadores o incluso teléfonos y nos ayude a realmente ser más eficientes. ¿Quién sabe si también nos ayudará a diseñar un traje volador o a resolver los misterios de los viajes en el tiempo? Para eso, tal vez, tengamos que resolver antes el tema de si es una inteligencia con todas las de la ley y, en ese caso, el sueldo y la contribución a la seguridad social, ¿no?
AUTOR: Rodrigo Delgado
ILUSTRACIÓN CARLA GARRIDO
Archivado en: Revista HipótesisEtiquetas: Número 15, Artículo, Ciencia y Sociedad, Universidad de La Lagu