18 de julio de 2023 – 00:00 GMT+0000Compartir
FacebookXWhatsAppCopy Link
Toda revolución industrial produce, en un principio, cierto rechazo por parte de la sociedad. Estos cambios afectan de manera directa o indirecta a todas y cada una de las personas que la integran. Desde el inicio de la década del 20, estamos atravesando la cuarta revolución industrial, también llamada Industria 4.0, que integra nuevas tecnologías, por un lado haciendo más eficientes y eficaces los procesos productivos, pero por otro reduciendo costos y personal.
Para la gente de a pie, las nuevas tecnologías no dejan de sorprendernos día tras día transformando el mundo que nos rodea. Un día descubrimos que trabajos que siempre estuvieron estrechamente ligados a los seres humanos, como la ilustración o la música, puede que deban redefinirse tras la aparición de nuevos programas de Inteligencia Artificial (IA), como Dall-E o Midjourney. Otro día, vemos como una máquina es capaz de redactar informes, realizar resúmenes y hasta escribir poemas sin esfuerzo y en tiempo récord. Los cimientos de nuestra propia existencia comienzan a desmoronarse y nos preguntamos: ¿Qué va a ser de mi vida si ya hay una máquina que lo hace todo?
Este miedo y ansiedad hacia los cambios tan rápidos que estamos viviendo es normal y entendible. Pero creedme cuando os digo que nos adentramos en una nueva etapa en donde la humanidad será justamente eso, más humana que nunca. Dejaremos atrás el pasar horas haciendo tareas rutinarias y aburridas para comenzar a usar nuestro ingenio y habilidades. Sólo hemos visto en estos últimos meses la punta del iceberg, queda aún mucho camino por recorrer, por lo que resulta imperioso adaptarse a esta nueva realidad.
Las nuevas tecnologías aprenden de nosotros, los seres humanos, y es imprescindible que seamos buenos ejemplos a seguir. La ética es un factor fundamental en la creación, y uso, de estas nuevas máquinas pensantes. Para que la IA sea capaz de realizar sus tareas, es necesario entrenarla adecuadamente. Si los datos que usamos para hacerlo están sesgados, obtendremos máquinas pensantes sesgadas. Las nuevas IAs reflejan fielmente el mundo en que vivimos, un mundo en el que, a pesar de los años, sigue siendo caótico, proclive a la discriminación y carente muchas veces de valores éticos.
Este panorama puede parecer agorero, pero nos plantea una oportunidad para el cambio. Si bien es cierto que muchas personas perderán sus empleos tal como están concebidos actualmente, se abrirán nuevas oportunidades. Áreas de estudio como la biología no sería la misma sin la gran cantidad de información disponible obtenida gracias a las nuevas tecnologías y de la que nadie imaginaba en el momento en que James Watson, Francis Crick y la olvidada Rosalind Franklin pusieron en evidencia la estructura de la molécula de ADN. El derecho, por otro lado, tiene a sus pies un nuevo campo de estudio muy poco explorado y vital para regular el uso de la IA en todos sus ámbitos de aplicación. Es más, áreas de estudio como la filosofía pasan ahora a un primer plano, ya que la ética y la IA deben que ir de la mano en la construcción de nuevas aplicaciones tecnológicas que sean a la vez responsables, transparentes y explicables.
Se vislumbran entonces dos caminos paralelos a seguir. Por un lado, la creación de una nueva normativa que controle los datos, programas y sistemas de IA. Pero también por otro lado, necesitamos educar a la sociedad para que aprendan a utilizarlos. En ambos casos queremos lo mismo: que su desarrollo y su uso sea responsable, transparente y ético. De nada sirve crear IAs confiables si luego el ser humano las usa de manera irresponsable y con fines poco honestos.
Prohibir la generación y entrenamiento de modelos de IA, como solicitaban varios empresarios e investigadores liderados por Elon Musk en una carta abierta, no es una alternativa lógica. Ya sucedió con Alfred Nobel y la dinamita. Si bien su invento fue ideado para poder ayudar en demoliciones, excavaciones y obras en general, finalmente ha resultado tener muchas más aplicaciones de las esperadas, especialmente en el entorno bélico, generando muchas muertes. Salvando las diferencias, en el ámbito de la IA no hace falta tener una bola de cristal para ver el futuro. Es en el presente en donde, por ejemplo, se usa ChatGPT para generar bulos y difundirlos por redes sociales acompañado de imágenes hiperrealistas creadas por MidJourney. O incluso se usan herramientas de IA para generar DeepFakes y conseguir que Donald Trump diga lo que se os antoje, con las posibles consecuencias que puede tener.
Sin embargo, estamos muy lejos de los autómatas del cine de ciencia ficción. En las películas se muestran máquinas pensantes capaces de razonar y de sentir. No le tengo miedo a los posibles robots tipo Terminator; al fin y al cabo, en algún momento se quedarán sin batería. Sin embargo, sí tengo miedo a la analfabetización tecnológica, a las nuevas tecnologías en manos de políticos amorales o la manipulación de la sociedad a través de bulos para conseguir intereses particulares.
Por tanto, la clave del futuro de la sociedad en la era de la IA recae en el propio ser humano. El escritor Alvin Toffler ya nos lo vaticinaba hace años: “la sociedad necesita todo tipo de habilidades, no sólo cognitivas, sino también emocionales y afectivas”. El futuro, por tanto, será para aquellos que desarrollen un pensamiento crítico y sean capaces de poner su granito de arena allí donde las máquinas no pueden: en el corazón de la sociedad y de su gente.
AUTORA: Rocío C. Romero Zaliz
ILUSTRACIÓN CARLA GARRIDO
Archivado en: Revista HipótesisEtiquetas: Número 15, Artículo, Ciencia y Sociedad, Víctor García Tagua, Universidad de La Lagu
Departamento de Ciencias de la Computación e Inteligencia Artificial
rocio@ugr.es