Skip to main content

La Inteligencia Artificial, un reto para la Filosofía

miércoles 23 de diciembre de 2020 – 00:00 GMT+0000       
Compartir

 

Repasando la extensa colección de obras de ciencia ficción de nuestra historia reciente, podemos conocer qué visión del futuro hemos tenido a lo largo de los años. Desde las novelas que nos hacían ya a bordo de coches voladores, hasta aquellas donde somos esclavos de seres de otros mundos, este género ha anticipado muchas cosas que hacemos ahora con normalidad, como las videoconferencias o el turismo espacial.

Ni la creativa imaginación de estos creadores ha podido predecir nuestro mundo actual con precisión. La penetración de internet en nuestras vidas y la influencia de las redes sociales no fueron predichas por este género. Sin embargo, el tema del que hoy celebramos su Día Mundial sí lo podemos rastrear varias décadas atrás y encontrar algunos libros y películas que se anticiparon al concepto que hoy tenemos de la Inteligencia Artificial.

¿Recuerdan a HAL, el superordenador asesino de “2001, una odisea en el espacio”?, ¿vieron cómo Skynet acababa con la humanidad en Terminator? Estas obras de 1968 y 1984 muestran cómo los ordenadores pueden pensar e interactuar con las personas. Lo más aterrador de estas películas es que, también pueden tomar sus propias decisiones. Siempre que pensamos en inteligencia artificial tememos que las máquinas nos sustituyan y decidan por nosotros mismos, pero, la realidad es que ya lo hacen. Lo hacen cuando te sugieren cómo acabar esta frase con el texto predictivo, lo hacen cuando te muestran las películas que te “gustan” en Netflix o lo hacen cuando nos avisan de los atascos. Esa es la IA que tenemos más cercana, pero también trabaja en medicina, comunicaciones, economía, transportes, etc. No hay sector que no tenga un ojo puesto en la IA.

El rápido desembarco de la IA en nuestras vidas ha despertado dudas sobre cuestiones que incumben a profesionales, supuestamente ajenos a estas lides tecnológicas, los filósofos y filósofas. En estos momentos el mundo de la Filosofía y la Ética está trabajando para resolver los problemas éticos que genera esta nueva tecnología y para adelantarse a los que pueda ocasionar en un futuro.

Preguntas como ¿de quién es la responsabilidad en un accidente provocado por un vehículo autónomo? ¿La IA puede acceder a mis datos médicos y decidir mi tratamiento? ¿Podemos dejar en manos de la IA la seguridad de una ciudad? Estas son algunas cuestiones que preocupan a los expertos en Inteligencia Artificial y Filosofía.

Con motivo del Día Mundial de la Filosofía hemos querido profundizar algo más en este tema de frontera. Manuel Liz Gutiérrez es catedrático del Departamento de Historia y Filosofía de la Ciencia, la Educación y el Lenguaje de la Universidad de La Laguna. Con él hablamos sobre las implicaciones éticas y filosóficas de esta marea tecnológica que ha llegado para quedarse.

Lo primero que advierte el profesor es que esto de tener ordenadores personales y un móvil en cada bolsillo de cada persona es algo que podría no haber pasado. En un principio la informática no pensaba en los ciudadanos como público objetivo. Y es que las grandes empresas tecnológicas idearon los ordenadores para las grandes empresas, fueron unos imberbes en garajes quienes marcaron el cambio. “Las ciencias de la computación podrían haberse desarrollado de una manera muy distinta a como ha sido. Al principio se pensó que los ordenadores iban a ser solo útiles en las grandes empresas, en el ejército, en cosas así. Entonces, fue una serie de decisiones muy contingentes que hicieron que alguna gente viera en el futuro dispositivos informáticos utilizados por todo el mundo de una manera muy democrática, pero esto podría no haber sido así. Se podría haber quedado toda la informática como algo propio de bancos, de empresas, del ejército”.

Pero no creamos que esto de la IA es algo moderno. La Filosofía lleva muchos años trabajando este concepto y reflexionando sobre sus pros y contras. El punto de inflexión se produce cuando los pensadores comienzan a utilizar el simbolismo y las matemáticas en el análisis del pensamiento, una revolución que se produjo en el siglo XIX y que propició el desarrollo de la informática.

“Uno de los orígenes cruciales es el desarrollo de nuevos formalismos para analizar la estructura del pensamiento y para representar cómo unos pensamientos se relacionan con otros formando razonamientos o inferencias, entonces eso no existía, no se utilizaba formalismos especiales para hacer lógica, ni durante la Edad Media, ni la Antigüedad. Esto es algo nuevo que empieza con Boole, Frege, Whitehead y Russell. Ahí empieza la historia de la informática, sin ese desarrollo en los formalismos es impensable lo que tenemos hoy en día”.

El papel de la Filosofía en la IA

La penetración de la Inteligencia Artificial en nuestra vida ha dado una relevancia a la Filosofía inédita hasta el momento. No cabe duda que los últimos desarrollos tecnológicos vinculados con la IA han generado una preocupación sobre cuál debe ser su encaje en nuestras vidas. Pero la Filosofía va más allá, analiza el mismo concepto. Busca definir con exactitud qué es Inteligencia Artificial y qué no lo es, solo así se podrá legislar de una manera óptima. “Uno de los debates más encendidos que se están produciendo en Europa en estos momentos tiene que ver con definir qué es la IA. En esto la Filosofía tiene una tarea muy importante, ya que sobre este asunto debe existir una claridad conceptual. Ahora necesitamos una generación de investigadores que, dentro de la Filosofía, esté formada en estos temas”.

La Filosofía está presente en la generación de la IA aunque no siempre son filósofos o filósofas las que trabajan en estos debates. Se discute filosofía, pero en muchas ocasiones no lo hacen bien, lamenta el profesor Liz. La inmortalidad digital o la singularidad tecnológica son temas que, en muchas ocasiones, son debatidas en las empresas sin la presencia de profesionales cualificados, generando conflictos éticos difícilmente reversibles en el futuro.

Uno de los debates más interesantes que se vive en la actualidad en las empresas y universidades tiene que ver con la conciencia de las máquinas. ¿Tienen conciencia de sí mismas? Si aún no la tienen, ¿pueden llegar a tenerla? Esta cuestión está girando desde los tiempos de las primeras computadoras, cuando Turing hacía saltar por los aires los códigos de encriptación nazis. En estos momentos hay una opinión muy generalizada que se muestra pesimista sobre la capacidad que tendrán las máquinas de tener conciencia. “Tenemos unas máquinas que piensan, podrían pensar mucho mejor que nosotros, desarrollar procesos complejos, pero desde la Filosofía la conciencia se ve desde un punto de vista de la mente. Otros aspectos relacionados con la mente que no están presentes en las máquinas son aquellos que tiene que ver con la conciencia cualitativa, experiencias subjetivas, sentimientos, dolor, etc. “Son cuestiones que apuntan a la materia con la que está hecho el ser humano, por eso, cuestiones intrínsecamente biológicas aún quedan lejos de ser imitadas por las máquinas”.

Varios investigadores han descrito cómo los sistemas de IA hacían “cosas raras”, arrojando datos no previstos. Algunos han querido ver una conciencia bajo estos mensajes inesperados. En realidad, las alucinaciones en la IA solo son errores del sistema, que generan datos incorrectos, nada que ver con lo que conocemos como conciencia.

Una diferencia básica entre la conciencia humana y la IA tiene que ver con la enseñanza. El famoso Chat GPT ha necesitado de años de aprendizaje, ha tenido que examinar millones de documentos de todo tipo. El ser humano, por contra, no lo necesita. “Chat GPT para llegar adonde ha llegado necesitó de muchos años de analizar millones de documentos. Un niño o una niña cuando aprende un lenguaje, cuando comienza a tener conciencia de sí mismo, no necesita este proceso. Aquí hay una diferencia obvia entre cómo lo hace una máquina y cómo lo hacemos nosotros”.

La IA hereda nuestros prejuicios 

La IA nos imita. Nos observa, monitoriza y analiza para dar las respuestas más adecuadas a nuestras necesidades. Pero cuando alguien te copia de esta manera tan pormenorizada imita tus cualidades, pero también tus defectos. Lo bueno y lo malo. Sucede de una manera similar con los niños, que imitan lo que tienen a su alrededor, ya sea sentarse de forma correcta en una mesa o soltar un taco. Si diseñas un sistema de IA basado en leer nuestros textos, imágenes, opiniones, reacciones, etc. ésta nos arrojará lo mismo, con sus cosas buenas y malas, como un espejo. De esta manera es muy sencillo que se cuelen en la programación de la IA sesgos y prejuicios que pueden condicionar sus respuestas y decisiones, por este motivo el abordaje ético y filosófico son fundamentales.

“En esto sí que hay que reconocer que las empresas desarrolladoras se están esforzando para eliminar sesgos o prejuicios, interviniendo en los parámetros de aprendizaje de los algoritmos o a través del aprendizaje supervisado, que cuando hay algo que crea desconcierto en el público se corrige o elimina, de la misma manera que se corrige a un niño”, explica el profesor.

Esta corrección de errores, en buena parte, son sugeridas por equipos de filósofos y filósofas expertos en deontología formal que participan en comités de ética para debatir qué tipo de entornos se están creando, desde aspectos relacionados con la semántica hasta otros sobre la realidad artificial que se está creando.

¿La IA decide por nosotros?

La respuesta rápida es simple, si. Un abordaje más amplio no sumerge en un mar de matices que, como no, la Filosofía aborda. Manuel Liz le quita hierro al temor extendido relacionado con la capacidad de que la IA tome decisiones por nosotros. En realidad, en cada momento, hay muchas personas que deciden por nosotros aspectos importantes de nuestra vida sin que surjan muchos problemas. “Debemos hacer lo mismo que cuando nuestros representantes políticos toman decisiones por nosotros y no nos gustan. Quejarnos y establecer mecanismos de control o fiscalización para corregirlos”. Delegamos muchas más decisiones en los demás de las que imaginamos, pero es cierto que lo hacen personas y no máquinas. Por eso, la Unión Europea está trabajando para legislar esta relación con las máquinas para establecer los diferentes niveles de riesgo. “No es lo mismo que la IA genere escenarios de un videojuego a que nos estén vigilando por la calle, identificando nuestro rostro y asignándole puntuaciones”. Algo que sí sucede en otros lugares del planeta. El nivel de la IA, sumado a la capacidad actual de computación, puede generar una tecnología perversa y controladora que las leyes quieren evitar “al menos en la Unión Europea, en otros países ya está pasando”.

Sin embargo, las restricciones a este tipo de usos de la IA en un territorio determinado del planeta no sirve para mucho si no existe una norma global que vele por los derechos de los ciudadanos en todo el mundo. “Muchos de los desarrollos tecnológicos de los últimos años están diseñados para el control de las personas, es impresionante. Sin una norma global no sirve de mucho que exista en la Unión Europea”.

La privatización de la IA  

Los grandes desarrolladores de la Inteligencia Artificial son las empresas, aquí el papel de los Estados, como en el caso de los fármacos, es anecdótico. En estos momentos Microsoft, IBM, SAS, Datarobot y Google lideran la creación de servicios e investigación en IA. Los expertos esperan que este sector genere unos 500 mil millones de ingresos en este año. Que unas pocas empresas privadas estén al frente de esta revolución tecnológica también preocupa a los que se ocupan de los aspectos éticos de la IA. ¿Podemos dejar que sean las empresas las que desarrollen algo tan importante? ¿Podemos dejarlo en manos de las grandes fortunas tecnológicas?.

Los creadores del popular Chat GPT habían deslizado la posibilidad de hacer sus desarrollos en código abierto, pero la realidad es que hasta este momento eso no se ha producido. No sabemos cómo funcionan las tripas de esta herramienta y de qué manera se forman las respuestas que nos muestra en su chat. Sin embargo, esto tiene un análisis más complejo que el que pudiera parecer a primera vista. Abrir el código de una herramienta tan poderosa posibilitará que cualquier persona lo pudiera utilizar, para el bien o para el mal. “por un lado el código abierto da transparencia pero también permite la manipulación. Con un sistema de código abierto cualquiera puede cogerlo y adaptarlo a sus intereses que pueden ser no muy honestos y hacer lo que quiera” OpenIA quiere dar una imagen de transparencia donde cualquier persona pueda utilizar su sistema,  pero por otro lado, el uso masivo de su producto estrella, Chat GPT, logra que su sistema mejore. Cuantos más usuarios mejor será su entrenamiento, y cuanto mejor sea su adiestramiento, mejor serán sus resultados.

La inteligencia artificial no es una serpiente de verano, no es una moda pasajera. Ha llegado para quedarse y con ella, nuestra manera de relacionarnos con la tecnología nunca será la misma. Este cambio de paradigma sumado a la velocidad de mejorar su capacidad, hacen necesario un abordaje filosófico y ético para crear unas herramientas que estén al servicio de los seres humanos, de la misma manera que ahora lo están internet o la electricidad.

Unidad de Cultura Científica y de la Innovación (Cienci@ULL)

REDACCIÓN CienciaULL

Archivado en: Revista Hipótesis
Etiquetas:  Arte y Humanidades,  Universidad de La Laguna