18 de julio de 2023 – 00:00 GMT+0000Compartir
FacebookXWhatsAppCopy Link
Hace poco que ha muerto Gordon Moore, cofundador de Intel en 1968 y una de las personas que más hizo por el fulgurante desarrollo de la microelectrónica. En 1965 Moore predijo que la capacidad de las computadoras se doblaría cada año, marcando así en el tiempo la evolución de la capacidad de almacenamiento y de cálculo de estas máquinas. Lo hizo observando la evolución inicial de la relación precio/prestaciones de los chips desarrollados para el diseño de computadoras. Su predicción, conocida como Ley de Moore, aunque no es una ley realmente, fue ligeramente exagerada, ya que se viene necesitando un año y medio o dos años para duplicar estas prestaciones, como él mismo observó más tarde. Esta predicción sigue en buena medida vigente y es previsible que se mantenga hasta que se alcancen los límites físicos para la integración de transistores mediante la tecnología del silicio, y seguramente podrá ir incluso más allá, ya que han aparecido alternativas interesantes a este material, como el grafeno, y también otras aproximaciones para seguir aumentando la capacidad de cálculo, como añadir una tercera dimensión al diseño de chips, la computación cuántica o las computadoras neuromórficas.
Evidentemente, nada puede crecer para siempre, ya que habrá circunstancias que limiten ese crecimiento. El alimento, la energía, el espacio… Lo que crece exponencialmente todavía tiene más problemas, ya que en cortos períodos de tiempo se alcanzan magnitudes inmensas e inmanejables. Hace años me entretuve en analizar la evolución en la facturación de Microsoft desde mediados de los años 70 a finales de los 90, y me sorprendió que esta se había duplicado aproximadamente cada par de años. De haber seguido así, esta empresa hubiese alcanzado al poco tiempo una facturación equivalente al PIB terráqueo. Esto ni ocurrió ni hubiese podido ocurrir, por supuesto.
¿Es posible que la inteligencia artificial (IA) pueda llegar a crecer también de modo exponencial? Para bien o para mal, es fácil sospechar que esto tendría consecuencias inimaginables, incluso para nosotros, agentes necesarios en ese hipotético logro.
Vayamos por partes. Lo primero que es necesario aclarar es que no debe identificarse la capacidad de computación de una máquina con su inteligencia. La supercomputadora más potente no será mucho más inteligente que una simple computadora personal si ambas se programan solo para la resolución de ecuaciones diferenciales, pongamos por caso. La supercomputadora será increíblemente más rápida, eso sí, y por ello podríamos decir que algo más inteligente también, pero globalmente no mucho más, insisto.
No cabe duda de que el aumento exponencial en la potencia de cálculo, la memoria y las telecomunicaciones son imprescindibles para los avances tan significativos que estamos viviendo en la inteligencia artificial. Pero estos progresos en la IA distan mucho de poder considerarse exponenciales, aunque esta expresión aparezca con frecuencia en los medios de comunicación, en las bocas de algunos supuestos expertos del campo y que incluso así lo “piense” ChatGPT, el logro más llamativo, no sé si más importante, de la IA hasta la fecha. Tampoco nos han acercado a la denominada IA de propósito general, no digamos ya a la de nivel humano.
Quizás fue el matemático Irving John Good el primero en especular sobre un posible crecimiento exponencial de la inteligencia de las máquinas. En 1965 escribió sobre una hipotética máquina “ultrainteligente” capaz de superar con creces todas las actividades intelectuales humanas. Precisamente, siendo el diseño de máquinas una de ellas, Good pensaba en una máquina que pudiese diseñar otras incluso mejores que sí misma, y estas, a su vez, otras mejores aún, de modo que asistiríamos a una explosión de inteligencia que dejaría a la nuestra rápidamente atrás.
Efectivamente esta capacidad de mejorarse a sí mismas, y a la carrera, sería una posible vía de lograr un crecimiento exponencial, o al menos geométrico, de la IA. Pero no serviría si la mejora fuese simplemente hacer máquinas más rápidas, ya que estaríamos en el escenario que antes he comentado. Realmente tendría que ser capaz de mejorar lo que ya de partida sería una inteligencia de propósito general, y no sabemos si eso es posible, y ni siquiera tenemos pistas de cómo intentarlo.
Sin duda el abismo que todavía separa a la IA de nosotros es que llevamos de “fábrica” la más compleja y potente máquina de aprendizaje que se conoce. La evolución modeló nuestro cerebro como un sistema de aprendizaje de propósito general, que aprende a caminar, a manipular objetos, a tocar un instrumento, a hablar uno o más idiomas, a escribirlos, en prosa y en verso, a resolver problemas matemáticos, a diagnosticar enfermedades, a buscar un origen para el universo y un por qué a nuestra existencia… a hacer máquinas que aprenden, aunque de momento cosas muy específicas, y aquí está la principal limitación para lograr una IA de propósito general.
La obra de Ramón y Cajal, “Textura del sistema nervioso del hombre y de los vertebrados”, comienza con una afirmación inequívoca: “El sistema nervioso representa el último término de la evolución de la materia viva y la máquina más complicada y de más notables actividades que nos ofrece la naturaleza”. Cada vez sabemos más de esta asombrosa máquina natural, capaz de reflexionar sobre sí misma, y vamos construyendo otras artificiales que quizás podrán llegar algún día a superarla. Marvin Minsky pensaba que será cuestión de tiempo que lo logremos, pero de momento no sabemos cómo. Sí creemos que algún día seremos capaces de controlar la energía atómica de fusión para producir una energía limpia, y en la práctica ilimitada. En este caso sabemos el camino a seguir y tenemos unas expectativas bien fundamentadas de que en unas pocas décadas se podrá lograr. En el caso de la IA de propósito general pueden ser décadas, siglos o quizás nunca, porque no sabemos siquiera si hay un camino que podría llevarnos a ese destino. Quizás cuando el conocimiento de nuestro cerebro, esa máquina prodigiosa que Cajal sacó de la más absoluta oscuridad, nos dé más respuestas que nuevas preguntas, y dispongamos de una teoría sólida de la inteligencia humana, comenzaremos a ver un camino. Mientras tanto, la supercomputación no será superinteligencia.
AUTOR:
ILUSTRACIÓN CARLA GARRIDO
Archivado en: Revista HipótesisEtiquetas: Número 15, Artículo, Ciencia y Sociedad, Víctor García Tagua, Universidad de La Lagu
Departamento de Electrónica y Computación
senen.barro@usc.es