Ramon López de Mántaras (Sant Vicenç de Castellet, Barcelona, 72 años) puede decir que se dedicaba a la inteligencia artificial (IA) antes de que se pusiera de moda. Mucho antes, de hecho: lleva cincuenta años en ello, lo que le convierte en uno de los pioneros patrios de la disciplina. Cuenta como anécdota que, cuando Yann LeCun, actual científico jefe de IA en Meta y considerado uno de los padres del aprendizaje profundo (machine learning), estaba haciendo la tesis doctoral en la Universidad Sorbona de París, él fue catedrático invitado allí y le dio un curso.Este ingeniero eléctrico, informático y físico catalán es fundador del Instituto de Investigación de Inteligencia Artificial del Centro Superior de Investigaciones Científicas (CSIC), organismo con el que todavía colabora como profesor de investigación emérito. Acaba de presentar en Madrid su último libro, 100 cosas que hay que saber sobre inteligencia artificial (Lectio Ediciones), en el que ofrece un recorrido muy pedagógico a través de la historia de esta disciplina, logrando explicar de manera sencilla ideas que no lo son tanto. A la IA generativa, la que está detrás de herramientas como ChatGPT o Copilot, solo le dedica el epílogo porque irrumpió cuando el manuscrito estaba listo para publicarse.Más informaciónPregunta. ¿Cuál ha sido, en su opinión, el impacto de la IA generativa en la disciplina?Respuesta. Científicamente hablando, yo le veo un interés más bien escaso. Si nos ceñimos a la IA moderna, la gran pregunta científica es si es posible que haya inteligencia en algo que no es biológico. Yo creo que, para comprender realmente el mundo, es necesario tener consciencia. Ese es el objetivo científico desde los tiempos de los pioneros de los años cincuenta y sesenta: hacer máquinas que sean igual o más inteligentes que los humanos en todos sentidos. Mi opinión, y la de otros como Yann LeCun o Demis Hassabis [director general de Google DeepMind]es que la IA generativa no solo no nos hace avanzar hacia esa IA fuerte, sino que, como dice LeCun, nos desvía del camino para lograrla. El argumento es que no pueden comprender el mundo porque no tienen un cuerpo con el que interactuar en este mundo. Yo voy un poquito más allá: tener cuerpo posiblemente permita aprender leyes físicas básicas y las relaciones causa-efecto más elementales que conoce hasta un bebé, como que si sueltas una manzana, se cae al suelo. Pero eso no implica que una IA tenga consciencia.P. Sin embargo, la IA generativa ha causado fascinación en todo el mundo. El primer aviso fue cuando el ingeniero de Google Blake Lemoine creyó estar chateando con una IA que tenía consciencia. ¿Por qué tendemos a antropomorfizar?R. Es algo inherente al ser humano. Enseguida proyectamos sujetos en objetos que no tienen cualidades humanas. Eso ha sido siempre así. Pero hay que reconocer que, en este caso, el resultado es impresionante. Tú le preguntas algo a ChatGPT y las respuestas son de una precisión pasmosa, gramaticalmente perfectas, persuasivas y con un discurso bien hecho, aunque a veces suelte falsedades. Yo entiendo que la gente pueda llegar a pensar que detrás de ello realmente hay una inteligencia incluso más potente que la suya. Pero en realidad estás ante un programa de ordenador que detecta y recombina patrones una y otra vez y regurgita los resultados.Ramon López de Mántaras posa en una calle de Madrid.INMA FLORESP. Hay quien considera que la IA ya es tan inteligente como las personas o incluso consciente. ¿Es posible que una máquina logre cobrar consciencia?R. Quien afirme que la máquina es inteligente y consciente, ese es quien tiene que demostrarlo. Yo soy de los que creen que ser consciente, comprender el mundo y ser inteligente en el sentido humano del término está profundamente arraigado en el hecho de que somos seres vivos. En que nuestro sustrato es la química del carbono, no la del silicio. Somos tan distintos a las máquinas, con su hardware y su software… La física que hay detrás de los ordenadores está basada en transistores que conducen o no electricidad, los unos y ceros, mientras que nuestros símbolos físicos son los procesamientos que hacemos con las neuronas, que son mucho más complejos que el lenguaje binario. Tenemos actividad eléctrica, pero también química. En fin, es tan incomparable y tan distinta la naturaleza del cerebro y del cuerpo humano respecto a una máquina que, en mi opinión, la consciencia y la inteligencia solo se pueden dar en seres vivos. Otra cosa es que, en un día muy lejano, la bioingeniería evolucionara de tal modo que los replicantes de Blade Runner fueran factibles. Si eso sucede, yo empezaría a admitir que puede que las máquinas puedan llegar a ser conscientes e inteligentes.P. En el libro habla de que uno de los retos fundamentales de la IA es lograr que tengan sentido común. ¿Cuánto se puede avanzar ahí?R. Bueno, de momento yo veo que cada día sale alguna tecnológica a decir que su nuevo modelo de lenguaje tiene muchos más billones de parámetros que el anterior. Pero todos esos modelos son, en esencia, lo mismo. Se basan en el concepto del Transformer, que es la arquitectura neuronal que hay detrás de los grandes modelos de lenguaje (LLM), que evalúan qué palabra es más probable que siga a una secuencia determinada de palabras. Ahí, científicamente hablando, no veo progreso. Ahora bien, ya hay grandes tecnológicas, como Google DeepMind, que están dándole un cuerpo robótico a sus modelos. Por ahí podemos ver cosas interesantes. Como los datos con los que se entrenan los modelos de IA generativa se están acabando, Hassabis o LeCun sostienen que el camino es hacerlos corpóreos para que puedan comprender el mundo, algo que vengo diciendo yo desde hace 20 años en mis conferencias. Lo que hay que hacer es generar híbridos, integrar las redes neuronales con arquitecturas cognitivas e IA simbólica basada en la lógica. Y el resultado de ello, dotarlo de cuerpo.P. Sin dotar de cuerpo a la IA, ¿no habrá grandes avances?R. La IA no siempre necesita tener conocimiento del mundo para funcionar bien. AlphaFold, que le ha valido el Nobel de Química a Hassabis, tiene 32 algoritmos distintos. Hay redes neuronales, machine learning e IA de causalidad trabajando de forma integrada. Para predecir la forma en que se pliegan las proteínas no hace falta tener un modelo del mundo, y, por tanto, no se necesita tener cuerpo.P. Se queja en el libro de que la IA generativa se está desplegando de forma muy apresurada y atropellada. ¿Cómo debería hacerse? ¿Qué tipo de regulación deberíamos tener?R. Estamos en una especie de carrera armamentística. El primer modelo de ChatGPT lo lanzaron con la idea de que ya recibirían feedback de los centenares de millones de personas que lo usaran. Esta dinámica de soltar el bicho y esperar a ver qué pasa es fatal desde el punto de vista ético e incluso legal. No se pueden hacer experimentos sociales a gran escala, creo que hay que ser más prudentes. Yo me preocupo, porque hemos visto ya, que se sepa, un par de suicidios en Bélgica y Estados Unidos. Emily Bender, Timnit Gebru y Margaret Mitchell ya advirtieron en un artículo sobre las consecuencias de soltar una tecnología que hiciera pensar a la gente que estaban interactuando con un humano.P. ¿Le parece correcta la forma en que la UE está enfocando el asunto?R. La Unión Europea va en el buen sentido, aunque no es una regulación con la que esté de acuerdo al 100%. Creo que comporta una carga burocrática muy grande, que va a dificultar que las empresas con buena fe puedan cumplir. ¿Cómo vas a exigir transparencia algorítmica si los propios diseñadores del software no saben lo que realmente está ocurriendo dentro de la caja negra que es el machine learning? Otra cosa que critico es que no mencionan ni una sola vez las aplicaciones de armas letales autónomas.Pero, con estas salvedades, creo que la idea de fondo de la normativa es buena. Hay que regular las aplicaciones peligrosas de la IA. No hablamos de que pueda dominar a la humanidad, sino de peligros reales: manipulación de la información, desinformación, influencia en resultados electorales, sesgos, discriminación, consumo energético absolutamente insostenible, etcétera. Tenemos ya una lista larga de problemas reales. Da la sensación de que quienes se centran en los riesgos existenciales de la IA lo hacen para correr un tupido velo sobre lo que ya está pasando.

Shares: