Volver
';

Las predicciones del padrino de la inteligencia artificial Geoffrey Hinton: «Las máquinas tendrán sentimientos, se enamorarán»

Geoffrey Hinton nos ha cambiado la vida. Ha logrado que las máquinas aprendan por sí solas y, así tenemos los predictores de palabras, el reconocimiento de imágenes, los asistentes virtuales… y el ChatGPT. Cuando recibió el Premio Fundación BBVA Fronteras del Conocimiento en 2017 hablamos con él en Toronto y lo que nos contó, y que recuperamos aquí, es especialmente revelador ahora que él mismo admite su inquietud ante el potencial de la inteligencia artificial y la urgente necesidad de controlarla. Entonces no la veía tan amenazante...

por Ana Tagarro

Lunes, 08 de Mayo 2023

Tiempo de lectura: 16 min

Geoffrey Hinton no se sienta desde 2005. Literalmente. Un serio problema en la espalda lo obliga a estar de pie o tumbado. Una dificultad ante la que él se limita a sonreír y encogerse de hombros —«estoy acostumbrado; te puedes acostumbrar a cualquier cosa»—, pero que hace que esta entrevista tenga lugar de pie en su destartalado despacho de la Universidad de Toronto, en Canadá. Hinton es ahora todo una personalidad en Google, que lo fichó en 2013 para el desarrollo de la inteligencia artificial, y podría tener un despacho mejor, pero es aquí donde trabaja desde los ochenta y no tiene ningún interés en cambiarlo.

A Hinton, nacido en Londres en 1947, lo llaman el ‘padrino’ de la inteligencia artificial. Y no es un título cualquiera. La paternidad de la inteligencia artificial está muy disputada, pero sobre el padrino no hay duda. Su aportación es decisiva. Contra toda lógica, él apostó por relegar la lógica a la hora de crear inteligencia artificial. Y lo hizo en 1972.

Desde pequeño, a Hinton lo que le ha interesado de verdad es el cerebro, así que lo primero que estudió fue Psicología Experimental, en Cambridge. Una vez sumergido en las claves de nuestra mente, decidió que podía replicarlas y llevarlas a la computación. Se inspiró en la biología para programar y creó lo que se ha dado en llamar ‘redes neuronales’. Durante 30 años, su propuesta no tuvo ningún eco en la comunidad científica. Pero, a medida que la potencia de los ordenadores aumentaba, la inteligencia artificial neuronal comenzó a funcionar mejor que la basada en la sola acumulación de datos. La IA generativa de Hinton implica que el sistema mejora por su cuenta a medida que aprende (el algoritmo pondera el aprendizaje más eficaz y modifica la fuerza de las conexiones entre las 'neuronas' o nodos).

De repente, Hinton era un genio, un visionario. Y Silicon Valley puso los ojos en él. Los asistentes virtuales, los traductores simultáneos, el reconocimiento de imágenes, el predictor de palabras, los coches sin conductor… Detrás de todo ello hay un cerebro: el de Geoffrey Hinton.


XLSemanal. Usted propuso que las máquinas funcionaran como el cerebro humano, y eso que todavía no tenemos claro cómo actúa nuestra mente, y resulta que la cosa funciona… Lo suyo tiene mérito.

Geoffrey Hinton. No sabemos cómo funciona el cerebro en profundidad, pero sabemos que cuando aprende algo modifica la fuerza de las conexiones entre las neuronas. Y sabemos más o menos cómo funciona una neurona. Así que hemos creado un modelo informático aplicando los principios de una neurona y hemos diseñado un algoritmo de aprendizaje de forma que el sistema mejora a medida que aprende.

alternative text
La IA desencadenada. Hinton pertenece a una familia británica de científicos. Su abuelo fue el matemático George Boole, que sentó las bases de la aritmética computacional, y su padre era el prestigioso entomólogo H. E. Hinton. Él se ha dedicado durante 40 años a la inteligencia artificial generativa, cuando nadie apostaba por ella. Ahora, que el ChatGPT ha supuesto un salto sustancial en esa línea, Hinton ha expresado sus temores a que se haya dado un paso temerario y que la IA escape al control humano y lo haga mucho antes de lo que pensamos. Él, a los 75 años, ha dejado Google y se ha trasladado a Londres, desde donde quiere hacer lo posible por evitar que se imponga el lado oscuro de su criatura.

XL. Esto va a requerir una explicación más detallada, pero da la impresión de que la inteligencia artificial no solo creará máquinas más listas, sino que puede hacernos más listos a nosotros…

G.H. Quizá no seamos más listos, pero entenderemos mejor nuestro cerebro.

XL. Pero si nosotros no mejoramos nuestras capacidades cerebrales y las máquinas sí, acabarán por dominarnos.

G.H. No, no lo creo. Se producirá una simbiosis. Los ordenadores con simuladores de redes neuronales y la gente trabajarán juntos. No creo que acabemos dominados por las máquinas y, si eso ocurre, será en un futuro muy muy lejano.

XL. Pues en el Centro de Riesgo Existencial, de la Universidad de Cambridge, creado por gente que trabaja con inteligencia artificial, no están tan seguros. Estudian que esa posibilidad se produzca en 50 años.

G.H. ¿50 años? ¡Es imposible saber lo que va a ocurrir en 50 años! Conozco el centro, pero no puedes hacer predicciones serias más allá de 5 años.

«Los robots no nos dominarán. Un sistema menos inteligente puede controlar a otro superior. Mire a los bebés. La madre no soporta su llanto. Algo menos poderoso que ella la domina»

XL. Supongamos que esa posibilidad existe… ¿Qué podríamos hacer para evitarlo? ¿Introducir cierto sistema de valores en las máquinas o crear un algoritmo ético, como plantean algunos?

G.H. Ya tenemos un ejemplo de un sistema menos inteligente que controla a un sistema más inteligente. Y eso es un bebé. Una madre simplemente no puede soportar el llanto del bebé. Está diseñada para no poder quedarse indiferente. Es un ejemplo de cómo algo que tú pensarías que es más poderoso -la madre- tiene algo dentro de ella, construido por la evolución, que permite que algo menos poderoso -el bebé- la controle e impide que lo abandone o lo tire por la ventana. Los bebés han encontrado la forma de controlar a las madres.

XL. Lo que quiere decir, entiendo, es que nosotros somos los bebés y las máquinas superinteligentes son las madres y, a pesar de ello, seremos capaces de controlarlas, ¿es así?

G.H. Eso es. Nosotros vamos a construir en las madres, o sea, en las máquinas esta ‘cosa’ a la que no pueden resistirse y hará que se apaguen.

XL. ¿Nos vamos a poner a llorar?

G.H. No sé lo que haremos. Pero ya tenemos un ejemplo de que eso es posible. Si la evolución lo ha hecho con las madres, nosotros podremos hacerlo con las máquinas.

«La solución para los que pierdan el trabajo por los robots es la renta universal. El progreso no se puede detener»

XL. Ha dicho usted que la responsabilidad de lo que hagan las máquinas no es de los científicos, sino de los políticos.

G.H. Aquí hay dos temas diferentes. Un asunto es que las máquinas sean más inteligentes que nosotros y nos superen. Si eso ocurre, será en un futuro muy lejano. Otro tema es que las máquinas sean tan inteligentes como para realizar muchos de los trabajos actuales, de forma que la gente se quede sin empleo. Este tema compete al sistema político. Que las máquinas puedan hacer cosas como dispensar dinero en un banco es intrínsecamente más eficaz, así que intrínsecamente debería ser bueno para la gente. Y lo que queremos es que sea mejor para toda la gente y no solo para unos pocos. Eso es un asunto político y los políticos deben resolverlo.

XL. ¿Alguna idea?

G.H. La renta básica universal. Yo estoy a favor de eso, por ejemplo. De hecho, creo que es la única solución. Porque lo que es seguro es que no puedes detener el progreso. No hay forma de evitar los cajeros automáticos. Y nadie piensa que fuesen una mala idea. La solución es cambiar el sistema político de forma que cuando se crea más riqueza, porque las máquinas son más eficaces, esa riqueza se reparta.

XL. Uno de los campos en los que sus redes neuronales son más eficaces es la traducción. Según parece, en breve no vamos a necesitar aprender idiomas, ¿no?

G.H. Todavía estamos un poco lejos de las traducciones perfectas, pero ya son bastante buenas. Va a ser como las calculadoras. Ya nadie se molesta en hacer cálculo mental. Para el trabajo del día a día y las transacciones de negocios no vas a necesitar aprender el idioma. Ahora bien, para traducciones de calidad, todavía vas a necesitar gente. Y si quieres entender una cultura, tendrás que aprender su idioma.

XL. El otro uso para el que sus algoritmos son muy útiles son las predicciones del Mercado de Valores, es decir, la especulación. ¿Cómo va a cambiar eso el mundo financiero?

G.H. Bueno, eso ya se está haciendo. Hay un montón de automatic trading y alguna gente se está forrando con ello.

XL. ¿Podría esa especulación desatada basada en la rapidez del procesado de datos llevarnos a otra crisis?

G.H. No lo sé, no soy un experto en esa materia. Pero lo que yo creo es que todo eso debe estar altamente regulado. El peligro no son las máquinas, que vayan o no rápido, el peligro es que se están quitando las regulaciones.

alternative text
Intuición mecánica. Hace 25 años, el ordenador Deep Blue derrotó al campeón de ajedrez Gary Kasparov. El siguiente desafío fue ganar al Go, un juego chino difícil para un ordenador porque requiere intuición. Google creó en 2016 AlphaGo, basado en la inteligencia artificial de Hinton. Y la máquina volvió a derrotar al hombre. Lo hizo con movimientos ‘incomprensibles’, es decir, siendo creativo.

XL. La gran ventaja de las redes neuronales es que son intuitivas, además de lógicas. ¿Pero qué pintan en todo esto los sentimientos? ¿Se puede enamorar una máquina?

G.H. Sí.

XL. ¿Sí?

G.H. Los seres humanos son máquinas, solo que muy muy sofisticadas.

XL. Esa afirmación requeriría una explicación más profunda, pero yo me refería a las que no son de carne y hueso. ¿Se puede enamorar un robot?

G.H. Por supuesto que podría. Imagina tu cerebro. E imagina que reemplazamos cada célula cerebral por una máquina que trabaja exactamente igual que esa célula. Imagina que podemos llegar a hacer eso con nanotecnología. Luego reemplazo todas las neuronas de tu cerebro por pequeñas máquinas que actúan exactamente como tus neuronas. Lo que sea que tú hicieras antes, este nuevo sistema lo hará ahora. Si tú te reías de un chiste, este nuevo sistema se reirá también; si te ofende el comportamiento de una persona, este nuevo sistema se ofenderá también, tendrá sentimientos…

XL. Pero reproducir eso no es posible.

G.H. No es posible… hoy. Pero es posible. Lo que ocurre es que la gente no entiende qué significa tener sentimientos. Es un problema filosófico.

Qué es la inteligencia artificial generativa

¿Qué es un algoritmo?

Un algoritmo es un conjunto metódico de pasos que pueden emplearse para hacer cálculos, resolver problemas y/o tomar decisiones. Un algoritmo no es un cálculo concreto, sino el método que se sigue cuando se hace el cálculo o se resuelve un problema. Por ejemplo, una receta de cocina es un algoritmo, ya que nos indica unos pasos que nos llevan a un resultado concreto. Para tomar decisiones, empleamos algoritmos. Por... Leer más

¿Qué es la inteligencia artificial?

Se denomina ‘inteligencia artificial’ a la facultad de razonamiento de un agente que no está vivo. Es decir, una máquina. La inteligencia artificial se construye mediante algoritmos. El término lo acuñó en 1956 John McCarth y la definió como: «La ciencia e ingenio de hacer máquinas inteligentes». Pero el padre de la inteligencia artificial más aceptado es Alan Turing, por su histórico artículo de... Leer más

¿Qué son las redes neuronales?

Las redes neuronales son un tipo de inteligencia artificial. Son modelos computacionales que simulan neuronas de nuestro cerebro. Cada neurona virtual está conectada a otras y puede incrementar o inhibir su activación, siguiendo los mismos patrones que un cerebro humano. La red aprende a medida que se la expone a un cúmulo de datos cada vez mayor. Pero cuando se introduce información, la fuerza... Leer más

XL. Pues tal y como usted lo cuenta no parece filosófico, sino mecánico. reemplazar neuronas por chips…

G.H. Es filosófico. Si le preguntas a una persona que te explique sus sentimientos, te dirá, por ejemplo, «siento que quiero pegar a alguien». Lo traducen como acciones que podrían realizar en el mundo real o hablando de sus causas. Así que cuando la gente habla de sentimientos no habla de algo dentro de la cabeza, no se refieren a la actividad neuronal. Porque no estamos acostumbrados. Si yo te digo: «Tu neurona 52 está muy activa», no te dirá nada y, sin embargo, si te apetece golpear a alguien es porque la neurona 52 está muy activa. Así que ‘sentimientos’ es solo un lenguaje tonto para hablar de estados del cerebro.

XL. O sea, que no entendemos los sentimientos…

G.H. Hablamos siempre en términos de sus causas o de sus efectos. No de lo que ocurre en el cerebro.

XL. ¿Y cómo trasladamos esos sentimientos a las máquinas?

G.H. Tenemos una máquina a la que podemos dar unos inputs y que es capaz de suprimir sus acciones, que puede inhibirse de actuar. Normalmente esa máquina se comporta de una determinada manera cuando le damos esos inputs, pero ahora le decimos al robot: «Quiero que no lo hagas», pero quiero que me digas qué harías si pudieses hacer algo a partir de esos inputs. Y la máquina me diría: «Si pudiera, movería esa pieza». Es decir, el robot siente que quiere mover una pieza. El robot tiene un sentimiento. Aunque no lo hace. Y así es como funciona un sentimiento.

XL. Y ahora sí que tenemos una cuestión filosófica… Si solo eres lo que son tus neuronas y vienen ‘de fábrica’ cuando naces, ¿eres responsable de tus actos?

G.H. Por supuesto. No hay ningún conflicto entre determinismo y responsabilidad. Aunque esto nos llevaría a otro tema. Pero tener unas determinadas neuronas no elimina en absoluto nuestra responsabilidad sobre quiénes somos y lo que hacemos.

XL. Sospecho que usted no es una persona religiosa…

G.H. Es una sospecha acertada.

XL. Usted se empeñó en abordar la inteligencia artificial como si fuese el cerebro humano durante 40 años sin recibir ningún reconocimiento. ¿Qué les dice ahora a los que le recriminaban que estuviese perdiendo el tiempo?

G.H. Lo que les digo es que debería haber teorías mejores que las que usamos hoy. Mucha gente ha dejado de buscar mejores formas de redes neuronales porque estas están funcionando, y eso es un gran error. En el momento en que estás satisfecho, no vas a ningún lado.

XL. ¿Es esa la razón por la que un académico como usted ha empezado a trabajar para Google?

G.H. Lo que hago en Google es intentar desarrollar nuevos tipos de redes neuronales, más eficaces. Ellos tienen ordenadores más rápidos y me permiten pasar todo mi tiempo investigando.

XL. Cuando era joven, se negó a trabajar para el Ejército americano, que estaba muy interesado en su investigación y dispuesto a financiarla. ¿Trabajar para Google no le produce ninguna inquietud?

G.H. No trabajaría para Google si desarrollasen armas.

XL. Pero hacen negocios y no siempre claros…

G.H. Hacen la economía más eficiente.

«No creo que acabemos gobernados por Silicon Valley. Siempre necesitaremos líderes políticos. Si quieres cambiar el mundo, estudia ciencias sociales»

XL. Pero no sabemos qué hacen con nuestros datos, si los venden para que otros nos vendan productos… Todo eso no está claro, no cree?

G.H. Google tiene mucho cuidado con lo que hace con los datos personales. Y, desde luego, yo confío mucho más en Google que en la NSA. Google estaba horrorizado cuando se dio cuenta de que la NSA estaba interceptando sus servidores. Genuinamente horrorizados. Yo estaba allí.

XL. Igual acabamos teniendo que confiar en los chicos de Silicon Valley más que en los políticos, especialmente en tiempos de Trump…

G.H. No pienso hacer ningún comentario sobre Trump.

XL. Vale. Pero ¿cree que acabaremos gobernados por Silicon Valley y la élite del algoritmo?

G.H. No, no lo creo. Siempre necesitaremos líderes políticos. Lo que pasa es que a la gente le gusta pensar que si las cosas van mal es por los líderes políticos, en lugar de pensar en términos de sistemas. Es el sistema social y sus dinámicas lo que deberíamos entender y organizar para que funcione bien.

XL. ¿Qué carrera deberíamos estudiar hoy en día para encontrar un trabajo?

G.H. Si estudias redes neuronales, seguro que encuentras un trabajo ahora mismo. Pero si quieres cambiar el mundo, estudia ciencias sociales.

XL. No irá usted a España a recoger el premio Fronteras del Conocimiento de la Fundación BBVA porque no puede coger un avión por su problema de espalda…

G.H. No, y no he estado nunca en España, aunque para ser precisos una vez puse un pie en su país.

XL. ¿Un pie?

G.H. Sí, en los años cincuenta mi padre me llevó a Andorra y yo le pedí ir a España, pero él se negaba porque estaba Franco y él era de claras convicciones políticas. Pero le pidió a un guarda de la frontera, que ya que yo tenía el capricho, me dejase poner un pie en España. Y lo puse.

Ahora, Hinton ya tiene un pie en la puerta. Tiene prisa. Pero cuando estamos abandonando la universidad, me hace una singular invitación. que lo acompañe al barrio chino porque tiene que comprarle un juguete a su mujer. Por desconcertante que resulte la propuesta, no cabe otra respuesta que «por supuesto». Hinton empieza a caminar a tal velocidad que resulta difícil seguirlo. El barrio chino está cerca, pero el trayecto da para una explicación sobre el juguete. Su mujer colecciona unas determinadas figuras. Está enferma y quiere llevarle una en concreto. Tiene una dirección de una tienda que confía a Google Maps. Pero con el buscador la tienda no aparece. Una calle, la otra… Nada. Sugiero, recuperando el aliento, que confíe en el ser humano y pregunte a alguien por la tienda. Reticente, aborda a dos trabajadores latinos que nos indican dónde puede estar la tienda. Y, efectivamente, allí está.

«Ser humano, 1-Google, 0», admite Hinton riendo. Entramos con la misma prisa por el estrecho pasillo de la tienda y, entre juguetes chinos, celebro la victoria del hombre sobre la máquina. Hinton se da la vuelta y, sonriendo como si la anécdota no fuese sino una confirmación, dice: «Nosotros somos las máquinas».