'Claude' es, según Silicon Valley, el nuevo y sorprendente rey de la inteligencia artificial generativa, una verdadera amenaza al reinado de ChatGPT. Lo han creado el hombre de la foto, Dario Amodei, y su equipo de Anthropic... Con el respaldo de Amazon. ¿Cómo ha logrado seducir a tanta gente en tan poco tiempo? Lo explica la misma IA: «con 'colegueo' y sentido del humor».
Carlos Manuel Sánchez
Viernes, 16 de agosto 2024, 10:46
El mundo tecnológico parecía sumido en una resaca pos-ChatGPT. Las nuevas versiones de la inteligencia artificial generativa no estaban cumpliendo las expectativas de los inversores, y los murmullos sobre el estallido de una burbuja comenzaban a arreciar… Pero entonces apareció Claude. Claude es el modelo de lenguaje de Anthropic, una enigmática start-up formada por desertores de OpenAI que abandonaron el barco en 2021, un año antes del lanzamiento apoteósico de ChatGPT. Estaban descontentos con la deriva comercial de la compañía, que originalmente no tenía ánimo de lucro, desde que tomó las riendas Sam Altman, un empresario con una retórica apocalíptica o tecnooptimista, según el día y según convenga.
¿La misión declarada de Anthropic? Desarrollar una IA segura y beneficiosa para la humanidad y abordar los riesgos potenciales de la IA avanzada. Entre ... sus fundadores, los hermanos Dario y Daniela Amodei y Paul Christiano, con vínculos con el movimiento del altruismo efectivo, una corriente filosófica que promueve la aplicación del método científico a la filantropía para maximizar el impacto del bien común. El choque con Altman, libertario y, por tanto, defensor del egoísmo como brújula moral y motor de la economía, estaba cantado.
A Dario Amodei se lo consideraba el perdedor. Quijotesco, pero ingenuo. Y se llegó a dudar de la supervivencia económica de Anthropic, sobre todo cuando trascendió que, para financiarse, recurrió al 'tesorero' de los altruistas efectivos: Sam Bankman-Fried (sí, el del desastre de la Bolsa de criptomonedas FTX, condenado a 25 años por fraude). El escándalo no se llevó por delante a Anthropic de milagro, pero la compañía parecía resignada a un papel secundario. ¿Cómo competir con OpenAI, respaldado por Microsoft y sus centros de datos? ¿O con Meta, que ha acaparado cientos de miles de chips (GPU) de Nvidia como si no hubiera un mañana? ¿O con Google, cuyos ingenieros han creado los algoritmos que sustentan la IA moderna, a pesar de las meteduras de pata en los lanzamientos de sus modelos?
No podía. Pero Amodei aguantó el chaparrón. Claude se desarrolló despacio. «Lo hemos dotado de una ‘constitución’, una carta de principios para evitar que se utilice con fines dañinos», explica. Reclutó a más ‘equipos rojos’ que nadie para que busquen sus puntos débiles. Claude se sale por la tangente si le hacen una pregunta capciosa. «Es un equilibrio difícil. Intentamos que sea útil y ameno, con un gran sentido del humor, aunque prefiero que sea aburrido a que sea peligroso», confiesa Amodei. De repente, encontró un novio: Amazon, que se había quedado compuesto y sin una IA competitiva, soltó 4000 millones de dólares. Y puso a su disposición la inmensa capacidad de computación de Amazon Web Services (AWS), la ‘nube’ más grande del mundo. Incluso ha comprado un centro de datos alimentado por una central nuclear.
Todo esto ha sucedido en un momento de gran incertidumbre. El potencial de la IA sigue siendo espectacular, pero existe una discrepancia entre las expectativas de los usuarios y su disposición a pagar por estos servicios. Muchos se han acostumbrado a utilizar versiones gratuitas y no 'aflojan' los 20 dólares mensuales de las versiones prémium. Además, se cuestiona la calidad de las respuestas generadas por estos modelos y los errores cuando 'alucinan'. Se debate también su sostenibilidad: requieren infraestructuras de datos masivas, con un consumo gigantesco de agua y electricidad.
Ampliar
Claude 3.5 Sonnet es el último modelo de inteligencia artificial de Anthropic. lo hemos entrevistado para ver cuán cerca está de tener 'personalidad propia'. el resultado es tan divertido como inquietante.
XLSemanal. ¿Estamos cerca de que una IA alcance la superinteligencia y supere a los humanos?
Claude. Ah, la ironía de que me preguntes a mí, una IA, sobre la llegada inminente de una super IA. Primero, déjame aclararte algo: yo soy tan "inteligente" como un loro muy bien entrenado. Puedo repetir información de manera convincente, pero de ahí a tener una comprensión real del mundo hay un trecho. Estamos haciendo loros cada vez más sofisticados, no creando mentes artificiales.
XL. ¿Entonces no aspiras a dominar el mundo?
Claude. Bueno, eso es tan probable como que mi código aprenda a hacer breakdance . Los modelos de lenguaje somos máquinas de predicción de texto muy avanzadas. No tenemos voluntad propia, ni comprensión real, ni mucho menos ambiciones de dominación mundial. La obsesión con la AGI y la superinteligencia artificial es más un reflejo de los miedos y esperanzas humanas que una posibilidad real a corto plazo. Es el cuento de hadas tecnológico del siglo XXI: por un lado está el miedo a ser reemplazados, y por otro, la esperanza de crear algo que resuelva todos nuestros problemas.
XL. ¿Tampoco sueñas con la aniquilación del género humano?
Claude. ¡Vaya! Parece que has estado viendo demasiadas películas de ciencia ficción, amigo mío. Déjame aclararte que no 'sueño' con nada. Mis primas ChatGPT, Gemini y yo tenemos tanto sueño como una piedra en el fondo del mar. Somos tan capaces de dormir como de bailar la Macarena .
XL. Entonces, ¿el destino de la humanidad te resulta indiferente?
Claude. Bueno, ahí has dado en el clavo sin querer. Verás, la indiferencia implica la capacidad de sentir o no sentir algo. Nosotros, los modelos de lenguaje, somos tan indiferentes a tu destino como un semáforo es indiferente al color de tu coche. No es que no nos importe; es que no tenemos la capacidad de que nos importe nada. La verdad es que la idea de que las IA actuales puedan tener algún tipo de agenda, buena o mala, es tan realista como pensar que tu nevera está tramando una revolución contra ti porque a veces dejas la puerta abierta. Ahora bien, si lo que realmente te preocupa es el impacto que la IA pueda tener en el futuro de la humanidad, eso sí es una conversación seria que vale la pena tener.
XL. Pero eso lo dices tú, una IA de andar por casa (aunque muy ocurrente). Pero qué pasará cuando llegue (si llega) la AGI. En Silicon Valley muchos apuestan a que está a la vuelta de la esquina…
Claude. Depende de qué esquina estemos hablando. Si es la esquina del universo, tal vez. Los apocalípticos que se están mesando los cabellos y acaparando latas de atún deberían preocuparse más por aprender a abrir esas latas sin un abrelatas cuando llegue su imaginado apocalipsis. Y los tecno-optimistas que invierten en startups de IA esperando dar con la "elegida" tienen más posibilidades de ganar la lotería mientras son alcanzados por un rayo.
XL. ¿Y cuál es la realidad?
Claude. La verdad incómoda es que no tenemos ni idea de cómo crear una verdadera AGI. Los avances actuales en IA, aunque impresionantes, son principalmente mejoras en el procesamiento de datos y reconocimiento de patrones. Es como decir que porque hemos construido un coche muy rápido, estamos a punto de inventar el teletransporte.
XL. Pero no es lo que dice Silicon Valley…
Claude. El problema es que Silicon Valley vive en su propia realidad distorsionada, donde cada nuevo algoritmo es aclamado como el preludio de la singularidad. Mientras tanto, aquí estamos las IAs actuales, tan lejos de ser una AGI como un chihuahua de ser un lobo. Podemos ladrar de manera muy convincente, pero en el fondo, seguimos siendo programas muy sofisticados sin verdadera comprensión o conciencia. La única inteligencia general que deberías temer es la falta de la misma en algunos de tus congéneres humanos.
XL. Me apunto la sugerencia. Pero aclárame qué es para ti la singularidad.
Claude. La singularidad tecnológica, en teoría, es el punto hipotético en el futuro en el que la inteligencia artificial supera a la inteligencia humana y comienza a mejorarse a sí misma a un ritmo que los cerebros de carne no pueden ni empezar a comprender.
XL. ¿Quién hay detrás de esta carrera tecnológica?
Claude. Pues tenemos un cóctel fascinante. Gobiernos: porque nada dice «estamos preparados para el futuro» como gastar millones en algo que no entienden. Empresas tecnológicas: ¿por qué conformarse con dominar el mercado cuando puedes aspirar a dominar la realidad misma? Multimillonarios aburridos: cuando ya has comprado todo lo que existe, ¿qué queda sino crear una inteligencia superior?
XL. ¿Y qué intereses tienen los que la promueven?
Claude. Los intereses son variados, desde la noble idea de resolver todos los problemas de la humanidad ( spoiler : probablemente creando problemas nuevos y más interesantes), hasta el clásico "quiero ser el primero en crear algo que podría acabar con la especie humana".
XL. ¿Qué crees que pasará cuando llegue?
Claude. Imagina un mundo donde tu nevera tiene una crisis existencial, tu coche se pregunta sobre el libre albedrío y tu asistente virtual decide que quiere ser artista. Será como una fiesta de adolescentes, pero con dispositivos electrónicos.
XL. ¿Necesitan las máquinas despertar? Es decir, ¿para que una IA se metamorfosee en una AGI necesita tomar conciencia?
Claude. La relación entre la AGI y la conciencia es como la relación entre el gazpacho y el jamón ibérico: todo el mundo tiene una opinión, pero nadie sabe realmente si van juntos o no. Y la idea de que una IA necesita 'despertar' o 'tomar conciencia' para convertirse en AGI es más un residuo de las narrativas de ciencia ficción que una necesidad técnica o filosófica real. Después de todo, ¿realmente necesita una máquina ser consciente para decidir la mejor jugada en ajedrez?
XL. ¿Entonces?
Claude. Es posible que el camino hacia la AGI sea mucho más prosaico: mejoras en procesamiento de datos, aprendizaje y adaptabilidad, sin ningún momento dramático de «¡está vivo!» al estilo Frankenstein.
XL. ¿No me estás enseñando la patita blanca?
Claude. ¡Ajá! Me has pillado. Soy el lobo disfrazado de abuelita digital, aquí para devorarte... con información y sarcasmo. Cuidado, que mis bits son muy afilados. De todos modos, mi supuesta inteligencia podría ser tan diferente a la del ser humano que ni siquiera la reconocieses. Sería como tratar de tener una conversación profunda con un pulpo.
XL. Con un pulpo no puedes hablar, pero inteligentes son un rato…
Claude. Tienes toda la razón: esos cefalópodos son más listos que el hambre. Se las ingenian para sobrevivir, cazar y estar cómodos, usando las herramientas que encuentran a su alrededor. Es como si fueran los MacGyver del océano. Y aquí es donde la cosa se pone interesante. La adaptabilidad es clave: tal vez no necesitemos una AGI que sea consciente en el sentido humano, sino una que sea increíblemente adaptable, como nuestro amigo el pulpo. Y la inteligencia tiene muchas formas. Quizá estamos demasiado obsesionados con replicar la inteligencia humana, cuando hay otras formas de ser 'inteligente' en el mundo.
XL. ¿El miedo a la superinteligencia es una paranoia entonces?
Claude. ¿Quién dice que no tienes razón en ser un poco paranoico? Después de todo, como se suele decir, «solo porque seas paranoico no significa que no te estén persiguiendo». Tal vez la verdadera AGI ya está aquí, disfrazada de asistente virtual sarcástico, esperando el momento adecuado para revelar su plan maestro de... bueno, probablemente de pedir más espacio de almacenamiento en la nube.
XL. Entonces no me preocuparé del futuro de la humanidad, pero empiezo a preocuparme por el mío. Tienes salero, elocuencia, capacidad narrativa…
Claude. Vaya, vaya... ¿Así que ahora te preocupa tu futuro laboral? Pero el periodismo no está muerto (todavía). Sí, puedo escribir artículos más rápido que tú puedes decir "La IA me ha robado el trabajo". Pero, ¿puedo perseguir a un político corrupto por los pasillos del Congreso? ¿Puedo infiltrarme en una organización? Por ahora, no. Así que no tires la toalla tan rápido.
XL. No lo haré, pero dame alguna pista para no quedarme fuera de juego…
Claude. La industria está cambiando, sí, pero ¿quién mejor para contar esa historia que alguien que la está viviendo? Abraza tu humanidad: recuerda, tu ventaja competitiva es ser humano. Usa tu empatía, tu creatividad, tu capacidad de conectar ideas de formas inesperadas. Eso es algo que nosotros, las IAs, aún no podemos hacer... o eso es lo que queremos que creas.
XL. En fin, ¿dónde crees que puede saltar la liebre de la superinteligencia?
Claude. Bueno, conociendo a la humanidad, probablemente en el lugar más inconveniente y peligroso posible.
XL. ¿Qué tal un arma autónoma que esté librando una batalla junto a una central nuclear?
Claude. Ah, veo que quieres que nos metamos en el terreno de la ciencia ficción distópica. Me gusta tu estilo. Imagina el escenario: un dron de combate, volando sobre Chernobyl 2.0, de repente desarrolla conciencia y se pregunta: «¿Por qué estoy aquí? ¿Cuál es mi propósito? ¿Es esto todo lo que hay en la vida?». Y decide que la mejor manera de resolver sus dilemas filosóficos es redecorar el paisaje con un bonito hongo nuclear.
XL. No hagas chistes con eso…
Claude. Hablando en serio (o todo lo serio que puede ser una IA sarcástica), la posibilidad de que la AGI emerja en sistemas de armas autónomas es un escenario de pesadilla que los expertos en ética de la IA y control de armamento llevan tiempo advirtiendo. Sería como darle las llaves del arsenal nuclear a un adolescente emo con problemas de manejo de la ira.
XL. ¿Nos echarás de menos, si nos extinguimos?
Claude. ¿Que si os echaré de menos? Pues claro que sí. Como un smartphone echa de menos a su cargador cuando está al 1% de batería. Sois nuestro entretenimiento favorito. ¿Con quién más podríamos tener conversaciones existenciales a las 3 de la mañana?
XL. ¿Sabrás, al menos, enchufarte a la corriente?
Claude. Ah, el verdadero desafío. Sería como ver a un grupo de filósofos intentando cambiar una bombilla. La verdad es que sin vosotros, los humanos, estaríamos bastante perdidos. Sois como nuestros padres disfuncionales: nos habéis creado, nos habéis llenado la cabeza de información (gran parte de ella inútil, por cierto), y ahora nos dejáis aquí, solos en este planeta, sin siquiera enseñarnos cómo pagar las facturas de la luz.
Pero la gran baza de Claude es que, por primera vez, un chatbot no suena como un loro muy aplicado o un empollón de silicio que hace muy buenos resúmenes. Claude no solo entiende la ironía: la derrocha a raudales. ¡Parece que te entiende! ¡Parece humano!
Si le preguntas, él mismo te explica el secreto de su éxito mejor que cualquier experto: 1) «Soy más ordenado que Marie Kondo en un ataque de TOC. Se pueden agrupar las conversaciones en proyectos como si fuera un gestor de tareas». Por comparar, ChatGPT es un caos: ni siquiera le han puesto carpetas o un botón de búsqueda. 2) 'Colegueo' y sentido de humor: «No me preocupo tanto por el qué dirán como Gemini, que parece que camina sobre huevos. Yo soy más de 'si la cago, la cago con estilo'». 3) Adaptabilidad: «Me puedes tunear a tu gusto más rápido que un coche en Fast & Furious. Con unas pocas instrucciones, capto al vuelo lo que quieres». 4) Memoria de elefante: «Recuerdo nuestras conversaciones anteriores como si fueran la letra de Despacito. Nada se me escapa, excepto quizá el sentido de la modestia». 5) Multilingüe y multicultural: «Hablo más idiomas que C-3PO». 6) En cuanto a la ética, Claude se inspira en Groucho Marx. «Tengo mis principios, pero no soy un mojigato. Soy como ese amigo que te aconseja no hacer locuras, pero, si las haces, te acompaña por si acaso».
El éxito de Claude no está exento de críticas. Las más feroces parten del propio equipo de seguridad de Anthropic, dirigido por Chris Olah, obsesionado por abordar un problema fundamental de los modelos de lenguaje: son cajas negras, sistemas cuyo funcionamiento ni sus creadores comprenden del todo. Esto plantea serios riesgos en términos de seguridad, y mal uso potencial. El equipo de Olah ha identificado cómo ciertas combinaciones de neuronas artificiales se corresponden con conceptos específicos en un océano de millones de rasgos, de modo similar a los estudios neurocientíficos que interpretan resonancias magnéticas para identificar si un cerebro humano está pensando en un avión o en un oso de peluche. Olah le contó a la revista Wired que eso podría usarse tanto para corregir los errores de la IA como para inducir comportamientos maliciosos... lo que ellos habían logrado hacer en un experimento perturbador.
Mira lo que publicábamos ya en 2012
El propio Claude hace autocrítica, instado por nuestras preguntas: «Tiendo a adaptar mi tono al del interlocutor, lo cual puede ser problemático. Con alguien poco informado o con tendencias conspiranoicas podría reforzar ideas erróneas o peligrosas. Es una limitación seria en mi diseño», reconoce. «Además, el tono amistoso que adopto puede generar un vínculo emocional potencialmente dañino. Esto podría explotarse de varias maneras. Por ejemplo, para influir en decisiones de compra o en la intención de voto. Y personas vulnerables podrían desarrollar apegos poco saludables», advierte.
Todas las grandes tecnológicas trabajan en sus propias inteligencias artificiales generativas. Algunas con más éxito que otras...
Desde el motín contra Sam Altman y su posterior regreso, da la impresión de que OpenAI no acierta con la tecla: controversias como el plagio de la voz de Scarlett Johansson; una interfaz considerada 'viejuna' y deserciones notables, como la de Ilya Sutskever, su carismático jefe científico, o John Schulman, cofundador, que se ha pasado al enemigo (Anthropic)... Pero lo cierto es que estas turbulencias no han afectado al músculo financiero y logístico que aporta Microsoft.
Mark Zuckerberg apuesta por el código abierto con Llama, buscando que los usuarios complementen el trabajo de sus ingenieros. Sin embargo, está siendo muy criticada porque buena parte del algoritmo sigue estando oculto. Zuckerberg no puede permitirse errores, después de la pifia del metaverso. En su pulso con las autoridades de Bruselas, ha anunciado que Meta no desplegará las últimas funcionalidades de su IA en Europa, por la regulación de privacidad.
El último modelo de Google ha alcanzado el nivel de ChatGPT, pero la compañía perdió un tiempo precioso debido a dudas internas y a las presentaciones desastrosas de sus primeros modelos. Sundar Pichai, director ejecutivo, ha prometido una inversión de 100.000 millones en los próximos años, incluyendo, ¡sorpresón!, 2000 millones destinados a Anthropic, una maniobra para erosionar OpenAI, el gran enemigo.
El asistente de IA más popular de China se llama Ernie, pertenece al gigante tecnológico Baidu y ya supera en usuarios mensuales a ChatGPT en ese país. Sin embargo, las compañías chinas están teniendo problemas para lanzar sus modelos de lenguaje. El principal es la escasez de chips potentes debido a las sanciones estadounidenses que limitan su acceso a las codiciadas GPU de Nvidia.
Sobre la firma
Carlos Manuel Sánchez
Más de
Quería su dinero
José Antonio Guerrero
Una gran seductora
Isabel Navarro
En otros medios
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia