Michael I. Jordan, pionero de la IA: «Algo de soberbia en el mundo de la IA»


Tecnología


EL PAÍS

Michael I. Jordan: Reflexiones sobre la Inteligencia Artificial

Michael I. Jordan (Maryland, EE UU, 1956) es matemático y doctor en ciencias cognitivas. Su trabajo está en el origen de aplicaciones de IA como ChatGPT o los sistemas de recomendación. Hoy es catedrático emérito de la Universidad de California en Berkeley e investigador en el INRIA de París, pero nunca le interesó sumarse al frenesí empresarial de Silicon Valley: “Todo el mundo debe encontrar lo que le gusta, sin pasarse de la raya, y yo soy alguien que quiere entender las cosas, no solo construirlas”, dice. Sus conocimientos y ese punto de vista externo le permiten observar el bombo de la IA generativa con bastante escepticismo. Acaba de obtener el premio Fronteras del Conocimiento de la Fundación BBVA por su trayectoria. Sobre su nombre no acepta muchas bromas: Jordan ya era catedrático del MIT antes de los éxitos de la estrella del baloncesto y ahora sigue en activo. “Al principio era divertido pero luego me cansé”, dice.

¿Hay demasiado bombo con la IA?

Pregunta. ¿Hay demasiado bombo con la IA?

Respuesta. El bombo no parará. A la gente que desarrolla esta tecnología le encanta hablar de ello y extrapolar, aunque también hay un poco de soberbia. Lo que hace avanzar a la humanidad son los esfuerzos colectivos. Individualmente no somos tan inteligentes. Estas empresas desarrollan herramientas poderosas, pero una herramienta tirada en el suelo no hace mucho; tiene que estar en manos de un humano o de un grupo. Entonces empiezan a pasar cosas interesantes. Si vas a resolver algo, si vas a encontrar nuevos medicamentos, la herramienta te ayudará a mirar en los lugares correctos y a dar consejos. Si vas a enfrentar retos climáticos, te ayudará a hacer mejores predicciones. Si vas a dedicarte al arte, te permitirá crear nuevos sonidos o conexiones. Sin embargo, por sí solas, no resuelven el problema.

ChatGPT y el avance de la IA

P. ¿Esperaba que apareciera algo como ChatGPT hace dos años?

R. Es mejor de lo que habría imaginado. Aunque ya desde 1990 se sabía que habría IA por fuerza bruta, que es simplemente hacer algo, sin tratar de entender nada directamente. Solo deja que un algoritmo de optimización lo encuentre todo y lo haga con cantidades enormes de datos. Todas estas ideas ya existían en 1990. Los ingredientes adicionales actuales han sido dos: el fácil acceso a cantidades enormes de datos de internet y, luego, las GPU [tarjetas gráficas], que realmente le dieron poder. Cuando pones todos los ingredientes juntos, de repente se vuelve realmente bueno. La manera correcta de pensar sobre ChatGPT es una presencia colectiva de toda la humanidad. Toma pequeños trozos de cientos de millones de personas, especialmente aquellos que escribieron cosas buenas, como Wikipedia. Gran parte de su inteligencia viene de las contribuciones de la gente.

DeepSeek y el futuro de la IA

P. Ahora acaba de irrumpir el modelo chino DeepSeek. ¿Sus ventajas de DeepSeek son tan extraordinarias como se dice?

R. No lo he estudiado en detalle, pero parece que sí son significativas. No es del todo sorprendente, teniendo en cuenta que las arquitecturas que han funcionado, basadas en transformers y redes en capas, se han diseñado de forma un poco improvisada. Muchas veces ha bastado con usar la fuerza bruta para avanzar rápidamente. Pero eso no significa que no haya trucos inteligentes o arquitecturas más simples que también funcionen.

Las prioridades de Silicon Valley en IA

P. ¿Qué puede significar su éxito ahora para las prioridades de Silicon Valley en IA, considerando las enormes inversiones en software y centros de datos?

R. Creo que Silicon Valley debería pensar más en el modelo de negocio de la IA generativa y los grandes modelos de lenguaje, y no depender solo de la fuerza bruta para avanzar.

El futuro de la IA según Dario Amodei

P. El fundador de Anthropic, Dario Amodei, creador del chatbot Claude, decía hace unos días en Davos que en dos o tres años la IA será “mejor que casi todos los humanos en casi todo”.

R. No lo creo. Esa persona no estudió ciencias de la computación, ni lingüística, ni ciencias sociales, sino que su formación era en física. Y los físicos tienden a tener mucha soberbia sobre cómo funciona el universo. Pero creo que están subestimando el genio humano, especialmente el genio colectivo. Los ordenadores ya hacen cierto tipo de matemáticas mejor que cualquiera de nosotros. También pueden escribir canciones e incluso, probablemente, una novela. Pero no creo que, en dos o tres años, escriban novelas como las de Dostoyevski. Sus novelas hablan de la condición humana y resuenan porque reflejan la experiencia del autor, una persona que tuvo una vida, que vivió. Algo de eso se puede imitar prediciendo la siguiente palabra en muchas frases viejas, pero no es lo mismo.

Deepmind y el enfoque de herramientas

P. En Deepmind, de Google, hablan más de herramientas?

R. Me parece bien. Hago distinciones entre empresas. Deepmind me parece una de las empresas más productivas porque crean herramientas útiles. No sigo todos los detalles, quizás tienen algo de arrogancia del tipo ‘vamos a resolver los problemas del mundo’, pero creo que no lo dicen así. Solo intentan crear las mejores herramientas posibles. Pero hay otra gente más loca que piensa que desde su torre de IA va a tener todo el conocimiento del mundo y lo sabrá todo. Si queremos respuesta a cualquier pregunta, iremos a ella y nos dará la respuesta. Eso es muy poco plausible. Los humanos tienen pensamientos contextuales, complejos. Y esa gran máquina en la cima no sabe todas esas cosas. Decir que alguna entidad será más inteligente que nosotros, es que no está muy bien definido.

La inteligencia en diferentes formas

P. Ha dicho que afirmar que una entidad será más inteligente que nosotros es muy ingenuo.

R. La inteligencia tiene muchas formas. A mí me gusta hablar de la inteligencia de un mercado. Está compuesto por un montón de decisiones pequeñas. No necesitas saber mucho para tomar esas decisiones, pero cuando juntas todas esas decisiones dentro de una estructura adecuada, con incentivos y ciertos tipos de conexiones, surge algo increíble. Ese mercado hace cosas asombrosas: estabiliza transacciones, hace que las cosas estén disponibles, se adapta, y mucho más. Es, en cualquier definición, una entidad inteligente. Pero no es inteligencia humana, es otro tipo de inteligencia. Probablemente haya otras diez formas de inteligencia más.

Resolver la inteligencia

P. Cuando alguien dice que vamos a “resolver la inteligencia”, ¿de qué habla?

R. ¿De resolverlas todas? ¿De crear una mega inteligencia que las abarque? Parece ciencia ficción y no resulta muy útil para personas con un enfoque práctico como los ingenieros o científicos como yo. Tampoco creo que ayude a la sociedad pensar que estamos a punto de alcanzar algo así. Creo que a la sociedad le ayuda más pensar que vamos a tener herramientas muy poderosas y que encontraremos formas creativas de usarlas. Los jóvenes de 25 años que llegan a este mundo creen que su rol es crear robots autónomos que bailen en el escenario. Y no, su rol es por ejemplo desarrollar un sistema de coches federado y unido que permita que nunca más nadie muera en un coche.

Robots y su utilidad

P. ¿Y los robots que presentó Elon Musk que servían cerveza?

R. Es relaciones públicas. Son juegos, juguetes. A ver, es ingeniería seria, no hay duda. Pero no creo que sea un camino particularmente bueno. De nuevo, tratan de imitar a los humanos, copiarles y, por tanto, reemplazarles. No creo que ese deba ser el objetivo principal de la tecnología. Debería ser ayudar a los humanos y permitirnos hacer cosas que no hacemos muy bien. No voy a criticar esos robots, entretienen. Pero hay tantos problemas que serían un enfoque mejor para esta tecnología, en lugar de tener robots entrando en edificios en llamas o yendo a Marte.

IA generativa y objetivos colectivos

P. ¿Por qué la IA generativa no tiene objetivos más colectivos y generales?

R. La IA generativa es sexy. Hace cosas impresionantes. Enseñas lo que hace y automáticamente todo el mundo asume que detrás hay una súper tecnología. Resultado: ¡invirtamos! Y gran parte de esto está impulsado por el deseo de conseguir 100 millones en una ronda de financiación. Pero la realidad es que, si entras en cualquier empresa que resuelva problemas del mundo real, como mover paquetes de un lugar a otro, garantizar la seguridad de las personas o mejorar la educación, en esas empresas están todos están sentados en la misma mesa trabajando juntos. Es un enfoque ingenieril para resolver problemas reales. Claro que usarán herramientas de IA generativa para ciertas cosas, pero no van a gastar todo su tiempo desarrollando herramientas solo para obtener una valoración millonaria. Aunque la mayoría de las empresas sí usan algo de IA generativa, su modelo de negocio no gira en torno a eso. En cambio, muchas de estas startups que desarrollan IA generativa y logran valoraciones altísimas no van a sobrevivir, porque no tienen un modelo de negocio sólido.

El estado actual de la IA

P. ¿Ahí estamos hoy?

R. Sí, y no quiero decir que lo sé todo porque tenga mucha experiencia, pero Elon Musk ha prometido coches autónomos como cinco veces. Cada año decía: “Los vamos a tener ya”. Y no lo ha logrado porque no entendía lo difícil que es. Tienes a Waymo, que creo que es una empresa más exitosa en este sentido. Y hay coches de Waymo en San Francisco funcionando, pero de forma sencilla. Se mueven relativamente despacio, son relativamente seguros, y eso está bien. Está tomando tiempo. Ese tipo de proyectos de ingeniería no son cosas que se resuelvan en dos años, son más bien proyectos de diez. Y eso que estamos hablando de coches, que no son tan complejos como, por ejemplo, el cuerpo humano y la medicina o la física del clima. En cuanto te metes en cualquiera de esos problemas, te das cuenta de que la complejidad absoluta empieza a importar mucho.

Impacto laboral de la IA

P. Qué diría a quienes temen perder su trabajo reemplazados por una IA?

R. Primero diría que necesitamos más economistas laborales en esta discusión. Cuando hablamos de regulación, Europa tiene la costumbre de lanzar regulaciones primero y pensar después. Eso es una muy mala idea. Primero tienes que entender el fenómeno. Luego añades alguna regulación para asegurarte de que crea buenos equilibrios. Este enfoque de control de arriba abajo sobre la tecnología, solo porque la gente le tiene miedo, es una muy mala idea. Eso no significa que no debas pensar en ello. Claramente algunos trabajos van a desaparecer, y puede que algunos necesiten ser protegidos. Tal vez haya que ralentizar el proceso. Si los trabajos desaparecen en uno o dos años, es demasiado rápido. Pero si tardan 10 años, es mejor: eso da tiempo a que la gente se ajuste y entienda que ciertos trabajos, como escuchar una conversación y resumirla, los puede hacer la IA. Si tu sueño era ser la persona que toma notas en una reunión, mejor piensa en otra carrera.

Consejos para los jóvenes en la era de la IA

P. ¿Y qué diría a un joven que entra en la universidad en la era de la IA?

R. No es cierto que no deban hacer matemáticas porque todo lo harán los ordenadores. Surgirán nuevos problemas, y no serán los viejos problemas de la informática. Habrá nuevos problemas en la ciencia de la computación, y no se tratará solo de aprender a programar en Fortran o C. Se tratará de integrar cosas en sistemas más grandes. Las máquinas no lo harán por sí solas. Si eres del tipo que construye y entiende cómo integrar cosas, habrá montones de trabajos.

artículo original de: https://elpais.com/tecnologia/2025-02-04/michael-i-jordan-pionero-de-la-ia-hay-un-poco-de-soberbia-en-el-mundo-de-la-ia.html

Deja una respuesta