¿Por qué ex empleados de OpenAI eligen advertir sobre los peligros de la inteligencia artificial incluso si eso significa perder millones? | Tecnología

EL PAÍS

El desarrollo de la inteligencia artificial (IA) está avanzando a un ritmo vertiginoso, con empresas como OpenAI a la vanguardia. Sin embargo, un grupo de ex empleados y trabajadores anónimos de la compañía han publicado una carta advirtiendo que la empresa está priorizando los incentivos comerciales por encima de los peligros de desarrollar sistemas de IA cada vez más avanzados.

La carta, firmada por cinco ex empleados y seis trabajadores anónimos, denuncia la cultura interna de secretismo de OpenAI y cómo la empresa les obliga a firmar contratos en los que no pueden criticar a la empresa después de su salida si no quieren perder su dinero. Los firmantes piden a la compañía que retire estos contratos y que establezca canales de denuncia interna para los avances peligrosos en IA.

Daniel Kokotajlo, ex empleado de OpenAI, ha sido una de las voces más destacadas en esta denuncia. Kokotajlo, que renunció a su posición en el departamento de Gobernanza de OpenAI en abril, dijo al New York Times que el valor de sus acciones rondaba los 1,6 millones de euros. Sin embargo, para él, su libertad para expresarse en el futuro era más importante.

El desarrollo descontrolado de la Inteligencia Artificial General (AGI), un término de la industria que se refiere al momento en que las máquinas obtienen la capacidad de pensar y decidir como un humano, es una de las principales preocupaciones de los críticos de OpenAI. Miles de expertos han pedido pausar los avances en esta área, y otros han firmado un manifiesto pidiendo mitigar el riesgo de extinción que podría suponer.

William Saunders, otro de los firmantes de la carta, expresó su preocupación por la falta de un diálogo público sobre lo que está sucediendo en estas empresas de IA. A pesar de que hablar en público podría poner en riesgo su dinero, Saunders cree que es más importante tener una conversación abierta sobre estos temas.

La preocupación por la IA no es nueva. Incluso Sam Altman, cofundador de OpenAI, ha admitido anteriormente que «todo puede salir muy mal» en el desarrollo de la IA. Otros expertos en el campo, como Geoffrey Hinton, uno de los padres de la IA, han dejado sus puestos en empresas como Google para poder hablar libremente sobre los peligros futuros de la IA.

La carta de los empleados de OpenAI ha recibido el apoyo de Hinton, así como de Yoshua Bengio, otro de los ganadores del premio Turing, considerado el «Nobel de Informática» por sus logros con la IA. Además, una ex empleada y un trabajador actual de Google Deep Mind se encuentran entre los firmantes de la carta, titulada «Derecho para advertir sobre la IA avanzada».

Los exempleados de OpenAI temen que las protecciones para los informantes internos sean insuficientes, ya que los riesgos que les preocupan aún no han sido regulados. Esta situación ha llevado a un clima de tensión dentro de la compañía. A mediados de mayo, Ilya Sutskever, cofundador de OpenAI, abandonó la empresa, acompañado de Jan Leike, que criticó la priorización de la creación de «productos llamativos» por parte de la empresa.

Uno de los ejemplos más recientes de la preocupación por la dirección de OpenAI es la controversia en torno a ChatGPT-4o, un producto de la empresa capaz de conversar en tiempo real. Esta tecnología generó una polémica con la actriz Scarlett Johansson, lo que provocó una nueva ola de críticas hacia la empresa.

La salida de Leopold Aschenbrenner, uno de los miembros del equipo de «alineación» de OpenAI, que se encarga de asegurar que las máquinas no se vuelvan autónomas, también ha generado controversia. Aschenbrenner fue despedido por compartir un documento sobre medidas de seguridad con investigadores externos sin autorización.

A pesar de todas estas controversias, el futuro de la IA sigue siendo incierto. Los temores se centran en la aparición de máquinas sin control que dejen de seguir órdenes humanas. Pero, como señala Aschenbrenner, todavía hay mucho que no sabemos sobre lo que depara el futuro de la IA.

Deja una respuesta