«Scarlett Johansson se enfadó con OpenAI por usar su voz sin su permiso en ChatGPT: «No podía creerlo» | Tecnología

EL PAÍS

La reconocida actriz Scarlett Johansson recientemente fue noticia en el ámbito de la inteligencia artificial (IA). En septiembre, la empresa de IA OpenAI le ofreció a Johansson la oportunidad de prestar su voz para su nueva versión, ChatGPT-4o. Sin embargo, Johansson rechazó la propuesta. A pesar de su negativa, la compañía de tecnología avanzó con su proyecto, creando una voz similar a la de Johansson en su nueva versión.

Sam Altman, el CEO de OpenAI, había afirmado que la participación de Johansson en el proyecto permitiría «cerrar la brecha entre empresas tecnológicas y creadores y a confortar a los usuarios». Sin embargo, la actriz rechazó la propuesta tras una cuidadosa consideración.

Tras la presentación del nuevo sistema, Johansson y su entorno notaron lo similar que sonaba la voz de Sky, el nuevo sistema de OpenAI, a la de la actriz. Esta situación llevó a la actriz a emitir un comunicado a la cadena de radio NPR, en el que expresaba su desconcierto y molestia con el desarrollo de OpenAI.

OpenAI, por su parte, retiró la voz Sky antes del mensaje público de Johansson. En un comunicado, la compañía citó a Johansson, declarando que las voces de la IA «no deberían imitar deliberadamente la voz particular de una famosa». Aseguraron que la voz de Sky no era una imitación de la actriz, sino que pertenecía a otra actriz profesional usando su voz natural.

Este incidente ha resaltado dos problemas principales en el campo de la IA y en la actitud de Altman como líder de OpenAI. En primer lugar, con el surgimiento de la IA, los creadores han presenciado cómo estos sistemas han utilizado décadas de trabajo creativo humano para producir contenidos artificiales sin su permiso. El caso de Johansson es el más evidente hasta la fecha.

Altman incluso solicitó la colaboración de Johansson, pero ignoró su negativa y avanzó con el proyecto. Según Johansson, esta actitud es preocupante en un tiempo en que todos luchamos contra los deepfakes y buscamos proteger nuestra imagen, nuestro trabajo y nuestras identidades.

El segundo problema es la conducta de Altman desde su salida y posterior regreso a OpenAI como CEO. Recientemente, varios de los principales colaboradores de la empresa renunciaron debido a desacuerdos con la dirección de la empresa. Uno de ellos, Jan Leike, responsable de analizar los riesgos en el trabajo de OpenAI, criticó el enfoque de la compañía en productos llamativos.

A pesar de su promesa de no humanizar sus chatbots ni incentivar relaciones emocionales con ellos, el esfuerzo de Altman por replicar la voz de Johansson en Her indica lo contrario. El consejo de administración saliente incluso afirmó que habían despedido a Altman por no ser «consistentemente franco» en sus relaciones con ellos.

Este incidente con Johansson proporciona una prueba pública de las preocupaciones que rodean a Altman y su gestión de OpenAI. La controversia también pone de relieve la necesidad de transparencia y regulación en el campo de la IA para garantizar la protección de los derechos individuales.

La actriz concluyó su comunicado expresando su deseo de que «una resolución en forma de transparencia y la aprobación de legislación apropiada ayude a asegurar que los derechos individuales sean protegidos». Este incidente subraya la necesidad de un debate continuo sobre el equilibrio entre la innovación tecnológica y la protección de los derechos individuales en la era de la inteligencia artificial.

Deja una respuesta