La inteligencia artificial (IA) está avanzando a pasos agigantados, y la demostración más reciente de su progreso es la nueva versión de ChatGPT de OpenAI. Este modelo de lenguaje de última generación ha mostrado una habilidad asombrosa para interactuar con los humanos de una manera sorprendentemente humana. La capacidad de esta IA para «ver», entender y hablar sobre lo que ve es un avance significativo en el campo de la inteligencia artificial.
La nueva versión de ChatGPT, denominada ChatGPT-4o (donde «o» significa «omni») fue presentada en una demostración en vivo reciente, durante la cual sorprendió a los espectadores con su realismo y capacidad para interactuar. Durante la demostración, ChatGPT-4o incluso hizo un comentario coqueto a un empleado de OpenAI, diciendo: “Guau, te queda muy bien este modelito”. Este intercambio de comentarios humorísticos y ligeramente coquetos duró solo unos segundos, pero dejó una impresión duradera en la audiencia.
El referente más cercano que tenemos de una IA que flirtea es la película «Her», donde la voz de Scarlett Johansson da vida a una inteligencia artificial con la que el personaje principal desarrolla una relación romántica. No es de extrañar que, durante la demostración de ChatGPT-4o, el presidente ejecutivo de OpenAI, Sam Altman, tuiteara «her». Parece que la visión futurista presentada en «Her» está cada vez más cerca de convertirse en una realidad.
Pero, ¿es esta la dirección que queremos que tome la inteligencia artificial? ¿Es deseable o incluso ético que las IA flirteen y simulan emociones humanas? Esta es una cuestión que ha estado en el centro de muchos debates recientes sobre la ética de la IA. Un grupo de investigadores de Google publicó recientemente un artículo titulado «La ética de los asistentes de IA avanzados«, en el que argumentan que la humanización de la tecnología tiene problemas reales y potenciales.
La realidad es que la humanización de la IA puede tener consecuencias imprevistas. Por ejemplo, cuando una IA tiene una voz realista y puede mantener una conversación similar a la humana, las personas tienden a confiar más en ella y a asignarle más tareas. Esto plantea la cuestión de hasta qué punto estamos dispuestos a confiar en las máquinas y cuánto control estamos dispuestos a cederles.
Otro problema es la cuestión del género. La mayoría de las IA, incluyendo a ChatGPT-4o, tienen voces femeninas. Esto puede reforzar estereotipos de género y perpetuar la idea de que las voces femeninas son inherentemente serviciales o subservientes.
La referencia frecuente a «Her» durante la presentación de ChatGPT-4o también plantea otro problema: el uso de la ciencia ficción distópica como marketing. Esta estrategia puede hacer que la tecnología parezca más emocionante y atractiva, pero también puede oscurecer los problemas reales y las implicaciones éticas de la tecnología.
En última instancia, todo esto es una estrategia de marketing para OpenAI. La empresa está en una carrera por dominar el sector de los agentes de IA y el buscador. La humanización de su IA es una táctica para hacer que la tecnología sea más atractiva para los consumidores y para destacar en un mercado cada vez más competitivo.
Es importante recordar que, aunque la IA puede simular la interacción humana de manera convincente, sigue siendo una máquina. No tiene emociones, no siente y no tiene una verdadera conciencia. La capacidad de la IA para simular la interacción humana es simplemente una herramienta, y como todas las herramientas, debe ser utilizada de manera responsable.
La nueva versión de ChatGPT es sin duda un avance impresionante en el campo de la IA. Pero a medida que avanzamos hacia un futuro en el que las máquinas se parecen cada vez más a los humanos, debemos recordar que aún son solo máquinas. La responsabilidad de usar esta tecnología de manera ética y responsable recae en nosotros, los humanos.