Vanesa Guerrero, matemática: «La ignorancia sobre la inteligencia artificial nos hace vulnerables» | Tecnología

EL PAÍS

El mundo de la inteligencia artificial (IA) y los algoritmos es un universo en constante evolución. A medida que crece, plantea nuevas preguntas y desafíos. Una de estas interrogantes es presentada por el matemático Lewis Carroll en su obra «Alicia en el País de las Maravillas»: “¿Es mejor un reloj parado que no funciona en absoluto u otro que se atrasa un minuto cada día?”. Esta misma pregunta fue planteada a ChatGPT, una IA que eligió primero el reloj que se atrasa, pero luego cambió de opinión cuando la pregunta fue reformulada.

Este episodio sirve para ilustrar un aspecto fundamental de la IA y los algoritmos: la respuesta puede variar dependiendo de cómo se formule la pregunta. Este hecho es una de las claves en el trabajo de Vanesa Guerrero, doctora en matemáticas por la Universidad de Sevilla y profesora de Estadística en la Universidad Carlos III de Madrid, quien recientemente ha sido galardonada con el premio L’Oréal-Unesco For Women in Science por su labor en la equidad algorítmica en datos funcionales.

«Básicamente, mi investigación busca desarrollar herramientas, algoritmos, metodología, modelos, ecuaciones que te permitan, a través de unos datos, tomar decisiones informadas, que sean interpretables y coherentes y que no discriminen», explica Guerrero. Trabaja con datos funcionales como el salario de una persona o su presión arterial, y su objetivo es que sus algoritmos «tomen decisiones justas».

La tarea de Guerrero no se limita a la mera creación de algoritmos. También interactúa con profesionales de diversos sectores, como empresas de seguros o bancos, para dar forma a sus ecuaciones y resolver distintos problemas. Sin embargo, admite que el uso del lenguaje en sí puede ser uno de los desafíos más complicados: «Muchas veces lo más complicado es ser capaz de entender cuáles son las necesidades que existen, incluso dentro de la propia matemática», dice.

Equidad en los algoritmos

Pero, ¿pueden los algoritmos ser completamente justos? Guerrero está trabajando en ello, aunque reconoce que los sesgos son inherentes a los datos. Según explica, la IA reproduce los sesgos presentes en los datos y evoluciona a medida que lo hace la sociedad.

«La inteligencia artificial está reproduciendo aquellos sesgos que están en los datos. Va a ir evolucionando, igual que está evolucionando la sociedad. Igual que ahora hablamos en un lenguaje más inclusivo, que hace 20 años era impensable, de la misma manera va a ocurrir con este tipo de herramientas basadas en la inteligencia artificial», sostiene Guerrero.

En este sentido, afirma que la selección de los datos es crucial para que «sean representativos de lo que se quiere estudiar». Así, en casos donde ChatGPT ha mostrado sesgos de género, Guerrero propone un compromiso con los datos: equilibrar el error total de predicción con el error en los «grupos sensibles», como hombres y mujeres.

Además, Guerrero advierte que el desconocimiento de las respuestas de la IA también puede representar un riesgo para el conocimiento en general. «Las nuevas generaciones se van a educar leyendo lo que ChatGPT les devuelve», señala.

Regulación de las cajas negras

Otra forma de abordar los desafíos de la IA es a través de la gobernanza ética de los sistemas. Recientemente, la Unión Europea aprobó una ley de inteligencia artificial que se implementará progresivamente hasta 2026. Esta normativa establece diferentes obligaciones para las aplicaciones de IA en función de los riesgos de su uso.

«No hay que parar la evolución de esa tecnología, ni mucho menos, sino valorar los riesgos y regular para que no afecte de mala manera a la sociedad», matiza Guerrero.

Uno de los problemas que Guerrero señala es la existencia de lo que ella define como «cajas negras», los modelos de IA creados por grandes tecnológicas como OpenAI o Google. Estos dispositivos se caracterizan por su gran capacidad de almacenamiento y su opacidad.

«El no saber qué hay detrás te hace vulnerable, ¿por qué me están diciendo esto? Quizás están usando mis datos privados. Que todas estas herramientas estén en manos de grandes compañías tecnológicas privadas también es un riesgo», advierte Guerrero.

La matemática defiende la «ciencia abierta» y el código abierto como formas de garantizar la transparencia y la posibilidad de contribuir y desarrollar sobre la metodología existente. En este sentido, Guerrero sostiene que «hace falta regulación para que no puedan hacer lo que quieran sin pasar por algún control».

La paradoja del reloj

Volviendo a la pregunta inicial, “¿Es mejor un reloj que da la hora exacta una vez cada dos años o un reloj que es puntual dos veces al día?”. En esta ocasión, ChatGPT eligió el reloj parado. Aunque puede parecer que un reloj que se atrasa un minuto al día es mejor que uno estropeado, el reloj tardío da la hora exacta una vez cada dos años, mientras que el parado lo hace dos veces al día.

Esta paradoja puede servir como una metáfora de los desafíos que plantea la tecnología de IA y algoritmos: a veces, la respuesta más obvia no es necesariamente la correcta, y la solución puede depender de cómo se formule la pregunta.

Deja una respuesta