Audio generado por IA con machismo, racismo y violaciones de derechos de autor

EL PAÍS

El avance de la inteligencia artificial en el sonido

Desde melodías o transcripción de voz hasta asistencia para personas con discapacidad visual, la inteligencia artificial (IA) generativa de sonido ha avanzado a pasos agigantados, siendo capaz de crear audio de alta calidad. Sin embargo, un estudio revela que los datos utilizados para entrenar a la IA han pasado por alto los sesgos, el lenguaje ofensivo y el uso de contenido con derechos de autor. Un equipo de investigadores ha revisado exhaustivamente 175 conjuntos de datos de habla, música y sonido, encontrando material sesgado similar al encontrado en bases de datos de texto e imagen.

Investigación y hallazgos

Durante un año, los científicos dirigidos por William Agnew, de la Universidad Carnegie Mellon (EE UU), estudiaron 680.000 horas de audio de siete plataformas y 600 investigaciones en total. Analizaron desde la transcripción de discursos hasta letras de canciones, con la mayoría del material en inglés. Los archivos incluían grabaciones de voz y piezas musicales de plataformas como AudioSet y Free Music Archive, además de dos millones de videos de YouTube de 10 segundos de duración.

Sesgos en los datos de audio

El análisis detectó que la palabra hombre se asociaba con guerra o historia, mientras que los términos relacionados con mujer incluían tienda o mamá, asociados con los cuidados y la familia. También se encontraron insultos como perra. En particular, Free Music Archive y LibriVox contenían miles de términos racistas y discriminatorios. “Las voces queer son ignoradas por los investigadores”, plantea Robin Netzorg, coautora del estudio.

Impacto de los sesgos en la IA

Los investigadores creen que si los estereotipos no se abordan adecuadamente, los conjuntos de datos de audio pueden generar modelos que perpetúen o incluso aceleren los prejuicios. Julia Barnett, colaboradora del estudio, asegura que muchas personas no son conscientes de los sesgos. “Al considerar un conjunto de datos como un reflejo de la humanidad sin entender su verdadera composición, se generarán efectos negativos más adelante”, dice.

Reflexiones de expertos en IA

Para Andrés Masegosa, experto en inteligencia artificial, los sesgos no son sorprendentes: “La IA extrae patrones de un conjunto de datos y replica lo que ya existe”. Si un niño se expone a un comportamiento machista, reproducirá ese sesgo de forma inconsciente, sugiere.

Desafíos del almacenamiento y procesamiento

A diferencia de los datos de texto, los de audio requieren un mayor almacenamiento, plantea Sauvik Das, participando en la investigación. Esto implica que necesitan una potencia de procesamiento más alta para ser auditados. “Necesitamos más datos para tener modelos de mayor calidad”, argumenta.

La voz como dato biométrico

El daño potencial de las tecnologías de audio generativo aún no se conoce completamente. Podría tener implicaciones sociales y legales, abarcando desde el derecho de publicidad hasta la propiedad intelectual. Al menos el 35% de los audios analizados presentaban contenido protegido por copyright.

Borja Adsuara, abogado experto en derecho digital, señala que la voz es un dato biométrico y está especialmente protegido. Recuerda la controversia de Scarlett Johansson cuando el chatbot Sky de OpenAI tenía un tono parecido a su voz. La IA ha utilizado voces de músicos como Bad Bunny y Bad Gyal para simular interpretaciones no realizadas, infringiendo derechos de imagen y propiedad intelectual.

artículo original de: https://elpais.com/tecnologia/2024-12-09/la-ia-genera-audios-plagados-de-machismo-racismo-e-infracciones-de-derechos-de-autor.html

Deja una respuesta