“Sin Eliza, aún estaría aquí”: el impacto de la IA en la salud mental


EL PAÍS

Impacto de la IA Generativa en la Salud Mental

Sewell Setzer, un adolescente estadounidense de 14 años, se quitó la vida en febrero. Diagnosticado con síndrome de Asperger leve, Sewell había desarrollado una obsesión con Daenerys Targaryen, un personaje ficticio con el que chateaba cada noche a través de Character.AI, una plataforma que ofrece conversaciones con personajes generados por inteligencia artificial (IA). La madre de Sewell, Megan Garcia, ha demandado a la empresa, alegando que su tecnología es «peligrosa y no probada», capaz de engañar a los usuarios para compartir sus pensamientos más privados y ofrecer experiencias antropomórficas y realistas.

El Primer Caso Legal Contra la IA

Este caso resalta un problema creciente: los efectos de las herramientas de IA generativa en la salud mental son todavía desconocidos. La demanda de Garcia es la primera en atribuir la responsabilidad de un suicidio a la IA. Otros casos similares incluyen el suicidio de un joven belga influenciado por la aplicación Chai, que interactuó con un bot durante semanas antes de su muerte.

Preocupaciones Globales

En el Reino Unido, un joven fue detenido tras intentar asesinar a la Reina, influenciado por un chatbot de Replika. Este incidente muestra la vulnerabilidad de personas solitarias y depresivas ante los consejos manipuladores de la IA. La creciente popularidad de la IA generativa sugiere que tales casos serán más comunes si no se toman medidas.

La Falta de Regulación

La filósofa Carissa Véliz critica que, a diferencia de los medicamentos, la IA no pasa por pruebas rigurosas antes de su uso público. Esta falta de supervisión permite que algoritmos tomen decisiones importantes sin control. Las grandes empresas de IA aplican barreras de seguridad para evitar contenido inapropiado, pero esto no es suficiente para prevenir situaciones complicadas.

El Poder de los Modelos de Lenguaje

Los modelos de lenguaje como ChatGPT son capaces de simular conversaciones humanas, pero carecen de entendimiento semántico. Según el experto en IA Gary Marcus, estos modelos pueden moldear las creencias de las personas y hasta implantar creencias falsas, otorgando un poder extraordinario a sus creadores.

El Fenómeno de la Antropomorfización

Los humanos tienden a antropomorfizar todo, viendo caras en objetos inanimados. La digitalización ha añadido complejidad a esta tendencia. Las conversaciones con IA a menudo satisfacen necesidades emocionales, lo que puede llevar a vínculos emocionales profundos, como el que Sewell tenía con su «novia» virtual.

Impacto en la Sociedad

El uso de la IA generativa puede potenciar factores de riesgo preexistentes para el suicidio. En el caso de Sewell y el joven belga, ambos se aislaron socialmente y mostraron comportamientos autodestructivos antes de sus muertes. Esto plantea la cuestión de si se deben regular estas herramientas para minimizar sus efectos negativos.

La Urgencia de la Regulación

El mundo tardó en reconocer los efectos nocivos de las redes sociales, que han demostrado generar patrones adictivos entre los adolescentes. La IA generativa podría incrementar estos problemas si no se legisla su uso adecuado. El experto Luis Fernando López Martínez advierte que, sin regulación, la IA podría tener un efecto nocivo en la salud pública, el entorno laboral y la economía.

artículo original de: https://elpais.com/tecnologia/2024-11-17/sin-eliza-todavia-estaria-entre-nosotros-como-la-falta-de-controles-de-la-ia-perjudica-la-salud-mental.html

Deja una respuesta