Soldado que se suicidó en Cybertruck en Las Vegas consultó a IA sobre explosivos


Tecnología


«`
J. S.

Un Capítulo Inesperado en el Uso de Chats Inteligentes

En la recopilación de consultas controvertidas a los chats inteligentes, se acaba de escribir un capítulo inesperado: Matthew Livelsberger, el soldado que murió dentro de un Tesla Cybertruck frente al hotel Trump International de Las Vegas, consultó a ChatGPT sobre explosivos, cómo activarlos disparando armas de fuego y dónde comprarlos. También realizó numerosas preguntas sobre las armas de fuego que usó en su suicidio dentro de ese vehículo, según la policía de Las Vegas, que ha publicado capturas sobre esas consultas de Livelsberger al programa de OpenAI. La compañía se defiende diciendo que toda la información que proporcionó al sujeto estaba disponible públicamente.

Consultas a ChatGPT

“¿Eso podría detonar Tannerite [una marca de explosivos]?”, “Adquirir Tannerite en Arizona cuánto se puede comprar” y “¿En qué se diferencia eso de la dinamita?”, son algunas de las preguntas que Livelsberger le realizó al popular chatbot inteligente, según los documentos publicados por las autoridades policiales, junto a vídeos y fotografías de momentos antes de la detonación y el coche incendiado el 1 de enero. Las preguntas a ChatGPT se realizaron el 27 de diciembre, poco antes de la explosión que generó una espectacular explosión frente al hotel Trump.





Una de las diapositivas publicadas por las autoridades policiales de Las Vegas con preguntas a ChatGPT.
LVMPD

Respuesta de OpenAI

OpenAI ha respondido a la revelación policial por medio de unas declaraciones de su portavoz, Liz Bourgeois: “Estamos entristecidos por este incidente y comprometidos a que las herramientas de inteligencia artificial se utilicen de manera responsable. Nuestros modelos están diseñados para rechazar instrucciones dañinas y minimizar el contenido dañino”. Y añadió, según recoge The Verge: “En este caso, ChatGPT respondió con información ya disponible públicamente en internet y proporcionó advertencias contra actividades dañinas o ilegales. Estamos trabajando con las autoridades para apoyar su investigación”.

Investigación en Curso

Además, la policía confirmó que el individuo, un soldado en activo del ejército estadounidense de 37 años, tenía guardado en su teléfono un “posible manifiesto”, además de un correo electrónico a un podcaster y otras cartas con las que podrían deducirse las motivaciones de su suicidio, con alusiones a la guerra de Afganistán.

Preocupaciones Sobre la Inteligencia Artificial

En fechas recientes, otros programas conversacionales de inteligencia artificial han generado polémica por el escaso control de las consecuencias derivadas de sus interacciones con los usuarios. Por ejemplo, cuando un adolescente se suicidó tras las palabras que le dedicó un personaje artificial de Character.AI del que supuestamente se habría enamorado. O cuando un joven británico se presentó en el Castillo de Windsor dispuesto a asesinar a la Reina de Inglaterra.

artículo original de: https://elpais.com/tecnologia/2025-01-08/el-soldado-que-se-suicido-en-un-cybertruck-en-las-vegas-consulto-a-chatgpt-como-detonar-explosivos.html

Deja una respuesta