En el panorama de la IA y el sector militar, se ha generado un acalorado debate sobre el uso de la IA generativa en labores militares o de inteligencia. A pesar de los dilemas éticos y las preocupaciones de seguridad asociadas, las principales compañías del sector están más que dispuestas a explorar esta mina de oro. Microsoft, una de las gigantes de la tecnología, ha dado un paso audaz al poner en marcha un innovador ChatGPT secreto basado en GPT-4, diseñado específicamente para los servicios de inteligencia de Estados Unidos.
Según informes de Bloomberg, este chatbot tiene la capacidad de analizar y procesar información confidencial. William Chappell, jefe del área de Misiones Estratégicas y Tecnología de Microsoft, ha proporcionado una visión más profunda de este desarrollo. Afirma que la IA que impulsa este chatbot es el primer modelo de lenguaje de gran tamaño (LLM) que funciona completamente desconectado de la web, una característica que lo distingue de otros en su categoría.
El equipo de Microsoft en Redmond trabajó durante un año y medio para adaptar un superordenador instalado en Iowa para este proyecto. Este ChatGPT, aislado de la internet abierta, opera en una red a la que solo puede acceder el gobierno de Estados Unidos. Además, su funcionamiento es «estático», lo que significa que la IA puede leer archivos pero no aprender de ellos. Esto garantiza a las agencias de inteligencia que ninguna información confidencial se filtrará en la web.
«Ya está desplegado y en funcionamiento, y está respondiendo preguntas. Puede escribir código, como un ejemplo del tipo de cosas que es capaz de hacer», indicó Chappell al hablar sobre el innovador ChatGPT secreto de Microsoft para los servicios de inteligencia estadounidenses.
Aunque por razones obvias no se han divulgado las especificaciones o capacidades definitivas de este ChatGPT secreto, Microsoft sostiene que unas 10.000 personas podrían beneficiarse de esta herramienta, siempre y cuando el Departamento de Defensa le dé su aprobación.
Sin embargo, no todo es color de rosa. A pesar de su potencial, la IA basada en GPT-4 aún no ha sido aprobada por el Pentágono. Incluso si obtuviera la aprobación, es poco probable que se utilice de inmediato para procesar archivos clasificados que contengan datos sensibles.
De hecho, según Chappell, el ChatGPT secreto de Microsoft tendría inicialmente una finalidad mayormente dedicada a la clasificación de información. También podría implementarse para agilizar el papeleo y los procedimientos burocráticos que afrontan este tipo de organizaciones.
«Se trata de asegurarse de tener la información correcta en el momento adecuado. […] Nadamos en información. Tenemos sensores por todas partes. ¿Cómo le das sentido realmente a la información que hay dentro de tu organización? Ya sean propuestas o aquellos trámites que todos tenemos que hacer, ¿cómo se simplifican y cómo se clasifican los datos que se centran en la misión o los datos que se centran más en lo administrativo y los recursos humanos?», indicó Chappell a Defense Scoop sobre el nuevo ChatGPT secreto basado en GPT-4.
No obstante, este desarrollo no está exento de controversia. En abril, una investigación reveló que Microsoft había violado los principios de OpenAI al ofrecer su inteligencia artificial al Departamento de Defensa de EE. UU. Microsoft argumentó que esta tecnología podría aplicarse al análisis de fotos y vídeos de vigilancia con fines de seguridad, entre otros.
Aunque el nuevo ChatGPT secreto para las agencias de inteligencia norteamericanas no apuntaría en principio a ese tipo de uso, ¿quién puede descartarlo a futuro? Especialmente cuando el chatbot basado en GPT-4 estaría funcionando en una infraestructura confidencial y con poco o nulo control externo. La línea entre el uso de la IA para la seguridad y la posible violación de la privacidad es delgada, y sólo el tiempo dirá cómo se desarrolla este escenario.