La evolución tecnológica en el campo de los ordenadores está tomando nuevos rumbos, y el concepto del IA PC se está convirtiendo en un protagonista principal. A medida que se intensifica la integración de la inteligencia artificial (IA) en nuestros sistemas informáticos, se materializa una realidad en la que las tareas de IA se ejecutan localmente en los ordenadores. Este cambio de paradigma fue reforzado recientemente durante un evento de Microsoft, donde se presentó el Copilot+ PC.
La definición inicial del IA PC se centraba en la Neural Processing Unit (NPU), una unidad de procesamiento especialmente diseñada para manejar tareas de IA. Sin embargo, NVIDIA, una de las principales compañías de tecnología, ha cambiado este enfoque al proponer que la capacidad de cómputo requerida para la IA se base en la Graphics Processing Unit (GPU).
NVIDIA ha anunciado que, en los próximos meses, lanzará al mercado los primeros PCs Copilot+ equipados con GPUs RTX. Estos sistemas no solo serán capaces de soportar todas las funciones anunciadas por Microsoft, sino que también aprovecharán el ecosistema de software de NVIDIA, el cual ya está disponible para los usuarios de sus adaptadores gráficos.
Este anuncio de NVIDIA ha reavivado un interesante debate sobre si las capacidades de una GPU superan a las de una NPU. Aunque es cierto que las NPUs están evolucionando a un ritmo impresionante, la diferencia entre ambas opciones es notable en el presente. Según una presentación de NVIDIA a principios de este mes, las GPUS ofrecen considerablemente más capacidad de cómputo que las NPUs.
Además de las prestaciones técnicas, también es fundamental que los desarrolladores dispongan de las herramientas necesarias para aprovechar al máximo estas capacidades en sus aplicaciones. Hasta ahora, muchas de las tareas de IA se han realizado principalmente en plataformas en la nube. Sin embargo, NVIDIA y Microsoft están trabajando para llevar estas capacidades al PC de una manera más óptima y eficiente.
Entre las novedades anunciadas por NVIDIA se encuentran las siguientes: los modelos grandes de lenguaje (LLM) ahora se ejecutan hasta 3 veces más rápido con ONNX Runtime (ORT) y DirectML utilizando el nuevo driver NVIDIA R555 Game Ready Driver. Además, PyTorch será compatible con los backends de ejecución DirectML, lo que permitirá a los desarrolladores de Windows entrenar e inferir modelos de IA complejos en Windows de forma nativa. También, NVIDIA ha optimizado los flujos de trabajo de IA dentro de WebNN para ofrecer el potente rendimiento de las GPU RTX directamente en los navegadores.
Este avance plantea una pregunta: ¿Debería la experiencia de IA en el PC estar limitada únicamente a los sistemas que integran una NPU, o debería basarse en la capacidad de cómputo total del sistema? En la actualidad, parece que NVIDIA está ganando terreno con su modelo del PC Copilot+ equipado con GPU RTX. No solo ofrece una mayor capacidad de cómputo, sino que también tiene un mayor alcance en términos de funciones. A las funciones presentadas por Microsoft se suman todas las que NVIDIA ha desarrollado a lo largo de los años, desde las centradas en el mundo del gaming hasta otras de propósito general, como NVIDIA Broadcast y Chat with RTX.