Noticias de Tecnología 5-8 minutos

Hugging Face integra LLMs de código abierto en GitHub Copilot Chat para VS Code

Diego Cortés
Diego Cortés
Full Stack Developer & SEO Specialist
Compartir:
Hugging Face integra LLMs de código abierto en GitHub Copilot Chat para VS Code

Hugging Face ha lanzado una importante integración que permite a los desarrolladores conectar los Proveedores de Inferencia directamente con GitHub Copilot Chat en Visual Studio Code. Esta actualización facilita el acceso y la prueba de modelos de lenguaje de código abierto, como Kimi K2, DeepSeek V3.1, GLM 4.5, entre otros, directamente desde el editor de VS Code, eliminando la necesidad de cambiar de plataforma o gestionar múltiples herramientas.

Un flujo de trabajo simplificado

El proceso para iniciar esta integración es sencillo. Los desarrolladores deben instalar la extensión de Hugging Face Copilot Chat, abrir la interfaz de chat de VS Code, seleccionar el proveedor de Hugging Face, introducir su token de Hugging Face y, a continuación, agregar los modelos que desean utilizar. Una vez conectado, es posible alternar sin problemas entre proveedores y modelos usando la interfaz de selección de modelos que ya conocen.

Sin embargo, se ha señalado un importante requisito en las discusiones de la comunidad: la funcionalidad requiere tener instalada una versión reciente del editor. El investigador en inteligencia artificial, Aditya Wresniyandaka, destacó en LinkedIn que "el documento olvidó mencionar que necesitas la versión 1.104.0 de VS Code, lanzada en agosto de 2025".

Ampliación del acceso a modelos de IA

Históricamente, GitHub Copilot Chat se ha basado en un conjunto cerrado de modelos propietarios. Al vincularse con la red de Proveedores de Inferencia de Hugging Face, los desarrolladores ahora tienen acceso a una gama mucho más amplia de herramientas de inteligencia artificial, incluyendo modelos experimentales y altamente especializados de código abierto.

Muhammad Arshad Iqbal elogió esta iniciativa, afirmando: "¡Oh, esto es genial! Ahora podemos utilizar todos esos poderosos AIs de codificación de código abierto directamente en VS Code. Ya no es necesario cambiar de pestaña solo para probar un modelo como Qwen3-Coder".

Ventajas de la integración

Esta integración permite a los desarrolladores utilizar Copilot Chat con modelos optimizados para tareas específicas de programación, sectores industriales o dominios de investigación, en lugar de estar limitados a los modelos por defecto. Además, la actualización garantiza un servicio impulsado por los Proveedores de Inferencia de Hugging Face, lo que otorga a los desarrolladores acceso a cientos de modelos de machine learning a través de una única API.

La propuesta de valor fundamental radica en la unificación: en lugar de gestionar múltiples APIs con diferentes niveles de fiabilidad, los desarrolladores pueden consultar modelos de diferentes proveedores a través de una interfaz consistente. Hugging Face destaca varios beneficios de esta integración:

  • Acceso instantáneo a modelos de vanguardia, superando lo que podría ofrecer un solo catálogo de proveedor.
  • Sin bloqueo a un proveedor específico, ya que los desarrolladores pueden cambiar entre proveedores con cambios mínimos en el código.
  • Rendimiento adecuado para producción, con alta disponibilidad y baja latencia en la inferencia.
  • Integración amigable para desarrolladores, que incluye compatibilidad directa con la API de completaciones de chat de OpenAI y SDKs para Python y JavaScript.

Accesibilidad y opciones de precios

Hugging Face ha diseñado la integración para ser accesible. Existe un nivel gratuito de créditos mensuales para realizar pruebas, mientras que los planes Pro, Team y Enterprise ofrecen capacidad adicional y precios bajo demanda. Según Hugging Face, lo que los desarrolladores pagan es exactamente el costo que cobran los proveedores, sin ningún recargo adicional.

Conclusiones

La integración de Hugging Face en GitHub Copilot Chat para VS Code representa un avance significativo en el acceso y la aplicación de modelos de lenguaje de código abierto en el desarrollo de software. Los desarrolladores ahora pueden aprovechar una variedad más amplia de herramientas de IA dentro de su entorno de trabajo habitual, lo que promete mejorar la eficiencia y la innovación en sus proyectos.

Para más análisis y artículos sobre tecnología y desarrollo de software, no dudes en visitar mi blog.

¿Te gustó este artículo?
Por Diego Cortés

Categorías

Page loaded in 26.86 ms