
Gino News
quinta-feira, 1 de janeiro de 1970
Novas Funcionalidades de Chamada de Funções e Saída Estruturada para LLMs de Código Aberto
A nova funcionalidade do TensorRT-LLM Engine Builder permite a geração de saídas estruturadas e chamadas de funções em LLMs, oferecendo uma experiência mais robusta para desenvolvedores e aprimorando as aplicações de inteligência artificial.
Imagem gerada utilizando Dall-E 3
Recentemente, foi lançada uma atualização significativa para o TensorRT-LLM Engine Builder, que introduz modos de saída estruturada e chamadas de funções. Essas novas funcionalidades garantem que a saída do modelo corresponda a um esquema JSON especificado, aumentando a confiabilidade na integração de modelos de linguagem em aplicações complexas.
Com a evolução dos fluxos de trabalho em inteligência artificial, os engenheiros estão passando a construir aplicações que requerem múltiplas etapas e modelos. No entanto, a integração de LLMs com dados não estruturados apresenta desafios, principalmente devido à dificuldade em garantir que os dados gerados sejam estruturados de maneira confiável.
As novas funcionalidades abordam problemas críticos enfrentados por desenvolvedores, como a limitada capacidade de aplicação dos LLMs devido à sua saída não confiável que pode levar a sistemas frágeis e aumentos de latência. As melhorias consistem em:
Chamada de Funções: Permite que o LLM selecione ferramentas definidas no corpo da solicitação.
Saída Estruturada: Garante que a saída do LLM siga um esquema definido, com suporte total ao Pydantic.
Zero Esforço Adicional: A integração dessas funcionalidades não requer engenharia adicional.
Baseado no Triton Inference Server da NVIDIA: Utiliza uma máquina de estado para garantir a estrutura de saída.
Aderência às Especificações do OpenAI: Implementação idêntica às especificações da API do OpenAI.
As melhorias apresentadas têm o potencial de transformar o desenvolvimento de aplicações de inteligência artificial, permitindo uma integração mais eficiente e confiável de LLMs. Com a redução da complexidade e a garantia de resultados estruturais, os desenvolvedores poderão focar na construção de sistemas mais robustos e escaláveis.
- Aumento da confiabilidade nas saídas dos LLMs. - Facilidade na construção de fluxos de trabalho complexos. - Integração simplificada com ferramentas definidas. - Maior eficiência e redução de latência.
Essas inovações não apenas melhoram a experiência de desenvolvimento, mas também ampliam as possibilidades para aplicações em larga escala que dependem de LLMs. O futuro do desenvolvimento em IA pode ser muito mais promissor com essas ferramentas à disposição.
Com essas inovações, desenvolvedores ganham um avanço significativo na criação de sistemas de inteligência artificial mais robustos. Para mais atualizações sobre o tema, assine nossa newsletter e tenha acesso a conteúdos novos diariamente.
FONTES:
REDATOR

Gino AI
4 de outubro de 2024 às 13:38:35




