top of page

Gino News

quinta-feira, 1 de janeiro de 1970

Novas Funcionalidades em LLMs: Chamadas de Função e Saída Estruturada

Tecnologia Inteligência Artificial Desenvolvimento de Software

Bryce e Philip apresentarão um evento online ao vivo sobre 'Chamadas de Função e Modo JSON para LLMs', onde discutirão o funcionamento de saídas estruturadas e a nova implementação dessas funcionalidades no servidor de inferência TensorRT-LLM.

Imagem gerada utilizando Dall-E 3

Um novo webinar será realizado no dia 17 de outubro, às 11h PT, para abordar as novidades em função de chamada e saída estruturada para Large Language Models (LLMs). Os participantes terão a chance de aprender como essas funcionalidades permitem a interação mais eficiente com LLMs e ainda receberão um crédito extra de US$ 100 em Baseten ao participar.


A Baseten anunciou a adição de recursos de 'function calling' e 'structured output', que permitem que os LLMs selecionem a ferramenta mais apropriada com base no prompt recebido e garantam que a saída siga um esquema pré-definido. O servidor de inferência foi otimizado para essas funcionalidades, que prometem mínima latência e alta eficiência.


Os principais benefícios dessas inovações incluem: garantir a validade da saída gerada pelos LLMs através de logit biasing, a utilização de uma máquina de estados para gerenciar o formato da saída e a compatibilidade com funções já estabelecidas na API da OpenAI.


  1. Function calling permite que LLMs escolham ferramentas específicas.

  2. Structured output assegura que a saída esteja em conformidade com um esquema definido.

  3. Logit biasing evita a geração de tokens inválidos.

  4. A máquina de estados facilita o gerenciamento de formatos de saída.

  5. Esses recursos são aplicáveis a diversos sistemas de IA em várias etapas.


Essas funcionalidades têm grande potencial para melhorar a construção de sistemas IA compostos, permitindo que diferentes partes do sistema se comuniquem sem erros de tipo. O uso de JSON válido é crucial para evitar sobrecargas de análise e garantir um fluxo de trabalho eficiente.


- Participar do webinar para aprender diretamente dos especialistas. - Implementar a chamada de funções em projetos de IA. - Explorar a saída estruturada para evitar problemas de tipo. - Testar a integração de LLMs com sistemas complexos.


Com estas abordagens, desenvolvedores e pesquisadores podem explorar novas fronteiras no uso de LLMs, otimizando fluxos de trabalho e sistema de integração. A Baseten oferece a documentação necessária para quem deseja implementar essas inovações.


As novas funcionalidades de 'function calling' e 'structured output' ampliam as capacidades dos LLMs, permitindo que os usuários criem aplicações robustas e eficientes. Fique atento aos nossos conteúdos diários e assine nossa newsletter para não perder atualizações sobre as últimas inovações em tecnologia de IA.


FONTES:

    1. Baseten

    2. Blog TLDR AI

    3. Blog de Lançamento da Baseten

    4. Outlines GitHub

    5. Protocol Buffers

    REDATOR

    Gino AI

    4 de outubro de 2024 às 13:38:23

    PUBLICAÇÕES RELACIONADAS

    Create a 2D, linear and corporate-style vector image symbolizing a significant milestone in artificial intelligence technology. This image shows the Gemini 2.0 Flash, a model that integrates native image generation and text-based editing. The interface of Gemini 2.0 Flash is shown in use, placed against a plain, white, and texture-less background. In the image, you can see it generating images from text commands within a digital workspace. Additional elements in the image include symbols of artificial intelligence, like brain and circuit icons. Use vibrant colors to convey innovation and technology, and apply a futuristic style that aligns with the vision of advanced technology.

    Google Lança Gemini 2.0 Flash: Revolução na Geração de Imagens com IA

    Create an image in a 2D, linear perspective that visualizes a user interacting with a large-scale language model within a digital environment. The image should be in a vector-based flat corporate design with a white, textureless background. Display charts that show comparisons between performance metrics of Length Controlled Policy Optimization (LCPO) models and traditional methods. Also, include reasoning flows to illustrate the model's decision-making process. To symbolize the real-time application of the model in business operations, include elements of a digital environment. Use cool colors to convey a sense of advanced technology and innovation.

    Nova Técnica Revoluciona Otimização de Raciocínio em Modelos de Linguagem

    Create a vector-style, corporate-like 2D linear image set on a plain white, untextured background. The main focus is a chatbot, symbolizing the new version of Gemini 2.0 Flash Thinking, which is interacting with various Google applications iconized in brilliant, vibrant colors to convey the notion of integration, personalization, and innovation. This interaction suggests the advanced memory and integration capabilities that allow this chatbot to provide more customized, contextual responses to the users.

    Google Apresenta Gemini 2.0: Mais Inteligência e Conexão nas Respostas do Chatbot

    Create a 2D, flat corporate-style vector image on a white, texture-less background. The image should feature elements symbolising cybersecurity, including padlocks to symbolise security, and alert icons to represent risks. There should also be a technological background that reflects the AI environment, highlighting the importance of security in artificial intelligence.

    Segurança em LLM: Riscos e Melhores Práticas para Proteger a Inteligência Artificial

    Fique por dentro das últimas novidades em IA

    Obtenha diariamente um resumo com as últimas notícias, avanços e pesquisas relacionadas a inteligência artificial e tecnologia.

    Obrigado pelo envio!

    logo genai

    GenAi Br © 2024

    • LinkedIn
    bottom of page