top of page

Gino News

quinta-feira, 1 de janeiro de 1970

MixAttention: Uma Nova Arquitetura para Acelerar Inferência em Modelos de Linguagem

Tecnologia Inteligência Artificial Inovação

Pesquisadores do Character.AI desenvolveram a arquitetura MixAttention, que combina diferentes tipos de atenção em modelos Transformers, visando otimizar o tamanho do cache de chave-valor (KV) e melhorar a velocidade da inferência em um contexto que lida com grandes volumes de dados.

Imagem gerada utilizando Dall-E 3

Os modelos Transformer, fundamentais para a inteligência artificial de linguagem moderna, utilizam um mecanismo de atenção que processa o contexto na geração de saídas. Este artigo discute como a cache de chave-valor (KV) cresce proporcionalmente ao número de tokens processados, tornando-se um fator crucial para determinar a capacidade de contexto máximo e o número de solicitações simultâneas que podem ser suportadas durante a inferência nos modelos de linguagem.


A nova arquitetura MixAttention sugere uma redução do tamanho do cache KV através da substituição de muitas camadas do modelo por uma atenção de janela deslizante, que utiliza apenas os vetores de chave e valor de um pequeno número de tokens mais recentes. Experimentos demonstraram que essa abordagem mantém a qualidade do modelo tanto em contextos curtos quanto longos, ao mesmo tempo que melhora a velocidade da inferência e reduz o uso de memória. A arquitetura propõe ainda o compartilhamento do cache KV entre camadas.


Os testes de desempenho revelaram que embora o compartilhamento do cache KV entre camadas e a inclusão de janelas deslizantes possam acelerar a inferência, existem limitações se a quantidade de compartilhamento for excessiva. Modelos foram avaliados quanto à sua qualidade em diversas métricas, incluindo compreensão de leitura e raciocínio lógico, para determinar sua eficácia em tarefas de contexto longo.


No geral, os modelos MixAttention se mostraram competitivos em relação a modelos de atenção padrão, conseguindo uma melhor velocidade de inferência e suporte para tamanhos de lote maiores. Constatou-se que configurações específicas, como a inclusão de camadas de atenção padrão em camadas mais profundas, podem ser cruciais para melhorar as habilidades de contexto longo e, portanto, mais pesquisas são recomendadas para explorar essas arquiteturas e seu impacto em tarefas específicas.


Com a arquitetura MixAttention, há uma promessa de avanço significativo na eficiência da inferência em modelos de linguagem, desafiando os paradigmas atuais. A busca por combinações de atenção que otimizem o uso de memória e acelerem processos de inferência poderá revolucionar a forma como os modelos são treinados e aplicados. Para mais informações sobre inovações em IA e modelos de linguagem, inscreva-se em nossa newsletter e acompanhe nossos conteúdos atualizados todos os dias.


FONTES:

    1. Character.AI

    2. MosaicML

    3. ArXiv - Sliding Window Attention

    4. ArXiv - RoPE Positional Embeddings

    5. Mosaic Evaluation Gauntlet

    REDATOR

    Gino AI

    4 de outubro de 2024 às 00:08:52

    PUBLICAÇÕES RELACIONADAS

    Create a 2D, linear perspective image that echoes a corporate and tech-savvy feel. The backdrop is white and textureless, ornamented with an abstract representation of accompanying networks and circuits. Foreground highlights a futuristic interface populated with a group of AI agents, symbolizing the two points, diversity and unity. Interspersed are a variety of AI icons depicting various tasks they can perform. A robotic hand representation is also prominently displayed, symbolizing the supportive functions the system provides to users. Additionally, sprinkle the scene with performance graphs that illustrate the effectiveness and benchmarks of the multitasking AI system compared to competitors. Capture elements of Flat and Vector design styles in the composition.

    Manus: O Novo Sistema de IA que Promete Revolucionar Tarefas Autônomas

    Create an image in a 2D, linear perspective that visualizes a user interacting with a large-scale language model within a digital environment. The image should be in a vector-based flat corporate design with a white, textureless background. Display charts that show comparisons between performance metrics of Length Controlled Policy Optimization (LCPO) models and traditional methods. Also, include reasoning flows to illustrate the model's decision-making process. To symbolize the real-time application of the model in business operations, include elements of a digital environment. Use cool colors to convey a sense of advanced technology and innovation.

    Nova Técnica Revoluciona Otimização de Raciocínio em Modelos de Linguagem

    Create a 2D, linear visual representation using a flat, corporate illustration style. The image showcases an artificial intelligence model symbolized as a human brain made of circuits and connections, demonstrating the concept of reasoning and efficiency. These circuits should be set against a background that is a mix of blue and green symbolizing technology and innovation, on a textureless white base. The image must also incorporate a brightly shining light, suggestive of fresh ideas and innovations in the field. The overall color scheme should consist of cool tones to convey a professional and technological feel.

    Redução de Memória em Modelos de Raciocínio: Inovações e Desafios

    Create a 2D, flat corporate-style vector image on a white, texture-less background. The image should feature elements symbolising cybersecurity, including padlocks to symbolise security, and alert icons to represent risks. There should also be a technological background that reflects the AI environment, highlighting the importance of security in artificial intelligence.

    Segurança em LLM: Riscos e Melhores Práticas para Proteger a Inteligência Artificial

    Fique por dentro das últimas novidades em IA

    Obtenha diariamente um resumo com as últimas notícias, avanços e pesquisas relacionadas a inteligência artificial e tecnologia.

    Obrigado pelo envio!

    logo genai

    GenAi Br © 2024

    • LinkedIn
    bottom of page