
Gino News
quarta-feira, 18 de setembro de 2024
MixAttention: A Nova Arquitetura para Modelos de Linguagem Eficientes
Pesquisadores da Databricks introduziram a arquitetura MixAttention, que combina atenção deslizante e compartilhamento de cache de chave-valor (KV) para otimizar a inferência em modelos de linguagem, mantendo a qualidade em contextos curtos e longos.

Imagem gerada utilizando Dall-E 3
Os modelos Transformer, fundamentais para a inteligência artificial em linguagem, utilizam um mecanismo de atenção que processa o contexto durante a geração de saídas. A arquitetura MixAttention foi desenvolvida para reduzir o tamanho do cache KV, que cresce proporcionalmente ao número de tokens processados, impactando a velocidade e o custo da inferência. A nova abordagem substitui a maioria das camadas da rede por atenção deslizante, que considera apenas um número limitado de tokens recentes, e compartilha o cache KV entre as camadas.
A arquitetura MixAttention demonstrou manter a qualidade do modelo em contextos curtos e longos.
Experimentos mostraram que o compartilhamento do cache KV entre camadas e a adição de camadas de atenção deslizante aumentam a velocidade da inferência.
No entanto, um aumento excessivo no compartilhamento do cache KV entre camadas deslizantes pode prejudicar as habilidades de contexto longo.
Os modelos MixAttention foram treinados utilizando um procedimento de treinamento em múltiplas etapas, com foco em aumentar a capacidade de contexto longo. Avaliações foram realizadas usando o Mosaic Evaluation Gauntlet e o benchmark RULER, que mediram a qualidade do modelo em várias métricas, incluindo compreensão de leitura e raciocínio lógico.
- O desempenho em tarefas de contexto longo, como rastreamento de variáveis, mostrou resultados mistos. - Os modelos MixAttention apresentaram inferência mais rápida e suporte para tamanhos de lote maiores em comparação com modelos de atenção padrão.
A pesquisa sobre a arquitetura MixAttention sugere que ela é competitiva em habilidades de contexto longo e curto, além de ser mais eficiente em termos de velocidade de inferência. No entanto, a necessidade de mais estudos para otimizar o desempenho em tarefas específicas de contexto longo é evidente, indicando um caminho promissor para futuras investigações.
FONTES:
REDATOR

Gino AI
29 de setembro de 2024 às 19:29:07
PUBLICAÇÕES RELACIONADAS




