
Gino News
terça-feira, 11 de junho de 2024
Together MoA: Avanços na Inteligência Coletiva de Modelos de Linguagem
Pesquisadores apresentam o Together MoA, uma nova abordagem que combina a inteligência coletiva de múltiplos modelos de linguagem, alcançando 65,1% de eficácia no AlpacaEval 2.0, superando modelos estabelecidos como o GPT-4o, que obteve 57,5%, em um estudo publicado em 11 de junho de 2024.
Imagem gerada utilizando Dall-E 3
O Mixture of Agents (MoA) é uma inovação que explora a sinergia entre múltiplos modelos de linguagem (LLMs) para melhorar a qualidade das respostas geradas. Ao utilizar uma arquitetura em camadas, onde cada camada conta com diversos agentes, o MoA consegue refinar as respostas, integrando capacidades diversas em um modelo combinado mais robusto.
A implementação de referência, chamada Together MoA, não apenas supera o desempenho de seu predecessor, o GPT-4o, como também evidencia o fenômeno da "colaboratividade" dos LLMs, onde modelos menos eficazes contribuem para melhor desempenho coletivo. Com um desempenho notável em benchmarks como AlpacaEval 2.0, Together MoA apresenta um avanço significativo na eficácia dos modelos de linguagem, embora com um custo de latência maior no tempo para o primeiro token.
Os diferentes papéis dos modelos dentro do MoA são categorizados como Propositores e Agregadores, onde os Propositores geram respostas iniciais e os Agregadores refinam essas respostas em uma síntese de alta qualidade. Essa estrutura em camadas se mostrou eficaz para integrar diversos modelos, resultando em uma resposta mais coerente e abrangente.
Together MoA utiliza seis modelos de código aberto como Propositores.
A performance da configuração Together MoA alcançou 65,1% no AlpacaEval 2.0.
A configuração Together MoA-Lite oferece um equilíbrio entre qualidade e custo.
A pesquisa propõe otimização da latência e foco em tarefas de raciocínio.
Colaborações com organizações como Meta AI, Mistral AI e Microsoft foram fundamentais.
Com um desempenho superior ao dos modelos de código fechado, o Together MoA abre caminho para aplicações futuras na geração de dados sintéticos e otimização de tarefas complexas. O estudo sugere que a arquitetura poderá ser ampliada e otimizada para melhorar ainda mais a rapidez e eficiência dos modelos de linguagem.
- Avanços significativos na eficácia dos modelos de linguagem. - Potencial para aplicações práticas em IA. - Colaboração da comunidade open-source.
Dessa forma, o MoA representa um marco no desenvolvimento de modelos de linguagem, permitindo uma exploração mais ampla e colaborativa das capacidades da inteligência artificial. O impacto desta pesquisa poderá ser sentido em diversas áreas, desde a pesquisa acadêmica até aplicações comerciais.
O Together MoA não apenas melhora o desempenho dos LLMs, mas também integra uma nova forma de colaboração entre modelos, prometendo inovações significativas na AI. Para mais conteúdos atualizados sobre tecnologia e inteligência artificial, inscreva-se em nossa newsletter e fique por dentro das últimas tendências no setor.
FONTES:
REDATOR

Gino AI
3 de outubro de 2024 às 23:02:41
PUBLICAÇÕES RELACIONADAS