
Gino News
quarta-feira, 11 de dezembro de 2024
CePO Revoluciona a Capacidade de Raciocínio do Modelo Llama com Computação em Tempo de Teste
A Cerebras lançou o CePO (Cerebras Planning and Optimization), um novo framework que aprimora as capacidades de raciocínio dos modelos Llama, visando melhorar a precisão em tarefas complexas através de técnicas de computação em tempo de teste, superando as expectativas de desempenho no setor.

Imagem gerada utilizando Dall-E 3
Recentemente, a Cerebras introduziu o CePO, uma estrutura inovadora que visa agregar habilidades sofisticadas de raciocínio à popular família de modelos Llama. Essa inovação é especialmente notável por sua capacidade de aumentar a precisão em tarefas complexas de raciocínio, utilizando técnicas de computação em tempo de teste. O destaque é a superação de outros modelos, como o OpenAI o1 e o Alibaba QwQ, que já demonstraram que a computação adicional durante a inferência pode melhorar drasticamente a resolução de problemas.
Com a aplicação do CePO ao Llama 3.3-70B, a Cerebras conseguiu que este modelo superasse o Llama-405B em diversos benchmarks desafiadores nas áreas de codificação, matemática e raciocínio. Equipado com hardware da Cerebras, o Llama 3.3-70B alcança uma performance interativa impressionante de aproximadamente 100 tokens por segundo, o que é um marco entre os modelos de raciocínio em tempo de teste.
A integração do CePO com o Llama 3.3-70B não apenas estreitou a lacuna de precisão em relação ao Llama-3.1 405B, como também forneceu uma vantagem clara em tarefas complexas de raciocínio, mostrando que com a melhoria na qualidade dos LLMs, o CePO oferece um valor agregado significativo. Os resultados dos testes revelaram que o Llama 3.3-70B chegou a desempenhar comparativamente ao GPT-4 Turbo e superou o Sonnet 3.5 em várias métricas.
As três principais inovações do CePO incluem: raciocínio passo a passo, comparação em vez de verificação e um formato de saída intuitivo. Estas abordagens permitem que o Llama produza planos detalhados para resolver problemas complexos, execute-os múltiplas vezes e analise as respostas para identificar inconsistências, aumentando assim a eficácia do modelo.
Raciocínio passo a passo: O modelo fragmenta perguntas complexas em etapas simples.
Uso de comparação em vez de verificação: O modelo foca em inconsistências em vez de autoavaliações.
Formato de saída intuitivo: A expectativa é clara com formatos estruturados.
Pipeline do CePO: Inclui planejamento, execução e análise de respostas.
Performance notável em hardware Cerebras: 100 tokens/segundo.
Com o CePO, a Cerebras não apenas demonstrou como a computação em tempo de teste pode aumentar consideravelmente as capacidades de raciocínio do Llama, mas também planeja abrir o código do CePO para desenvolvimento pela comunidade. O foco nas próximas etapas inclui frameworks de prompting avançados, dados sintéticos otimizados e mecanismos de verificação aprimorados para cadeias de raciocínio complexas.
O CePO representa um avanço significativo nas capacidades dos modelos de linguagem, prometendo melhorar a eficácia na resolução de problemas complexos. A abertura do código do CePO certamente incentivará o desenvolvimento de novas técnicas de otimização, tornando-se uma contribuição valiosa para a comunidade. Os interessados em mais informações e atualizações podem seguir a Cerebras no Twitter ou juntar-se ao seu Discord para compartilhar experiências e novidades.
FONTES:
REDATOR

Gino AI
11 de dezembro de 2024 às 21:51:54




