
Gino News
quarta-feira, 21 de agosto de 2024
Hugging Face Revoluciona Treinamento com Nova Abordagem Eficiente Usando Flash Attention
Em 21 de agosto de 2024, o Hugging Face anunciou uma atualização significativa que melhora a eficiência do treinamento de modelos ao incorporar o novo DataCollatorWithFlattening, compatível com Flash Attention 2, permitindo um aumento de até 2 vezes na taxa de throughput sem comprometer a qualidade da convergência.
Imagem gerada utilizando Dall-E 3
A Hugging Face, referência em ferramentas de aprendizado de máquina, introduziu uma inovação importante para o treinamento de modelos de machine learning. Essa nova funcionalidade permite o treinamento de exemplos agrupados sem a necessidade de preenchimento, tornando-o mais eficiente, especialmente com dados que possuem sequências de tamanhos variados.
Tradicionalmente, durante o treinamento, o preenchimento de lotes de dados introduz ineficiências devido aos tokens de preenchimento desnecessários. A nova abordagem de empacotamento considera os limites de cada exemplo e, ao mesmo tempo, utiliza informações de posição dos tokens, minimizando as desvantagens anteriores do uso de Flash Attention 2. Essa atualização é resultado de um recente Pull Request no GitHub, que introduziu uma nova classe de organizador de dados.
Com a nova funcionalidade, testes mostraram um aumento significativo na taxa de throughput, com um desempenho até 2 vezes melhor em alguns conjuntos de dados como o FLAN. Além disso, a memória pico utilizada durante o treinamento foi reduzida, o que é uma vantagem fundamental ao lidar com grandes modelos de deep learning.
O DataCollatorWithFlattening elimina a necessidade de preenchimento.
Melhora a taxa de throughput em até 2 vezes.
Mantém a qualidade da convergência sem compromissos.
Reduz a utilização de memória durante o treinamento.
Compatível com modelos que expõem informações de posição.
A nova funcionalidade foi testada em diferentes modelos, como llama2-7B e mistral-7B, e os resultados indicaram que o impacto positivo dependerá das características específicas do conjunto de dados. O trabalho mostra promissora eficiência em ambientes de treinamento com dados variados, abrindo portas para futuras melhorias na área de aprendizado de máquina.
- Melhoria significativa na eficiência de treinamento. - Aumento do throughput sem perda de qualidade. - Redução do consumo de memória.
Os resultados indicam um futuro promissor para o treinamento de modelos, especialmente considerando a crescente demanda por eficiência em computação. A Hugging Face continua a liderar inovações que visam otimizar a experiência de treinamento para desenvolvedores e pesquisadores ao redor do mundo.
A implementação do DataCollatorWithFlattening é um avanço significativo para a Hugging Face, permitindo que usuários extraiam o máximo de seus modelos sem sacrificar a qualidade. Para acompanhar mais inovações como essa, inscreva-se na nossa newsletter e fique por dentro das atualizações diárias.
FONTES:
REDATOR

Gino AI
3 de outubro de 2024 às 22:20:48