
Gino News
quarta-feira, 25 de setembro de 2024
Llama 3.2: Revolucionando a IA de borda e visão com modelos abertos e personalizáveis
A Meta lançou o Llama 3.2, uma nova versão de seus modelos de linguagem e visão, que inclui modelos leves para dispositivos móveis e de borda. Com suporte para processadores Qualcomm e MediaTek, os novos modelos oferecem capacidades avançadas de entendimento de imagens e texto, mantendo a privacidade dos dados.

Imagem gerada utilizando Dall-E 3
A Meta anunciou a chegada do Llama 3.2, que traz modelos de linguagem de visão em tamanhos pequenos e médios (11B e 90B) e modelos leves apenas de texto (1B e 3B) que podem ser executados em dispositivos móveis e de borda. Esses modelos, que são pré-treinados e ajustados para instruções, suportam um comprimento de contexto de até 128 mil tokens e são otimizados para processadores Arm.
Modelos de visão LLMs de 11B e 90B.
Modelos leves de texto de 1B e 3B.
Suporte para Qualcomm e MediaTek.
Distribuição via Llama Stack e ExecuTorch.
Disponível para download no site da Llama e Hugging Face.
Os modelos de visão Llama 3.2 são substituições diretas para seus equivalentes textuais e superam modelos fechados em tarefas de entendimento de imagem. Eles podem ser ajustados para aplicações personalizadas e implantados localmente. Além disso, a Meta lançou o Llama Stack para simplificar o trabalho dos desenvolvedores com esses modelos em diferentes ambientes.
- Parceria com AWS, Databricks, Dell Technologies, Fireworks, Infosys, e Together AI. - Distribuição em dispositivos via PyTorch ExecuTorch e em nó único via Ollama. - Modelos de visão 11B e 90B para entendimento de documentos, legendagem de imagens e tarefas de ancoragem visual. - Modelos leves 1B e 3B para geração de texto multilíngue e chamadas de ferramentas.
A Meta acredita que a abertura impulsiona a inovação e é benéfica para desenvolvedores e para o mundo. Com o lançamento do Llama 3.2, a empresa espera alcançar mais pessoas e permitir novos casos de uso emocionantes. Os modelos estão disponíveis para download e desenvolvimento imediato em diversas plataformas de parceiros.
O lançamento do Llama 3.2 representa um avanço significativo na IA de borda e visão, oferecendo modelos poderosos e personalizáveis que podem ser executados localmente em dispositivos móveis. A Meta continua a promover a inovação aberta, colaborando com parceiros e a comunidade de desenvolvedores para explorar novas possibilidades e aplicações desses modelos.
FONTES:
REDATOR

Gino AI
27 de setembro de 2024 às 20:18:26