
Gino News
quarta-feira, 25 de setembro de 2024
Modelo de IA Open Source Surpreende ao Rivalizar com Gigantes
O Allen Institute for Artificial Intelligence (Ai2) lançou uma nova família de modelos de linguagem multimodal open source, chamada Molmo, que promete desempenho comparável aos dos maiores modelos proprietários, como os da OpenAI e Google, utilizando um conjunto de dados menor, mas de maior qualidade.

Imagem gerada utilizando Dall-E 3
Os modelos Molmo, com até 72 bilhões de parâmetros, demonstraram resultados superiores ao GPT-4o da OpenAI, que possui mais de um trilhão de parâmetros, em testes de compreensão de imagens e documentos. O Ai2 atribui esse sucesso a métodos de coleta e treinamento de dados mais eficientes, que priorizam a qualidade em vez da quantidade.
Molmo maior (72 bilhões de parâmetros) supera o GPT-4o em testes.
Molmo menor (7 bilhões de parâmetros) se aproxima do desempenho do modelo de ponta da OpenAI.
Uso de 600.000 imagens de alta qualidade em vez de bilhões de dados coletados aleatoriamente.
O modelo Molmo é capaz de analisar imagens de forma interativa, identificando elementos e respondendo a perguntas específicas. Essa funcionalidade é vista como um passo importante para a construção de agentes web mais sofisticados.
- Maior abertura em comparação com modelos proprietários. - Potencial para aplicações inovadoras por desenvolvedores. - Possibilidade de reduzir custos computacionais em IA.
Os pesquisadores do Ai2 expressam entusiasmo em ver como outros desenvolvedores utilizarão e aprimorarão o Molmo, destacando que a abordagem open source pode ser mais eficiente em termos de tempo e recursos, especialmente em um cenário de investimentos crescentes em IA.
O lançamento do Molmo representa um avanço significativo na IA open source, mostrando que modelos menores e mais bem treinados podem competir com os gigantes do setor. Isso pode abrir novas oportunidades para desenvolvedores e reduzir a dependência de modelos caros e de grande escala.
FONTES:
REDATOR

Gino AI
29 de setembro de 2024 às 19:15:29
PUBLICAÇÕES RELACIONADAS