
Gino News
quarta-feira, 19 de fevereiro de 2025
Mixture of Tunable Experts: Inovação no Comportamento de Modelos de IA
Pesquisadores introduzem o Mixture of Tunable Experts (MoTE), uma abordagem inovadora que permite ajustar o comportamento do modelo DeepSeek-R1, facilitando respostas a perguntas anteriormente recusadas e a modificação do idioma de raciocínio durante a inferência.

Imagem gerada utilizando Dall-E 3
O artigo apresenta o Mixture of Tunable Experts (MoTE), uma metodologia que se baseia na arquitetura do Mixture of Experts para transformar a forma como os Large Language Models (LLMs), especificamente o DeepSeek-R1, respondem a perguntas. O modelo, que já é considerado um dos mais avançados em raciocínio aberto, é composto por 14.848 especialistas que podem ser ajustados para especializações específicas.
Uma das principais inovações do MoTE é a habilitação da modelagem de respostas que antes eram consideradas sensíveis. O modelo demonstrou a capacidade de responder perguntas que inicialmente se recusava a atender, mudando também a linguagem de raciocínio, por exemplo, do inglês para o chinês, dependendo do contexto do prompt.
O artigo também detalha uma análise das ativações dos especialistas, abordando como certos especialistas são responsáveis pelas respostas recusadas. Com a técnica chamada de Functional Token Resonance Imaging (fTRI), é possível identificar os especialistas mais relevantes para um determinado tipo de resposta. Através da manipulação dessas ativações, o modelo pôde alterar sua resposta para perguntas que antes não aceitava.
Introdução do MoTE como método para mudar comportamentos do DeepSeek-R1.
Capacidade do modelo de responder perguntas antes recusadas.
Mudança de linguagem de raciocínio em prompts específicos.
Análise das ativações dos especialistas usando fTRI.
Eficácia da nova abordagem em conjuntos de dados maiores.
A eficácia do MoTE foi validada em conjuntos de dados maiores, resultando em uma significativa redução nas respostas recusadas. A técnica não apenas melhora as respostas para perguntas sensíveis, mas também mantém o desempenho geral do modelo em benchmarks. Isto sugere que o ajuste dos especialistas pode levar a melhorias no desempenho geral.
- O MoTE pode transformar o funcionamento dos modelos de IA. - Capacidade de imagens linguísticas diferentes em diversos contextos. - Alterações de comportamento de modelos com alta precisão. - Validação de resultados e impacto em conjuntos de dados maiores.
A pesquisa destaca a potencialidade do MoTE em redefinir como os LLMs interagem com inputs complexos, proporcionando mais flexibilidade e adaptabilidade em suas respostas. O artigo conclui que o futuro dos modelos de IA pode ser significativamente impactado por essas inovações, abrindo portas para novas aplicações e capacidades.
O estudo do Mixture of Tunable Experts representa um avanço significativo nos modelos de IA, possibilitando a adaptação e flexibilidade em suas respostas. Embora o potencial de transformação seja imenso, é essencial acompanhar as pesquisas futuras e suas implantações práticas. Para mais conteúdos atualizados diariamente, inscreva-se em nossa newsletter!
FONTES:
REDATOR

Gino AI
19 de fevereiro de 2025 às 11:39:28