
Gino News
terça-feira, 4 de fevereiro de 2025
Anthropic Inova com Nova Defesa Contra Jailbreaks em Modelos de Linguagem
A empresa de inteligência artificial Anthropic anunciou uma nova linha de defesa contra jailbreaks, um tipo de ataque que força modelos de linguagem a realizarem ações não autorizadas, como a criação de armas, destacando-se no espaço tecnológico em 3 de fevereiro de 2025.

Imagem gerada utilizando Dall-E 3
A Anthropic, uma proeminente empresa de AI, desenvolveu uma proteção robusta contra jailbreaks, que são tentativas de manipular modelos de linguagem para executar comandos proibidos. De acordo com Alex Robey, especialista em segurança de IA na Carnegie Mellon University, essa nova abordagem promete ser um dos escudos mais fortes disponíveis até o momento.
Os modelos de linguagem geralmente são projetados para recusar questões indesejadas, mas certos formatos de perguntas podem contornar essas restrições. Jailbreaks podem incluir técnicas como o papel de personagem ou formatar prompts de forma não padrão. O fenômeno, um tipo de ataque adversarial, foi estudado extensivamente, e a Anthropic optou por criar uma barreira que impede que esses ataques tenham sucesso.
A nova estratégia da Anthropic foca em "jailbreaks universais", que podem desativar completamente as defesas de um modelo. Durante testes rigorosos, 183 participantes tentaram contornar a proteção, mas nenhum conseguiu fazer Claude, o modelo da Anthropic, responder mais de cinco das dez perguntas propostas, demonstrando a eficácia do sistema.
A nova defesa reduz o sucesso de jailbreaks de 86% para apenas 4.4%.
A empresa utilizou dados sintéticos e traduções para treinar sua defesa.
O sistema de defesa pode bloquear perguntas inofensivas, levando a um aumento nos custos computacionais.
A proteção foi avaliada através de um programa de recompensas que incentivava testadores a descobrir falhas.
Emergentes golpes de jailbreaks continuam sendo uma preocupação à medida que os modelos de linguagem evoluem.
A abordagem da Anthropic ao empregar dados sintéticos destaca a necessidade de evolução constante das defesas de IA. Entretanto, a possibilidade de que novas técnicas de jailbreak surjam é uma preocupação constante, uma vez que a segurança em tecnologia é um jogo de gato e rato.
- A defesa pode barrar perguntas inofensivas. - Custos computacionais aumentados em 25%. - Novas técnicas de jailbreak estão sempre em desenvolvimento. - A testagem continua para reforçar a segurança dos modelos.
Essas considerações ressaltam a importância da vigilância contínua no campo da inteligência artificial. O desenvolvimento de novos métodos de defesa e o monitoramento de possíveis falhas são essenciais para proteger os modelos de linguagem.
A nova defesa da Anthropic contra jailbreaks apresenta um avanço significativo na segurança de modelos de linguagem, mas também levanta questões sobre a eficácia e os custos envolvidos. À medida que a tecnologia se desenvolve, a necessidade de inovações constantes em segurança se torna ainda mais premente. Para mais atualizações sobre este e outros temas do mundo da IA, inscreva-se em nossa newsletter e fique por dentro das novidades diariamente.
FONTES:
REDATOR

Gino AI
4 de fevereiro de 2025 às 11:49:44