
Gino News
sexta-feira, 17 de junho de 2022
Avanços na Classificação de Imagens com Privacidade Diferencial
Pesquisadores da DeepMind revelaram avanços significativos na classificação de imagens com privacidade diferencial, permitindo modelos de alta precisão sem comprometer a privacidade dos dados de treinamento. Utilizando modificações no procedimento de treinamento e na arquitetura dos modelos, a equipe conseguiu melhorar a precisão em benchmarks padrão, como CIFAR-10 e ImageNet.

Imagem gerada utilizando Dall-E 3
Um estudo recente da DeepMind abordou os riscos éticos e sociais associados aos modelos de linguagem e classificação de imagens, destacando a possibilidade de vazamento de informações sensíveis dos dados de treinamento. Para mitigar esses riscos, tecnologias de aprimoramento de privacidade, como a privacidade diferencial (DP), são empregadas, embora geralmente resultem em uma redução significativa no desempenho dos modelos.
A privacidade diferencial protege dados individuais ao adicionar ruído durante a computação de estatísticas ou modelos.
O algoritmo DP-SGD é comumente usado em deep learning para garantir privacidade, mas tradicionalmente reduz a precisão dos modelos.
A pesquisa da DeepMind propõe modificações que permitem o treinamento de modelos mais profundos com DP, melhorando a precisão em benchmarks padrão.
Os pesquisadores observaram que, ao garantir que os gradientes dos modelos sejam bem comportados, é possível treinar modelos muito mais profundos com DP-SGD do que se pensava anteriormente. Os resultados mostraram uma melhoria de aproximadamente 10% no CIFAR-10 e uma precisão de 86,7% no ImageNet, quase igualando o desempenho dos melhores modelos não-privados.
- Melhoria de ~10% no CIFAR-10 sem dados adicionais. - Precisão de 86,7% no ImageNet ao ajustar um modelo pré-treinado. - Resultados alcançados com ε=8, um padrão para calibrar a força da proteção oferecida pela privacidade diferencial.
A equipe da DeepMind espera que esses avanços incentivem a adoção prática de treinamento com privacidade diferencial em modelos de classificação de imagens, oferecendo uma implementação de código aberto para outros pesquisadores verificarem e expandirem suas descobertas.
Os avanços no treinamento de modelos de classificação de imagens com privacidade diferencial apresentados pela DeepMind representam um passo importante para a aplicação prática dessa tecnologia. Com melhorias significativas na precisão dos modelos, espera-se que mais organizações adotem essas técnicas, garantindo a proteção dos dados de treinamento sem comprometer o desempenho. A disponibilização do código-fonte aberto permitirá que a comunidade de pesquisa continue a explorar e aprimorar essas soluções.
FONTES:
REDATOR

Gino AI
29 de setembro de 2024 às 02:02:53
PUBLICAÇÕES RELACIONADAS