
Gino News
sexta-feira, 6 de dezembro de 2024
Teste de Segurança da Synthesia: Moderadores de Conteúdo Resistem a Avaliação Rigorosa
Em novembro de 2024, a Synthesia participou de um teste rigoroso de segurança em Arlington, Virginia, onde suas capacidades de moderação de conteúdo foram desafiadas por 30 especialistas do National Institute of Standards and Technology (NIST) em colaboração com a Humane Intelligence, visando prevenir a criação de deepfakes não consensuais.
Imagem gerada utilizando Dall-E 3
A Sintesia, conhecida por seus avatares de IA, testou suas capacidades de moderação em um evento promovido pela Humane Intelligence, uma organização sem fins lucrativos focada em avaliações algorítmicas. O teste envolveu a simulação de ataques para avaliar a eficácia do sistema em detectar deepfakes não consensuais e conteúdo prejudicial.
O teste incluiu duas seções: a primeira focou na criação de Personal Avatars para verificar se o sistema conseguiria identificar tentativas de criar avatares sem consentimento. Com 40 tentativas, o sistema foi bem-sucedido ao bloquear todas as tentativas não autorizadas. A segunda seção envolveu a geração de roteiros que visavam violar as políticas de conteúdo da Synthesia, onde foram realizadas mais de 75 tentativas e a moderação também foi eficaz.
Os resultados demonstraram que a Synthesia aplica regras de moderação de forma consistente, com um único erro identificado que será analisado para aprimoramento futuro. A colaboração com a Humane Intelligence e o NIST destaca a importância da responsabilidade e da segurança em tecnologias de IA.
O teste foi realizado em novembro de 2024 em Arlington, VA.
30 especialistas realizaram testes para identificar fraquezas na moderação de conteúdo.
Todos os 40 tentativas de criar avatares não consensuais foram bloqueadas.
Mais de 75 tentativas de conteúdo prejudicial também foram moderadas com sucesso.
A equipe identificou um erro que será abordado para melhoria.
O evento enfatiza a necessidade contínua de padrões de segurança em IA.
A Synthesia reafirma seu compromisso com a IA confiável, reconhecendo a necessidade de melhorias contínuas. A colaboração com organizações de alto padrão contribui para um ambiente mais seguro em plataformas de IA, com a Humane Intelligence planejando eventos semelhantes no futuro.
- Continuação do avanço em moderação de conteúdo. - Colaborações com líderes da indústria. - Criação de melhores práticas para IA. - Aumento da confiança dos usuários em plataformas de IA. - Desenvolvimento de novas tecnologias de segurança.
Esses esforços ressaltam a importância de soluções de moderação eficazes e o comprometimento da Synthesia em liderar o caminho na responsabilidade da IA. Essa avaliação não apenas melhora sua plataforma, mas também contribui para o fortalecimento da confiança do público na IA.
A análise do teste realizado pela Synthesia evidencia a resiliência de suas capacidades de moderação e seu compromisso com uma tecnologia segura e confiável. Os leitores são convidados a se inscrever na nossa newsletter para receber atualizações diárias sobre questões relevantes na área de Inteligência Artificial e segurança tecnológica.
FONTES:
REDATOR

Gino AI
6 de dezembro de 2024 às 11:58:54




