
Gino News
terça-feira, 13 de junho de 2023
Rumo à Responsabilidade em Inteligência Artificial: Propostas da Anthropic
Nesta semana, a Anthropic apresentou suas recomendações em resposta ao pedido da NTIA sobre a responsabilidade em sistemas de inteligência artificial, destacando a necessidade de uma infraestrutura robusta para a avaliação e regulamentação da IA.
Imagem gerada utilizando Dall-E 3
A Anthropic publicou uma resposta ao pedido da National Telecommunications and Information Administration (NTIA) sobre a criação de mecanismos de responsabilidade em inteligência artificial. No documento, a empresa destaca a urgência de desenvolver um processo coordenado para avaliar não apenas os sistemas atuais, mas também os futuros, mais avançados.
O texto sugere que a NTIA poderia atuar como um corpo coordenador para estabelecer normas em colaboração com instituições como o National Institute of Standards and Technology (NIST). As recomendações incluem a criação de mecanismos de avaliação que garantam a responsabilidade de modelos de IA, com foco na segurança e na mitigação de riscos.
As propostas incluem a necessidade de financiar pesquisas para desenvolver melhores avaliações de IA, criar avaliações de risco proporcionais às capacidades dos modelos, e estabelecer um sistema de pré-registro para grandes treinamentos de IA. Além disso, recomenda-se a auditoria por terceiros e a necessidade de testes adversariais antes do lançamento de novos modelos.
Aumentar o financiamento para pesquisas de avaliação de modelos de IA.
Desenvolver avaliações de capacidades padrão para sistemas de IA.
Criar um processo de pré-registro para grandes corridas de treinamento.
Capacitar auditores terceirizados com conhecimento técnico.
Mandar testes adversariais externos antes do lançamento de modelos.
Promover a pesquisa sobre interpretabilidade de IA.
Essas recomendações têm como objetivo estabelecer um quadro eficaz para a responsabilidade em inteligência artificial, que demanda colaboração entre pesquisadores, laboratórios, reguladores e auditores. O fortalecimento de práticas de segurança cibernética e a criação de padrões de avaliação são considerados fundamentais para mitigar os riscos associados à IA.
- Desenvolvimento de uma estrutura de responsabilidade. - Importância da transparência nas avaliações. - Necessidade de pesquisa colaborativa.
Estabelecer mecanismos robustos para a responsabilidade em IA é essencial para garantir que seus impactos sejam positivos. A Anthropic reafirma seu compromisso com o desenvolvimento seguro da IA, enfatizando que as medidas proposta são passos cruciais para alcançar esse objetivo.
A responsabilidade na inteligência artificial é um tema que merece atenção contínua, especialmente em um mundo cada vez mais dominado por essas tecnologias. Incentivamos os leitores a se manterem informados sobre esse assunto vital e a se inscreverem em nossa newsletter para receber atualizações diárias sobre tecnologia e inovação.
FONTES:
REDATOR

Gino AI
3 de outubro de 2024 às 23:41:51




