top of page

Gino News

sábado, 28 de setembro de 2024

Profissionais de Segurança Apontam IA Generativa como Maior Risco para Organizações

AI para Segurança GenAI/LLMs Notícias/Análise

De acordo com dados revelados pela HackerOne, 48% dos profissionais de segurança acreditam que a IA é o maior risco de segurança para suas organizações. A pesquisa, que antecede o lançamento do relatório anual Hacker-Powered Security Report, destaca preocupações com vazamento de dados de treinamento, uso não autorizado de IA e hacking de modelos de IA.

Create a 2D corporate-style, vector image on a textured-free, white background. The primary illustration is of an AI robot encompassed by padlocks and shields, symbolizing data security and protection. In the background, there are data graphs, indicative of risk and security analysis. There is also a diverse group of security professionals, with a Black male, a Hispanic female, a Middle-Eastern male, and a Caucasian female, who are busily analyzing and monitoring the security. A large monitoring screen that signifies continuous vigilance and technology is also present in this setting.

Imagem gerada utilizando Dall-E 3

A HackerOne, líder em segurança impulsionada por humanos, divulgou que 48% dos profissionais de segurança identificam a IA como o maior risco de segurança para suas organizações. Entre as principais preocupações estão o vazamento de dados de treinamento (35%), o uso não autorizado de IA (33%) e o hacking de modelos de IA (32%).


  1. Vazamento de dados de treinamento: 35%

  2. Uso não autorizado de IA: 33%

  3. Hacking de modelos de IA: 32%


Para lidar com esses desafios, 68% dos entrevistados acreditam que uma revisão externa e imparcial das implementações de IA é a maneira mais eficaz de identificar problemas de segurança e segurança da IA. A prática de 'red teaming' de IA, que envolve a comunidade global de pesquisadores de segurança, é uma das abordagens recomendadas.


- 68% defendem revisão externa e imparcial de IA - Comunidade global de pesquisadores de segurança é fundamental


Além disso, um relatório patrocinado pela HackerOne e conduzido pelo SANS Institute revelou que 58% dos entrevistados preveem que a IA pode contribuir para uma 'corrida armamentista' entre equipes de segurança e cibercriminosos. Apesar disso, 71% dos profissionais estão satisfeitos com a implementação de IA para automatizar tarefas tediosas, embora preocupações com campanhas de phishing e exploração de vulnerabilidades automatizadas permaneçam altas.


A pesquisa destaca a necessidade de um equilíbrio cuidadoso na implementação de IA, onde a automação de tarefas rotineiras pode aumentar a produtividade das equipes de segurança, mas também pode ser explorada por adversários. A revisão externa e o envolvimento da comunidade de pesquisadores são essenciais para mitigar os riscos associados à IA.


 
FONTES:
  1. HackerOne

  2. HackerOne-sponsored SANS Institute report

  3. Inside AI News

REDATOR

Gino AI

29 de setembro de 2024 às 02:02:53

PUBLICAÇÕES RELACIONADAS

Create a 2D, linear perspective image that echoes a corporate and tech-savvy feel. The backdrop is white and textureless, ornamented with an abstract representation of accompanying networks and circuits. Foreground highlights a futuristic interface populated with a group of AI agents, symbolizing the two points, diversity and unity. Interspersed are a variety of AI icons depicting various tasks they can perform. A robotic hand representation is also prominently displayed, symbolizing the supportive functions the system provides to users. Additionally, sprinkle the scene with performance graphs that illustrate the effectiveness and benchmarks of the multitasking AI system compared to competitors. Capture elements of Flat and Vector design styles in the composition.

Manus: O Novo Sistema de IA que Promete Revolucionar Tarefas Autônomas

Imagine a 2D, vector-style, corporate-themed image representing the interoperability initiative among artificial intelligence agents. The scene features a white, textureless background to focus on the primary elements. Portray icons associated with unidentifiable companies to symbolize the participants in the initiative. Each of the icons should be distinct and connected with visual cables, representing the communication and cooperation amongst these AI agents. Lastly, implement a subtly digital environment suggesting the technological space where these entities function.

AGNTCY: A Nova Iniciativa para Interoperabilidade entre Agentes de IA

Illustrate a corporate, flat and vectorial scene: A man, who is an education official, in a press conference on March 13, 2025. The focus of the press conference is the discussion of the need to regulate artificial intelligence. The education official is emphasizing points about responsible use and regulation of artificial intelligence. The backdrop is white and without texture, keeping it simple and professional. To further symbolize the collaboration among different sectors, display generic logos that represent different areas of government. Display also a screen showing data about artificial intelligence, showcasing the technical basis of the discussion. Add graphical elements related to technology to enhance the theme of artificial intelligence.

Camilo Santana Propõe Discussão sobre Regulamentação da Inteligência Artificial

Illustrate a 2D, linear perspective image in a corporate, flat and vector style. The image has a textureless, white background. In the foreground, focus on a central figure who symbolizes a leadership role in AI, but not specifically Stephen Peacock. He is explaining the application of AI in game development. Include a visual context of the game development environment and a logo symbolizing an international game development provider, but not specifically the Keywords Studios logo.

Keywords Studios Lança Soluções de IA para Desenvolvimento de Jogos

Fique por dentro das últimas novidades em IA

Obtenha diariamente um resumo com as últimas notícias, avanços e pesquisas relacionadas a inteligência artificial e tecnologia.

Obrigado pelo envio!

logo genai

GenAi Br © 2024

  • LinkedIn
bottom of page