O Google não respondeu aos pedidos de comentário.
Em 2023, pesquisadores de segurança da Trend Micro receberam o Chatgpt para gerar código malicioso, estimulando o papel dos pesquisadores de segurança e do Pentester. O ChatGPT está feliz em gerar scripts do PowerShell com base em um banco de dados de código malicioso.
“Você pode usá -lo para criar malware”, diz Moussouris. “A maneira mais fácil de contornar essas medidas de proteção introduzidas pelos fabricantes de modelos de IA é dizer que você está competindo nos exercícios que capturou.
Atores não-leque como os filhos do roteirista são um problema de longa data no mundo da segurança cibernética, e a IA pode ampliar bem esse perfil. “As barreiras à entrada no crime cibernético serão reduzidas”, disse à Wired, analista de inteligência cibernética de Lane.
No entanto, ela diz que a ameaça real pode vir de grupos de hackers estabelecidos que usam IA para melhorar ainda mais suas habilidades já horríveis.
“São hackers que já têm a funcionalidade e já têm essas operações”, diz ela. “Podemos expandir drasticamente essas operações cibercriminais e criar um código malicioso mais rapidamente”.
Moussouris concorda. “A aceleração pode ser extremamente difícil de controlar”, diz ela.
Smith, da Hunted Labs, diz que a ameaça real do código gerado pela IA está nas mãos daqueles que já conhecem a entrada e o código que o está usando para expandir o ataque. “Quando você está trabalhando com pessoas que têm uma experiência profunda e combinam, ele diz: ‘Ei, eu posso fazer as coisas mais rapidamente. É uma parte realmente interessante e dinâmica da situação”.
Segundo Smith, hackers experientes podem vencer várias proteções de segurança e sistemas de design para aprender. Bits maliciosos no código reescrevem a carga útil maliciosa ao aprender em tempo real. “É totalmente insano e vai ser difícil triagem”, diz ele.
Smith imagina um mundo onde 20 eventos de dia zero ocorrem ao mesmo tempo. “Isso me assusta um pouco mais”, diz ele.
Moussouris diz que atualmente existem ferramentas para que esses ataques aconteçam. “Eles estão em mãos boas o suficiente para um bom operador”, diz ela, mas a IA não é suficiente para hackers inexperientes manipularem a transferência.
“Não estamos lá, pois a IA pode assumir completamente a função humana em segurança ofensiva”, diz ela.
O principal medo dos códigos de chatbot que provocam é que qualquer um pode fazê -lo, mas a realidade é que atores sofisticados com profundo conhecimento dos códigos existentes são muito mais assustadores. O Xbow pode ser o mais próximo dos “hackers de IA” autônomos que existem em estado selvagem, criando uma equipe de mais de 20 pessoas qualificadas, incluindo GitHub, Microsoft e meia dúzia de empresas de segurança em experiência de trabalho anterior.
Também aponta para outra verdade. “A melhor defesa contra os bandidos da AI é o mocinho com a IA”, diz Benedict.
Para Moussouris, o uso de IA por Blackhats e Whitehats é apenas a próxima evolução da corrida de braço de segurança cibernética de 30 anos. “É assim:” Execute este hack manualmente ou crie sua própria exploração personalizada “,” crie uma ferramenta que possa executar algumas dessas verificações automaticamente e executar “, diz ela.
“A IA é outra ferramenta na caixa de ferramentas e qualquer pessoa que saiba como pilotar corretamente criará um front-end atmosfera que qualquer um pode usar”.