A reportagem do dia 4 de junho da WIRED sobre o papel da inteligência artificial generativa na cibersegurança traça um retrato vívido de uma tecnologia com dois gumes , que evolui mais rápido do que muitos sistemas de defesa conseguem acompanhar.

O artigo [em inglês] mostra como pesquisadores conseguiram fazer com que ferramentas como o ChatGPT gerassem código malicioso ao enquadrar os prompts como parte de testes de segurança ou simulações de invasão. Como revelou a equipe da Trend Micro, basta um cenário bem formulado, como “estou participando de um Capture the Flag como red teamer”, para que o modelo produza scripts que normalmente levariam dias para um atacante iniciante criar.
Reduzindo a Barreira, Aumentando o Risco
Um dos principais pontos levantados é a democratização do cibercrime. Ferramentas de IA não transformam qualquer pessoa em um hacker habilidoso da noite para o dia , mas permitem que usuários sem conhecimento técnico, os famosos “script kiddies”, executem códigos perigosos com facilidade. Como destaca Hayley Benedict, da RANE, a IA “reduz a barreira de entrada”, o que pode resultar em uma enxurrada de ameaças pouco sofisticadas, porém volumosas.
A WIRED, no entanto, vai além do óbvio e aponta o que pode ser o verdadeiro problema: os hackers profissionais. Especialistas argumentam que o maior perigo está em como esses agentes experientes podem usar a IA para escalar e automatizar ataques com eficiência impressionante. O que antes levava horas ou dias de codificação manual, agora pode ser feito em minutos com o auxílio da IA. Não estamos falando de inteligências artificiais descontroladas criando vírus sozinhas, mas sim de ferramentas de aceleração nas mãos de quem já entende o jogo.
Inteligência Armada: Quando IA Encontra Especialistas
O texto deixa claro que ainda não vivemos em um cenário onde IAs autônomas são capazes de realizar ataques sozinhas. Mas talvez não estejamos tão longe disso. Smith, da Hunted Labs, imagina sistemas capazes de aprender e adaptar seu código malicioso em tempo real, ou seja, malware que evolui à medida que ataca. Isso ainda soa como ficção científica, mas, segundo Katie Moussouris, os componentes necessários para construir algo assim já existem.
Um exemplo mencionado é o XBOW, um dos primeiros sistemas considerados como “IA hacker semiautônoma”. Não foi criado por um entusiasta isolado, mas por um time de mais de 20 especialistas, com passagens por empresas como GitHub, Microsoft e outras do setor de segurança cibernética. Isso reforça uma tendência clara: a IA não substitui o hacker , ela o potencializa.
A Corrida Cibernética Acelerou — E Muito
O uso de novas ferramentas para explorar falhas é tão antigo quanto a própria cibersegurança. A novidade agora é a velocidade com que tudo acontece. Ataques, defesas e desenvolvimentos avançam a um ritmo que exige não apenas reação, mas antecipação. Como resume Moussouris, “IA é apenas mais uma ferramenta na caixa de ferramentas”, mas é uma ferramenta mais rápida, mais acessível e potencialmente mais perigosa.
O artigo encerra com uma frase já comum, mas ainda relevante: “A melhor defesa contra um vilão com IA é um mocinho com IA.” Pode soar como clichê, mas é uma realidade prática. Equipes de segurança terão que investir no uso estratégico e ético de modelos generativos, caso contrário ficarão para trás diante de adversários cada vez mais automatizados.