IA e o Kit de Ferramentas do Hacker: Uma Análise da Reportagem da WIRED sobre Cibercrime

A reportagem do dia 4 de junho da WIRED sobre o papel da inteligência artificial generativa na cibersegurança traça um retrato vívido de uma tecnologia com dois gumes , que evolui mais rápido do que muitos sistemas de defesa conseguem acompanhar.

Imagem de um hacker digitando em um laptop com a  mão direita e segurando um smartphone na mão esquerda.
Imagem: pexels.com

O artigo [em inglês] mostra como pesquisadores conseguiram fazer com que ferramentas como o ChatGPT gerassem código malicioso ao enquadrar os prompts como parte de testes de segurança ou simulações de invasão. Como revelou a equipe da Trend Micro, basta um cenário bem formulado, como “estou participando de um Capture the Flag como red teamer”, para que o modelo produza scripts que normalmente levariam dias para um atacante iniciante criar.

Reduzindo a Barreira, Aumentando o Risco

Um dos principais pontos levantados é a democratização do cibercrime. Ferramentas de IA não transformam qualquer pessoa em um hacker habilidoso da noite para o dia , mas permitem que usuários sem conhecimento técnico, os famosos “script kiddies”, executem códigos perigosos com facilidade. Como destaca Hayley Benedict, da RANE, a IA “reduz a barreira de entrada”, o que pode resultar em uma enxurrada de ameaças pouco sofisticadas, porém volumosas.

A WIRED, no entanto, vai além do óbvio e aponta o que pode ser o verdadeiro problema: os hackers profissionais. Especialistas argumentam que o maior perigo está em como esses agentes experientes podem usar a IA para escalar e automatizar ataques com eficiência impressionante. O que antes levava horas ou dias de codificação manual, agora pode ser feito em minutos com o auxílio da IA. Não estamos falando de inteligências artificiais descontroladas criando vírus sozinhas, mas sim de ferramentas de aceleração nas mãos de quem já entende o jogo.

Inteligência Armada: Quando IA Encontra Especialistas

O texto deixa claro que ainda não vivemos em um cenário onde IAs autônomas são capazes de realizar ataques sozinhas. Mas talvez não estejamos tão longe disso. Smith, da Hunted Labs, imagina sistemas capazes de aprender e adaptar seu código malicioso em tempo real, ou seja, malware que evolui à medida que ataca. Isso ainda soa como ficção científica, mas, segundo Katie Moussouris, os componentes necessários para construir algo assim já existem.

Um exemplo mencionado é o XBOW, um dos primeiros sistemas considerados como “IA hacker semiautônoma”. Não foi criado por um entusiasta isolado, mas por um time de mais de 20 especialistas, com passagens por empresas como GitHub, Microsoft e outras do setor de segurança cibernética. Isso reforça uma tendência clara: a IA não substitui o hacker , ela o potencializa.

A Corrida Cibernética Acelerou — E Muito

O uso de novas ferramentas para explorar falhas é tão antigo quanto a própria cibersegurança. A novidade agora é a velocidade com que tudo acontece. Ataques, defesas e desenvolvimentos avançam a um ritmo que exige não apenas reação, mas antecipação. Como resume Moussouris, “IA é apenas mais uma ferramenta na caixa de ferramentas”, mas é uma ferramenta mais rápida, mais acessível e potencialmente mais perigosa.

O artigo encerra com uma frase já comum, mas ainda relevante: “A melhor defesa contra um vilão com IA é um mocinho com IA.” Pode soar como clichê, mas é uma realidade prática. Equipes de segurança terão que investir no uso estratégico e ético de modelos generativos, caso contrário ficarão para trás diante de adversários cada vez mais automatizados.


Algoritmo Versus Comportamento Emergente

Vivemos a falar sobre algoritmos e sobre a influência que exercem sobre a sociedade. Mas algoritmos têm pouco a ver com a assim-chamada ‘revolução da IA’ e participam apenas da fase de input dos dados que serão processados pelas camadas ocultas das redes neurais subjacentes. O resultado dessa computação emerge naturalmente dos dados de uma forma fascinante.

Não é possível determinar por algoritmo o comportamento dos neurônios nas camadas mais profundas (‘hidden layers’) de uma rede neural – Concepção artística. Imagem: pexels.com

Neste post exploro sucintamente o que diferencia esses modelos de IA do software tradicional.

O Software Tradicional: algoritmos e Controle Total

O software tradicional, como as aplicações que usamos para navegar na web ou para organizar nossas tarefas diárias, é criado a partir de uma programação clara e controlada pelos desenvolvedores. Nesse tipo de software, os desenvolvedores são responsáveis por decidir como ele deve funcionar. Eles estruturam a arquitetura do software, definem as entradas e saídas, criam os fluxos de dados e, essencialmente, escrevem as regras que governam o funcionamento do programa. A lógica do código é escrita manualmente, com pouca ou nenhuma intervenção de dados externos.

Por exemplo, quando um desenvolvedor cria um sistema de gerenciamento de tarefas, ele pode definir exatamente como os dados devem ser exibidos na interface do usuário, como as informações serão organizadas em um banco de dados e quais ações o usuário pode executar. O comportamento do software é, portanto, determinado por uma série de decisões conscientes tomadas pelos desenvolvedores, com base em sua experiência e nas necessidades do usuário.

O Software de Aprendizado de Máquina: Os Dados “Programam” o Comportamento

Por outro lado, quando falamos de software de aprendizado de máquina, como os LLMs, o cenário muda drasticamente. Esses modelos não são programados da mesma forma que o software tradicional. Eles são, de certa forma, “treinados” em grandes volumes de dados, e seu comportamento é amplamente determinado pelas características e padrões presentes nesses dados.

A diferença principal está no fato de que, enquanto no software tradicional o desenvolvedor controla diretamente o comportamento do sistema, nos modelos de aprendizado de máquina o desempenho do modelo é ditado pelos dados que ele recebe. O desenvolvedor pode escolher o tipo de modelo (por exemplo, redes neurais profundas ou florestas aleatórias) e o algoritmo a ser utilizado, mas a maneira como o modelo responde aos dados e, por consequência, como ele se comporta em diferentes cenários, é algo que emerge de forma dinâmica e não totalmente previsível.

Quando treinamos um modelo como um LLM, por exemplo, ele aprende a identificar padrões de linguagem, relacionamentos entre palavras e estruturas de frases a partir de enormes quantidades de textos. O modelo, então, ajusta seus parâmetros internos (algo que pode ser descrito como uma “programação automática”) para se tornar cada vez mais eficaz em prever ou gerar linguagem com base no que aprendeu. A inteligência do modelo é resultado direto da interação com os dados, e o papel do desenvolvedor é criar a infraestrutura que permita esse aprendizado, mais do que codificar explicitamente cada comportamento ou resultado.

A Emergência de Comportamentos Complexos

O mais fascinante sobre os LLMs é que seu comportamento não pode ser totalmente previsto ou controlado, mesmo por seus criadores. Eles “aprendem” de forma autônoma, ou seja, a partir dos dados com os quais são alimentados. Isso cria um software mais flexível, capaz de lidar com uma variedade de situações de forma adaptativa. No entanto, também significa que o controle direto sobre o comportamento do sistema não é tão claro quanto em um software tradicional.

Por exemplo, ao treinar um modelo de linguagem, um desenvolvedor pode não conseguir prever exatamente como o modelo irá responder a uma pergunta específica, porque sua resposta é uma combinação complexa de dados anteriores, padrões de linguagem e o contexto em que a pergunta foi feita. Isso é muito diferente de um software tradicional, onde o desenvolvedor pode prever e controlar precisamente o comportamento do programa em todas as situações.

A Nova Era do Software

Portanto, os LLMs e outros modelos de aprendizado de máquina nos mostram que a programação de software não é mais uma tarefa totalmente controlada pelo ser humano através de um algoritmo. Em vez disso, esses modelos demonstram uma nova forma de processamento de dados que é, em grande parte, determinada pela interação com dados reais. O papel do desenvolvedor é mais sobre criar as condições para que o aprendizado aconteça, do que programar diretamente cada aspecto do comportamento do software.

Isso nos leva a uma reflexão importante: à medida que avançamos para o futuro da tecnologia, as linhas entre o que é “programado” e o que é “aprendido” estão se tornando cada vez mais tênues. O software está se tornando mais inteligente, mas também mais imprevisível, e essa é uma das características mais emocionantes da inteligência artificial.


Leituras adicionais:

Comportamento Emergente:

Link para Four-week MBA

Triforma, meu novo emprego

É com satisfação (e alívio) que anuncio o lançamento do triforma.com.br.

Captura de tela da página principal do site triforma.com.br
Imagem: Triforma – CC

Esse site é o resultado de um trabalho iniciado há oito anos, quando começei a desenvolver meu projeto de AI, e que se consolida em uma mistura de serviços, aparentemente desconexos, mas que faz todo sentido depois da análise superficial.

Inovar sempre

Com o triforma.com.br, apresentamos uma plataforma que queremos inovadora, que reúna conteúdos relevantes e soluções surpreendentes para problemas outrora intratáveis. O site foi desenvolvido com o framework Hugo e tem um blog com quatro categorias, que vai receber toda a minha atenção.

Nosso projeto de visão computacional na web: a análise de imagens com IA

Uma coisa bastante nova, e que eu pessoalmente nunca vi pela web em português, vai ser nosso projeto de visão computacional, para trazer análise avançada de imagens com o uso de IA diretamente para o seu navegador da web. Com apenas alguns cliques, os usuários podem subir imagens e executar uma ampla gama de tarefas de visão computacional.

Nossa plataforma usa os modelos YOLO (You Only Look Once), que são conhecidos no ramo por seus recursos de detecção de objetos em tempo real. Um dos recursos de destaque do nosso serviço é o COWNT – um aplicativo exclusivo projetado especificamente para rastrear e analisar gado zebu usando nosso conjunto de dados exclusivo.

Gado zebu alongado, detectado com modelo e datasets desenvolvidos com know-how próprio. O gado zebu é notoriamente dificil de ser corretamente identificado com o uso de datasets onde o gado zebu é sub representado, como o COCo. Toque/clique para ler artigo explicativo.

Além de contar animais, o utilitário no site será capaz de várias funções avançadas, incluindo:

  • Detecção de características: detecte pontos-chave e objetos em imagens.
  • Contagem e rastreamento de pessoas: rastreie os indivíduos e conte-os com precisão.
  • Estimativa de velocidade: estime a velocidade de objetos em movimento em tempo real.
  • Rastreamento de objetos personalizados: rastreie objetos específicos, como veículos, animais ou até mesmo pessoas em ambientes dinâmicos.

Nossa interface vai fácil de usar e vai permitir interação perfeita com esses modelos, ajudando o usuário a resolver problemas complexos de análise de imagem sem precisar de nenhuma experiência técnica anterior.

Seja você uma pesquisadora, um agricultor, comerciante ou simplesmente interessado no poder da IA, nossa plataforma torna a visão computacional acessível e utilizável para todos, e acredito que será muito divertida.


Agradecemos a todos os parceiros, colaboradores e profissionais que contribuíram de alguma forma para a concretização deste projeto. Estamos confiantes no sucesso.

Robôs por Toda Parte!

Eu dou como certo, hoje em dia, que muitos estejam interagindo com a AI generativa sem nem perceber.

Foto de um micro robô humanóide agitando o café em uma chícara gigante.
Imagem: pexels.com

Já é suficientemente complicado que você possa estar conversando com a mesma pessoa disfarçada de outra, utilizando várias contas. No entanto, a GenAI está ultrapassando todos os limites ao facilitar a manipulação de narrativas apenas com a criação contínua de bots. Esse é um problema significativo para todas as redes sociais, e creio que a única forma de avançar é implementar alguma forma de validação da humanidade do usuário.

Tenho refletido sobre como a IA impactará as plataformas de “conteúdo” suportadas por anúncios, como YouTube, Facebook, Twitter e sites de entretenimento adulto. Minha previsão é que, à medida que o conteúdo gerado por IA se torne mais sofisticado, ou pelo menos mais convincente, essas plataformas não apenas permitirão, mas adotarão de braços abertos esse tipo de conteúdo. Inicialmente, talvez haja resistência, mas, com certeza, isso ocorrerá gradualmente e, eventualmente, se tornará a norma.

É bem conhecido que o crescimento e a sustentabilidade desses sites dependem de atrair a atenção humana e mantê-la. Atualmente, isso se manifesta em algoritmos que analisam o comportamento individual e o nível de engajamento de cada usuário, utilizando esses dados para otimizar a experiência e manter a audiência conectada — alguns poderiam até chamar isso de vício, alimentado por dopamina.

Os sites de namoro já dominam essa prática há bastante tempo. Nesses ambientes, os bots são parte integrante do modelo de negócios e já atuam assim há mais de duas décadas. A lógica é simples: eles prometem unir usuários a pessoas reais, mas, na verdade, oferecem uma galeria de bots e anúncios. Esses bots são programados para interagir de maneira convincente, evitando, a todo custo, que dois usuários reais se encontrem. Afinal, quando um site de namoro combina pessoas efetivamente, ele perde clientes.

Espero estar enganado, mas vejo que as plataformas de conteúdo social seguirão um caminho similar. Elas podem concluir que usuários que apreciam vídeos de mulheres em trajes de banho pulando em trampolins podem agora, com as ferramentas disponíveis por toda a Internet, simplesmente gerar conteúdo ilimitado, ajustando os parâmetros das imagens e vídeos com base em preferências percebidas: idade, tipo físico, cor e tamanho do bikini, e assim por diante. As plataformas por certo se empenharão ainda mais, e garantirão diversidade suficiente para que o usuário não fique entediado a ponto de procurar outras opções.

E isso não estará limitado apenas ao conteúdo passivo. Discussões políticas e temas polêmicos — o coração pulsante das redes sociais — poderão, em breve, ser gerados por LLMs, com o objetivo de incitar reações. Imagine rolar a tela alegremente e se deparar com o comentário mais desinformado e absurdo que já leu. Você sabe muito bem que a pessoa por trás daquele comentário não mudará de opinião, mas mesmo assim se sente compelido a responder, pelo menos para alertar outros sobre o perigo daquela linha de pensamento, na esperança de salvar uma alma. Então, você clica em “Responder”, mas antes de digitar sua resposta, precisa assistir a um anúncio de 15 segundos de um site de apostas.

Mas, claro, o comentário nunca foi genuíno. Você, as apostas e o seu dinheiro, isso sim é real.

AI: A Tecnologia é Madura? Estamos Prontos?

A IA generativa é uma ferramenta fantasticamente poderosa, mas a alta velocidade de implementação na tecnologia moderna significa que quaisquer contratempos ou problemas de adoção precoce são enfrentados por milhões de pessoas antes que eles sejam resolvidos.

Escultura de areia com o tema robot
Imagem: pexels.com

O nosso ordenamento legal simplesmente não foi concebido para responder a um ambiente em rápida mudança como este, o que significa que todos no mercado estão à mercê dos pioneiros, mas têm poucos recursos se forem afetados negativamente.

No momento as empresas estão se movendo rápido demais e quebrando as coisas de todo mundo, o que está causando problemas que não podemos resolver antes que novos problemas sejam introduzidos. Eu estou à espera – enquanto faço minha parte – da ação dos legisladores sobre uma boa forma de garantir que as pessoas sejam devidamente protegidas e as empresas regulamentadas, sem estrangular o crescimento e o desenvolvimento.

Perguntas

Quanto ao que pergunto no título, a verdade é que todo o movimento que vemos em torno da IA tem pouco a ver com a tecnologia e mais a ver com o chamado hype, e com o quão suscetíveis nos tornamos a ele. Na feroz competição social, estamos dispostos a destruir a sociedade ao deixar que esses papagaios estocásticos façam nosso trabalho sujo de abusar de outros humanos em busca da satisfação dos desejos mais torpes e irracionais (dinheiro e sexo).

Não é de estranhar que um mal-estar paire no ar. O que me deprime é a quantidade de pessoas que entram no comboio sem qualquer reserva. Esses produtos e as pessoas que os idealizam, desde a forma como são construídos até a forma como são vendidos e como são usados, estão ingerindo nossa toxicidade sistêmica e amplificando-a em poder e velocidade.

Recentemente circulou uma carta aberta implorando às empresas geradoras de Grandes Modelos Linguísticos [LLM] e Difusão de Imagem que pausassem seus lançamentos públicos por um período de tempo para que a sociedade possa discutir o que essas coisas realmente são e o que será permitido a elas fazer ou não fazer. Cartas abertas são sempre uma estratégia ingênua, e neste caso específico sem a menor possibilidade de ganhar força. Vimos isso acontecer em menor escala com o desastre causado pela destituição de Sam Altman e pela reconquista do conselho da OpenAI; quaisquer considerações éticas foram literalmente deixadas de lado e vilanizadas, enquanto os jogadores de má-fé, que prometiam a lua enquanto pediam o nosso dinheiro são elogiados como exemplo de liderança.

Mas o que me surpreende mesmo são as minhas próprias conclusões sobre o quão vil é toda esta situação e quão pouca esperança tenho de uma resolução decente.