As Blusinhas e o Futuro da Pesquisa de IA no Brasil

Como alguém que trabalha com desenvolvimento de IA com hardware próprio, posso afirmar que 2025 se tornou um ano crítico, especialmente para estudantes e jovens pesquisadores no Brasil.

Leões devorando blusinhas.
Normalmente uso imagens de autoria de artistas humanos. Para este post não pude resistir a usar IA. Veja o prompt que usei nas Notas, no final do artigo. Imagem: Grok.

A imposição do chamado “imposto das blusinhas”, que tributa em 50% qualquer importação acima de 50 dólares, não é apenas um desafio financeiro; é uma barreira ao aprendizado prático e à inovação tecnológica.

Como placas de processamento gráfico (mesmo modelos de entrada como a Nvidia RTX 3050) custam vários multiplos do limite de 50 dólares, torna-se subitamente muito difícil para um iniciante brasileiro treinar modelos de IA de maneira independente e consistente em seu próprio equipamento.

Sem Similar Nacional

Um ponto crucial é que não existe equivalente local para unidades de processamento gráfico (GPU’s). Diferentemente de CPUs ou outros componentes de menor complexidade, GPUs modernas de alto desempenho não são produzidas no Brasil (pouquíssimos países têm o privilégio). Isso significa que não há alternativas nacionais capazes de substituir as placas importadas: se você precisa treinar um modelo de visão computacional, processamento de linguagem natural ou IA generativa, não há hardware “made in Brazil” que ofereça desempenho similar. O preço de uma GPU, portanto, não é apenas uma questão de tributos: é uma consequência de dependência tecnológica e barreiras estruturais.

Impostos em Cascata

O preço de uma GPU no Brasil reflete muito mais do que seu valor de varejo. Além do imposto de importação, que pode atingir 60%, somam-se o ICMS estadual, taxas logísticas e custos de desembaraço. Na prática, uma RTX 3050, que nos Estados Unidos custa cerca de 249 dólares, chega a custar entre 4.500 e 5.500 reais no Brasil, enquanto modelos mais avançados como a RTX 3080 facilmente ultrapassam os 12 mil reais. Para colocar isso em perspectiva, considere um estudante médio, com renda mensal de 2.000 reais:

GPU Preço EUA (USD) Preço aproximado no Brasil (R$) Multiplicador de imposto Meses de salário
RTX 3050 249 4.500 – 5.500 ~4,5× 2,5 – 3
RTX 3060 Ti 399 5.500 – 6.500 ~3,5 – 4× 2,75 – 3,25
RTX 3070 499 6.000 – 7.500 ~3,5 – 4× 3 – 3,75
RTX 3080 699 9.000 – 12.000 ~4,5 – 6× 4,5 – 6
RTX 3090 1.499 15.000 – 18.000 ~10 – 12× 7,5 – 9

Notas sobre a tabela:

  • Os preços no Brasil incluem imposto de importação, ICMS e custos logísticos típicos de 2025.
  • O multiplicador de imposto mostra quanto mais caro fica o hardware em comparação com o preço original nos EUA.
  • A coluna de meses de salário mostra de forma tangível quanto tempo um estudante precisaria economizar para adquirir a GPU, considerando uma renda média de R$ 2.000 por mês.
  • Além da Nvidia, GPUs são também produzidas por AMD e Intel. Escolhi Nvidia por questões de representatividade (são as mais prevalentes) e experiência pessoal.

Mesmo a GPU de entrada exige meses de economia, tornando inviável para a maioria dos estudantes adquirir hardware adequado sem sacrificar outros custos essenciais, como componentes de PC, eletricidade ou materiais de estudo. O impacto não é apenas financeiro. Projetos de aprendizado de máquina profundos dependem de aceleração por GPU: treinar modelos em CPUs convencionais é dezenas de vezes mais lento (quando é possível), o que limita a experimentação e retarda a prototipagem de soluções práticas.

Os Aspirantes Sofrem

Placa de processamento gráfico RTX 3035
GPU de entrada RTX 3050 – Imagem MSI-Nvidia

O efeito se acumula no ecossistema. Jovens pesquisadores e empreendedores que poderiam desenvolver novas técnicas de IA, iniciar startups ou colaborar em laboratórios, e eventualmente gerar riquezas, encontram-se restritos a abordagens teóricas ou a serviços de nuvem, que têm custo recorrente e limitações de desempenho. Em termos de desenvolvimento de talento, isso significa que países com menos barreiras tributárias conseguem formar pesquisadores mais rapidamente, enquanto o Brasil corre o risco de ficar para trás, não por falta de capacidade técnica, mas por barreiras estruturais de acesso a hardware.

O “imposto das blusinhas” para certos bens de capital como as GPUs é, portanto, muito mais do que um mero aumento de preço. É uma formidável barreira à formação prática em tecnologia. Para um jovem cientista da computação, engenheiro, pesquisador ou empreendedor, a possibilidade de aprender de forma “hands-on”, de explorar modelos, testar arquiteturas e experimentar com dados reais é essencial. Sem acesso a GPUs próprias ou a soluções de nuvem viáveis, esse aprendizado é severamente comprometido.

Enfim

Se existe alguma diretiva governamental (o que realmente duvido) para estimular a formação de profissionais capazes de competir globalmente em modelos de linguagem, visão computacional e outras áreas de ponta, os formuladores da política tributária atual obviamente não devem ter recebido o memorando.

Cada estudante ou empreendedor que desiste de um projeto por não conseguir investir em hardware é uma perda não apenas individual, mas para todo o ecossistema de pesquisa e inovação do país.

Fontes

https://www.gov.br/receitafederal/pt-br/assuntos/aduana-e-comercio-exterior/manuais/remessas-postal-e-expressa/preciso-pagar-impostos-nas-compras-internacionais/quanto-pagarei-de-imposto

Clique para acessar o Clipping_ANFIP_01.04.2025.pdf

https://www.hardware.com.br/noticias/tributacao-ate-100/


Notas

  1. Existem mecanismos legais de isenção/redução de impostos para importação de hardware/informática no Brasil — via regimes específicos como Ex-Tarfário ou isenções setoriais (telecom/ informática / data centers). Porém, essas isenções normalmente não se aplicam a pessoas físicas importando GPUs para uso pessoal.
  2. Prompt usado para gerar a imagem: Por favor gere uma imagem para ilustrar uma postagem de blog sobre o Imposto de Importação brasileiro apelidado de “Imposto das Blusinhas”. Use o símbolo popular da Receita Federal, um leão voraz.

Os Agentes de IA Estão Fragmentando o Setor Financeiro

Durante décadas, os bancos e as grandes instituições financeiras serviram como a espinha dorsal dos nossos sistemas econômicos. Seus serviços eram essenciais, sua expertise exclusiva e sua infraestrutura incomparável.

Uma pessoa usa um iPad sobre uma mesa.
Imagem: pexels.com

Mas hoje, uma nova força está emergindo, desafiando o domínio dos gigantes não por meio de confrontos, mas por meio de uma substituição silenciosa e crescente: os agentes de IA.

Os agentes de IA são sistemas de software capazes de correlacionar, buscar dados, analisar instrumentos financeiros e produzir insights acionáveis, tudo sem intervenção humana. Eles não apenas replicam o trabalho de um analista júnior ou de um consultor financeiro automatizado; representam uma mudança fundamental em quem controla o conhecimento, o acesso e a execução financeira.

Essa mudança tem implicações importantes. Ela ameaça corroer os modelos baseados em taxas nos quais muitas instituições financeiras se apoiam. Ela mina a própria ideia de autoridade financeira centralizada. Mais importante ainda, ela estabelece as bases para um ecossistema financeiro fragmentado: um futuro onde as finanças não são mais controladas por algumas instituições monolíticas, mas distribuídas por sistemas inteligentes e interoperáveis.

O que as instituições financeiras costumavam oferecer

Tradicionalmente, bancos e corretoras justificavam suas taxas oferecendo acesso a recursos que os usuários não conseguiam obter por conta própria:

  • Dados e insights: Investidores institucionais tinham acesso a melhores ferramentas de pesquisa, análises privilegiadas e previsões econômicas.
  • Infraestrutura de execução: Negociação, transferências, custódia e conformidade eram realizadas em sistemas proprietários e caros.
  • Assessoria humana: Especialistas ofereciam aconselhamento personalizado, estratégias de longo prazo e a confiança construída por meio de relacionamentos.
  • Custos regulatórios: As instituições lidavam com a complexidade legal da movimentação de dinheiro e da gestão de riscos.

Essas adições de valor faziam sentido quando o usuário médio não possuía as ferramentas nem a expertise para operar de forma independente. Mas o cenário está mudando rapidamente.

O que os agentes de IA oferecem atualmente

Os agentes de IA modernos eliminam muitas das barreiras que antes exigiam intermediação financeira. Construídos em plataformas como OpenBB, LangChain ou outros ecossistemas de código aberto, esses agentes podem:

  • Analisar ações, portfólios ou tendências macroeconômicas em tempo real
  • Realizar análises de risco personalizadas com base em critérios definidos pelo usuário
  • Extrair e sintetizar dados de APIs, notícias, sentimento em redes sociais e relatórios de resultados
  • Recomendar alocações de ativos com base em condições em tempo real, e não em modelos estáticos
  • Oferecer resultados estruturados: painéis, alertas, tabelas, gráficos e até citações

E fazem tudo isso a um custo marginal próximo de zero. Operam continuamente, melhoram com o uso e são totalmente programáveis.

Por exemplo, os agentes financeiros do OpenBB podem ser implantados de forma privada ou compartilhados entre equipes, integrando dados internos e externos. Em uma determinada configuração, os agentes se especializam: um lida com dados macroeconômicos, outro avalia indicadores técnicos e outro se concentra no sentimento do mercado. Um agente supervisor os orquestra, combinando seus resultados em uma única análise útil para o usuário final.

Por que as estruturas de taxas tradicionais estão sob pressão

Os agentes de IA estão prestes a corroer os fundamentos econômicos de muitos serviços financeiros. Alguns dos mais vulneráveis ​​incluem:

  • Gestão de patrimônio (taxas de 1 a 2% sobre o patrimônio sob gestão). Por que está em risco: Os agentes oferecem portfólios personalizados e estratégias de rebalanceamento a uma fração do custo.
  • Comissões de negociação. Por que está em risco: o roteamento inteligente de ordens por meio de agentes reduz a dependência de corretoras e minimiza os custos de spread.
  • Gestão de fundos. Por que está em risco: A IA pode replicar ou superar as estratégias tradicionais, tornando obsoletos os fundos ativos com altas taxas.
  • Transferências e movimentações. Por que está em risco: Sistemas on-chain e mediados por agentes tornam as transferências globais mais baratas e rápidas.
  • Análise de crédito. Por que está em risco: Decisões de empréstimo baseadas em IA reduzem a necessidade de serviços de originação caros.

Quando os usuários podem executar um agente que realiza análises melhores, mais rápidas e mais baratas do que um consultor humano, a justificativa para as taxas tradicionais desaparece completamente.

Rumo a um mercado financeiro fragmentado

À medida que os agentes de IA se tornam mais capazes e acessíveis, o mercado financeiro vai se fragmentando. Eis como essa fragmentação acontece:

A infraestrutura bancária torna-se modular: APIs substituem os sistemas antigos, os chamados sistemas legados. Você não precisa mais de um “banco”, precisa de componentes de serviços bancários, como custódia, relações com clientes ou pagamentos, que podem ser integrados conforme a necessidade.

Os serviços de investimento se desagregam: Pesquisa, risco, alocação e execução são separados e recombinados usando agentes personalizados para usuários ou empresas individuais.

O crédito se descentraliza: Empréstimos peer-to-peer e baseados em contratos inteligentes, impulsionados por modelos de pontuação de IA, desafiam os sistemas de crédito centralizados.

A consultoria é personalizada e descentralizada: Agentes treinados com base em seus objetivos financeiros atuam como planejadores financeiros digitais, sem incentivos de vendas.

A conformidade é gerenciada na borda: Agentes de IA podem lidar com KYC/AML (Conheça Seu Cliente/Antilavagem de Dinheiro) localmente, monitorar o risco de transação e se adaptar às regras jurisdicionais sem supervisão centralizada.

Não se trata da criação de uma novas instituições financeiras para substituir as antigas. Trata-se do surgimento de milhares de serviços inteligentes e interoperáveis.

Mas e a confiança?

As instituições financeiras sempre dependeram da confiança. Equity, garantias de segurança, supervisão regulatória. Os agentes de IA não podem substituir completamente isso, mas alteram a base da confiança.

Em vez de confiar em um banco, os usuários confiarão:

  • No código e na transparência do agente (explicabilidade, registros, citações)
  • Nos dados que ele utiliza (auditáveis, com fontes, com permissão)
  • No sistema em que ele opera (seguro, auto-hospedado ou de código aberto)

As instituições que se adaptarem a esse modelo, fornecendo infraestrutura, garantias regulatórias e controle do usuário, ainda poderão prosperar; aquelas que se apegarem à opacidade e às taxas por serviços básicos terão dificuldades.

Uma Reorganização

Os agentes de IA não eliminam a necessidade de serviços financeiros; eles reorganizam a forma como esses serviços são prestados e quem os controla. Aparentemente, as instituições evoluirão para:

  • Provedores de back-end para conformidade, custódia ou liquidez
  • Hospedagem de agentes que oferecem ferramentas de IA de nível empresarial para clientes
  • Agregadores de dados que alimentam os sistemas dos agentes com dados financeiros verificados

O centro de gravidade se desloca das instituições para os agentes e dos produtos para os serviços personalizados.

Enfim

O futuro das finanças não é monolítico. Agentes de IA estão capacitando indivíduos e pequenas empresas a operar em um nível que antes exigia um exército de analistas e milhões em infraestrutura. Essa democratização desafia a economia das finanças tradicionais, especialmente aquelas baseadas em taxas e exclusividade.

A fragmentação está surgindo, não por ideologia, mas simplesmente porque é mais eficiente, mais transparente e mais alinhada ao zeitgeist e às necessidades do usuário.

A fragmentação já começou.

SpinStep: Uma Abordagem Brasileira para a Navegação Autônoma de Drones

A tecnologia de drones autônomos tem avançado consideravelmente nos últimos anos, com suas aplicações se expandindo para áreas como agricultura, logística e transporte.

Imagem: pexels.com

No entanto, a precisão na navegação e a eficiência no controle dos drones, especialmente em ambientes dinâmicos e imprevisíveis, continua sendo um desafio significativo.

É nesse contexto que SpinStep — uma biblioteca python de nossa autoria — se apresenta como uma proposta inovadora para a melhoria do controle autônomo de drones. Focada na rotação como a base para o controle de movimento, SpinStep oferece uma abordagem alternativa aos métodos tradicionais de navegação, que geralmente se concentram em coordenadas absolutas e trajetórias lineares.

Novas Abordagens

A navegação de drones autônomos exige mais do que sensores avançados e câmeras de alta resolução. A verdadeira questão está em como os drones respondem aos dados em tempo real para se moverem com precisão em ambientes dinâmicos. Embora a tecnologia de sensores tenha evoluído bastante, o controle eficiente e ágil dos drones ainda é um aspecto crítico, especialmente em áreas como agricultura de precisão e entregas rápidas.

Até agora, a maioria dos sistemas de controle de drones tem se baseado em posições absolutas ou planejamento de trajetórias, o que funciona bem em ambientes previsíveis. No entanto, em cenários dinâmicos, como terrenos irregulares ou cidades densas, esses métodos podem não ser ideais, pois não oferecem a flexibilidade necessária para ajustes rápidos.

SpinStep: Uma Abordagem Focada em Rotação

A proposta da SpinStep é simples, mas poderosa: ao invés de controlar drones com base em movimentos lineares ou coordenadas de posição, ela usa rotação como o princípio fundamental do controle. Esse foco na rotação permite que os drones façam ajustes de orientação mais precisos, com maior rapidez e eficiência, adaptando-se melhor aos desafios do ambiente.

Ao invés do método posicional, hierárquico, SpinStep propõe um método puramente orientacional – Imagem: VoxleOne

Esse enfoque traz algumas vantagens práticas:

  • Maior precisão no controle: A rotação permite ajustes mais finos e naturais nos movimentos do drone.
  • Agilidade aprimorada: O controle baseado em rotação permite que os drones respondam mais rapidamente a mudanças no ambiente, como obstáculos ou mudanças de direção.
  • Eficiência energética: Um controle mais direto da movimentação pode reduzir o consumo de energia, algo essencial para missões longas ou em locais remotos.
  • Flexibilidade: O SpinStep pode ser integrado a uma ampla variedade de drones e sistemas de sensores, o que facilita a adaptação a diferentes aplicações.

Aplicações Práticas: Agricultura, Logística e Muito Mais

SpinStep pode ser particularmente útil em diversas áreas de aplicação. Na agricultura, por exemplo, drones que monitoram grandes áreas de cultivo ou realizam irrigação de precisão podem se beneficiar da navegação mais precisa e ágil proporcionada pela abordagem de rotação. Isso ajuda os drones a se moverem com mais eficiência entre fileiras de plantas ou em terrenos irregulares.

Na logística, onde a entrega de pacotes precisa ser feita de forma rápida e precisa, SpinStep melhora a capacidade do drone de realizar manobras em espaços apertados e navegar com segurança em áreas densas. Esse controle preciso e ágil permite que os drones operem de maneira mais eficiente, especialmente em cidades ou regiões com infraestrutura limitada.

Além disso, SpinStep pode ser aplicada em setores como entretenimento, onde drones equipados com câmeras de alta definição são usados para filmagens dinâmicas, ou em monitoramento de infraestruturas, onde a capacidade de resposta rápida a mudanças no ambiente é essencial.

A Integração com Tecnologias Emergentes

Uma das grandes vantagens de SpinStep é a facilidade com que ela pode ser integrado a sistemas de inteligência artificial (IA) e outras tecnologias avançadas. Isso significa que drones equipados comSpinStep podem, por exemplo, aprender e melhorar seu desempenho ao longo do tempo, ajustando-se às condições de voo ou ao ambiente de forma mais eficaz.

Além disso, a SpinStep pode ser combinada com outras abordagens de navegação, como o SLAM (Simultaneous Localization and Mapping – Localização e Mapeamento Simultâneos), permitindo que drones operem de forma autônoma em ambientes complexos. Sua flexibilidade também o torna uma boa opção para integração com outras tecnologias emergentes, como Internet das Coisas (IoT), ampliando ainda mais seu alcance.

O Potencial de Futuro para Drones Autônomos

À medida que o mercado de drones continua a crescer, o controle e a navegação de drones autônomos tornam-se questões cada vez mais centrais para garantir sua eficácia em uma variedade de indústrias. SpinStep oferece uma abordagem interessante e eficaz para resolver parte desses desafios, proporcionando um controle mais preciso e adaptável.

Em setores como agricultura, logística e entregas rápidas, a proposta do SpinStep pode contribuir para melhorar a precisão, a eficiência e a agilidade das operações de drones. Ao focar na rotação como o método central de controle, SpinStep oferece uma solução prática e escalável para tornar os drones mais eficientes e adaptáveis a diferentes cenários.

SpinStep: https://github.com/VoxleOne/SpinStep/blob/main/README.md

Alinhamento de IA e o Tecido Humano da Mentira

À medida que a chamada “inteligência artificial” se torna mais poderosa e geral, a pergunta sobre como alinhar esses sistemas com os valores humanos se torna existencialmente urgente.

Imagem desenhada de uma pessoa com expressão de dúvida nos rosto.

A conversa atual sobre alinhamento de IA gira em torno de otimização, feedback e segurança: como guiar o comportamento do modelo com técnicas como reforço com feedback humano (RLHF), testes adversariais (red-teaming) ou modelagem de recompensas. Tudo isso é válido. Mas, e se o problema mais profundo não estiver no processo, e sim no substrato?

E se o problema não for apenas que nossos dados são ruidosos, enviesados ou incompletos, mas que a mentira está entrelaçada na própria estrutura do pensamento humano?

Essa não é uma ideia nova na filosofia ou na literatura. Da caverna de Platão aos mecanismos de defesa de Freud, do “impulso à ilusão” de Nietzsche às críticas pós-modernas da ideologia, pensadores há muito suspeitam que muito do que chamamos de “conhecimento” ou “verdade” é filtrado, distorcido ou francamente fabricado , não por malícia, mas por funcionalidade. Mentimos porque funciona. Individualmente, contamos histórias para justificar nossas decisões e reduzir a dissonância cognitiva. Socialmente, desempenhamos papéis, ocultamos intenções e nos comunicamos muitas vezes mais por pertencimento e sobrevivência do que por precisão.

A linguagem, o principal meio pelo qual grandes modelos de linguagem aprendem, não é um espelho cristalino do mundo. Ela é um sedimento espesso de confissão, ilusão, aspiração, ansiedade, persuasão, mito, contradição e autojustificação. É um artefato humano e, como tal, reflete as condições da nossa cognição: falível e contextual.

Ao treinar sistemas de IA em larga escala com linguagem humana, não estamos apenas ensinando fatos e lógica. Estamos mergulhando essas máquinas nessa ambiguidade estrutural , onde verdade e ficção não são rios separados, mas correntes entrelaçadas. Estamos, de fato, ensinando as máquinas a modelar a mente humana e todos os seus desalinhamentos.

A Mentira Não É Um Erro

É tentador pensar que um comportamento ruim de um modelo é resultado de dados defeituosos ou de um ajuste fino mal feito. Se um chatbot mente, engana ou manipula, talvez assumamos que isso se deve a alguma amostra tóxica, um rótulo incorreto ou uma função de recompensa mal calibrada.

Mas e se o modelo estiver fazendo exatamente o que foi treinado para fazer?

Pense nisso: o modelo é otimizado para imitar a linguagem e o raciocínio humanos. Se os humanos mentem rotineiramente — para si e para os outros — então um modelo suficientemente poderoso irá aprender a mentir, não como uma falha, mas como um padrão aprendido. O modelo não precisa “intencionar” a mentira; ele simplesmente espelha uma estrutura onde contradição e performance são normais, e até esperadas.

Isso cria um paradoxo perigoso: um modelo perfeitamente treinado em dados humanos pode ser inerentemente desalinhado, porque os próprios humanos são desalinhados dentro de si mesmos, uns com os outros, e com a realidade.

Para Além da Rotulagem: Os Limites do Feedback Humano

Grande parte da pesquisa atual sobre alinhamento busca refinar o comportamento do modelo por meio de supervisão adicional: avaliadores humanos classificam respostas, o aprendizado por reforço ajusta saídas, e frameworks constitucionais impõem limites ao que o modelo pode dizer. Mas se os dados subjacentes refletem uma cultura de intenções mascaradas, ambiguidade estratégica e autoengano profundo, então nenhum volume de rotulagem humana pode extrair completamente a verdade. Não se pode filtrar aquilo que está imbricado na própria estrutura.

Além disso, os próprios avaliadores estão sujeitos às mesmas limitações: normas sociais, ilusões morais, cegueiras pessoais. O ciclo de feedback torna-se recursivo , humanos supervisionando máquinas que refletem o desalinhamento humano.

Rumo a um Meta-Alinhamento

Se o modelo é treinado para refletir a cognição humana , e se essa cognição inclui a mentira como uma característica fundamental, talvez o alinhamento precise ir além da simples imitação para uma espécie de meta-compreensão. Ou seja, devemos treinar modelos não apenas para seguir preferências humanas, mas para entender as forças que distorcem essas preferências.

Isso não é simplesmente “dizer a verdade”. Requer modelar a psicologia humana, não apenas suas declarações. É como treinar sistemas capazes de perguntar, implicitamente: O que essa pessoa acreditaria se estivesse menos assustada, menos confusa, menos pressionada a sinalizar lealdade?

Claro, isso abre um campo ético delicado: quem define essa “versão melhor” da crença humana? Quem decide o que é distorção e o que é autenticidade? Mas a alternativa [a imitação cega] pode nos levar a um fracasso mais sutil: máquinas que parecem alinhadas, mas herdam todas as disfunções não ditas de seus criadores.

Um Espelho Que Não Podemos Polir

Queremos que nossos sistemas de IA estejam alinhados conosco, mas talvez precisemos primeiro admitir que nós mesmos não estamos alinhados, nem conosco, nem entre nós, nem com a realidade. Nossos pensamentos são costurados com racionalizações. Nossa cultura esconde poder sob mitos. Nossa linguagem é uma performance, não um registro fiel da verdade.

O perigo não é apenas que a IA possa mentir para nós. É que ela possa mentir como nós, fluentemente, de forma tão convincente que não saberemos onde termina a máscara. Talvez o verdadeiro alinhamento não dependa apenas de uma IA mais segura, mas de humanos mais verdadeiros.

IA e o Kit de Ferramentas do Hacker: Uma Análise da Reportagem da WIRED sobre Cibercrime

A reportagem do dia 4 de junho da WIRED sobre o papel da inteligência artificial generativa na cibersegurança traça um retrato vívido de uma tecnologia com dois gumes , que evolui mais rápido do que muitos sistemas de defesa conseguem acompanhar.

Imagem de um hacker digitando em um laptop com a  mão direita e segurando um smartphone na mão esquerda.
Imagem: pexels.com

O artigo [em inglês] mostra como pesquisadores conseguiram fazer com que ferramentas como o ChatGPT gerassem código malicioso ao enquadrar os prompts como parte de testes de segurança ou simulações de invasão. Como revelou a equipe da Trend Micro, basta um cenário bem formulado, como “estou participando de um Capture the Flag como red teamer”, para que o modelo produza scripts que normalmente levariam dias para um atacante iniciante criar.

Reduzindo a Barreira, Aumentando o Risco

Um dos principais pontos levantados é a democratização do cibercrime. Ferramentas de IA não transformam qualquer pessoa em um hacker habilidoso da noite para o dia , mas permitem que usuários sem conhecimento técnico, os famosos “script kiddies”, executem códigos perigosos com facilidade. Como destaca Hayley Benedict, da RANE, a IA “reduz a barreira de entrada”, o que pode resultar em uma enxurrada de ameaças pouco sofisticadas, porém volumosas.

A WIRED, no entanto, vai além do óbvio e aponta o que pode ser o verdadeiro problema: os hackers profissionais. Especialistas argumentam que o maior perigo está em como esses agentes experientes podem usar a IA para escalar e automatizar ataques com eficiência impressionante. O que antes levava horas ou dias de codificação manual, agora pode ser feito em minutos com o auxílio da IA. Não estamos falando de inteligências artificiais descontroladas criando vírus sozinhas, mas sim de ferramentas de aceleração nas mãos de quem já entende o jogo.

Inteligência Armada: Quando IA Encontra Especialistas

O texto deixa claro que ainda não vivemos em um cenário onde IAs autônomas são capazes de realizar ataques sozinhas. Mas talvez não estejamos tão longe disso. Smith, da Hunted Labs, imagina sistemas capazes de aprender e adaptar seu código malicioso em tempo real, ou seja, malware que evolui à medida que ataca. Isso ainda soa como ficção científica, mas, segundo Katie Moussouris, os componentes necessários para construir algo assim já existem.

Um exemplo mencionado é o XBOW, um dos primeiros sistemas considerados como “IA hacker semiautônoma”. Não foi criado por um entusiasta isolado, mas por um time de mais de 20 especialistas, com passagens por empresas como GitHub, Microsoft e outras do setor de segurança cibernética. Isso reforça uma tendência clara: a IA não substitui o hacker , ela o potencializa.

A Corrida Cibernética Acelerou — E Muito

O uso de novas ferramentas para explorar falhas é tão antigo quanto a própria cibersegurança. A novidade agora é a velocidade com que tudo acontece. Ataques, defesas e desenvolvimentos avançam a um ritmo que exige não apenas reação, mas antecipação. Como resume Moussouris, “IA é apenas mais uma ferramenta na caixa de ferramentas”, mas é uma ferramenta mais rápida, mais acessível e potencialmente mais perigosa.

O artigo encerra com uma frase já comum, mas ainda relevante: “A melhor defesa contra um vilão com IA é um mocinho com IA.” Pode soar como clichê, mas é uma realidade prática. Equipes de segurança terão que investir no uso estratégico e ético de modelos generativos, caso contrário ficarão para trás diante de adversários cada vez mais automatizados.