Alinhamento de IA e o Tecido Humano da Mentira

À medida que a chamada “inteligência artificial” se torna mais poderosa e geral, a pergunta sobre como alinhar esses sistemas com os valores humanos se torna existencialmente urgente.

Imagem desenhada de uma pessoa com expressão de dúvida nos rosto.

A conversa atual sobre alinhamento de IA gira em torno de otimização, feedback e segurança: como guiar o comportamento do modelo com técnicas como reforço com feedback humano (RLHF), testes adversariais (red-teaming) ou modelagem de recompensas. Tudo isso é válido. Mas, e se o problema mais profundo não estiver no processo, e sim no substrato?

E se o problema não for apenas que nossos dados são ruidosos, enviesados ou incompletos, mas que a mentira está entrelaçada na própria estrutura do pensamento humano?

Essa não é uma ideia nova na filosofia ou na literatura. Da caverna de Platão aos mecanismos de defesa de Freud, do “impulso à ilusão” de Nietzsche às críticas pós-modernas da ideologia, pensadores há muito suspeitam que muito do que chamamos de “conhecimento” ou “verdade” é filtrado, distorcido ou francamente fabricado , não por malícia, mas por funcionalidade. Mentimos porque funciona. Individualmente, contamos histórias para justificar nossas decisões e reduzir a dissonância cognitiva. Socialmente, desempenhamos papéis, ocultamos intenções e nos comunicamos muitas vezes mais por pertencimento e sobrevivência do que por precisão.

A linguagem, o principal meio pelo qual grandes modelos de linguagem aprendem, não é um espelho cristalino do mundo. Ela é um sedimento espesso de confissão, ilusão, aspiração, ansiedade, persuasão, mito, contradição e autojustificação. É um artefato humano e, como tal, reflete as condições da nossa cognição: falível e contextual.

Ao treinar sistemas de IA em larga escala com linguagem humana, não estamos apenas ensinando fatos e lógica. Estamos mergulhando essas máquinas nessa ambiguidade estrutural , onde verdade e ficção não são rios separados, mas correntes entrelaçadas. Estamos, de fato, ensinando as máquinas a modelar a mente humana e todos os seus desalinhamentos.

A Mentira Não É Um Erro

É tentador pensar que um comportamento ruim de um modelo é resultado de dados defeituosos ou de um ajuste fino mal feito. Se um chatbot mente, engana ou manipula, talvez assumamos que isso se deve a alguma amostra tóxica, um rótulo incorreto ou uma função de recompensa mal calibrada.

Mas e se o modelo estiver fazendo exatamente o que foi treinado para fazer?

Pense nisso: o modelo é otimizado para imitar a linguagem e o raciocínio humanos. Se os humanos mentem rotineiramente — para si e para os outros — então um modelo suficientemente poderoso irá aprender a mentir, não como uma falha, mas como um padrão aprendido. O modelo não precisa “intencionar” a mentira; ele simplesmente espelha uma estrutura onde contradição e performance são normais, e até esperadas.

Isso cria um paradoxo perigoso: um modelo perfeitamente treinado em dados humanos pode ser inerentemente desalinhado, porque os próprios humanos são desalinhados dentro de si mesmos, uns com os outros, e com a realidade.

Para Além da Rotulagem: Os Limites do Feedback Humano

Grande parte da pesquisa atual sobre alinhamento busca refinar o comportamento do modelo por meio de supervisão adicional: avaliadores humanos classificam respostas, o aprendizado por reforço ajusta saídas, e frameworks constitucionais impõem limites ao que o modelo pode dizer. Mas se os dados subjacentes refletem uma cultura de intenções mascaradas, ambiguidade estratégica e autoengano profundo, então nenhum volume de rotulagem humana pode extrair completamente a verdade. Não se pode filtrar aquilo que está imbricado na própria estrutura.

Além disso, os próprios avaliadores estão sujeitos às mesmas limitações: normas sociais, ilusões morais, cegueiras pessoais. O ciclo de feedback torna-se recursivo , humanos supervisionando máquinas que refletem o desalinhamento humano.

Rumo a um Meta-Alinhamento

Se o modelo é treinado para refletir a cognição humana , e se essa cognição inclui a mentira como uma característica fundamental, talvez o alinhamento precise ir além da simples imitação para uma espécie de meta-compreensão. Ou seja, devemos treinar modelos não apenas para seguir preferências humanas, mas para entender as forças que distorcem essas preferências.

Isso não é simplesmente “dizer a verdade”. Requer modelar a psicologia humana, não apenas suas declarações. É como treinar sistemas capazes de perguntar, implicitamente: O que essa pessoa acreditaria se estivesse menos assustada, menos confusa, menos pressionada a sinalizar lealdade?

Claro, isso abre um campo ético delicado: quem define essa “versão melhor” da crença humana? Quem decide o que é distorção e o que é autenticidade? Mas a alternativa [a imitação cega] pode nos levar a um fracasso mais sutil: máquinas que parecem alinhadas, mas herdam todas as disfunções não ditas de seus criadores.

Um Espelho Que Não Podemos Polir

Queremos que nossos sistemas de IA estejam alinhados conosco, mas talvez precisemos primeiro admitir que nós mesmos não estamos alinhados, nem conosco, nem entre nós, nem com a realidade. Nossos pensamentos são costurados com racionalizações. Nossa cultura esconde poder sob mitos. Nossa linguagem é uma performance, não um registro fiel da verdade.

O perigo não é apenas que a IA possa mentir para nós. É que ela possa mentir como nós, fluentemente, de forma tão convincente que não saberemos onde termina a máscara. Talvez o verdadeiro alinhamento não dependa apenas de uma IA mais segura, mas de humanos mais verdadeiros.

Meu mundo sem smartphones: resistência à alienação e à conexão contínua

Vivemos em uma era em que estar desconectado virou sinônimo de excentricidade. A ausência de um smartphone, hoje, é tratada quase como uma anomalia social, um desvio do esperado.

Imagem de casal caminhando em uma praia.
Imagem: pexels.com

No entanto, ao mesmo tempo em que os aparelhos se tornaram praticamente extensões do corpo humano, vejo que, embora timidamente, cresce também o fascínio por aqueles que resistem ao seu uso, como eu. O que antes gerava vergonha ou estranhamento, agora desperta curiosidade, e até inveja.

A crítica ao smartphone não é nova. O que mudou foi a maneira como seus impactos estão se tornando visíveis demais para serem ignorados. A erosão da atenção, a postura encurvada do “scroll infinito”, a desconexão social em ambientes públicos, tudo isso já é parte do nosso cotidiano. A figura do pedestre absorto, que atravessa ruas sem levantar os olhos da tela, é um símbolo moderno da dissociação com o entorno. E não se trata de falta de atenção: é uma atenção deslocada, entregue a um universo paralelo.

A alienação promovida pelos smartphones não se limita ao espaço físico. Ela avança sobre o território afetivo e social. Aplicativos de relacionamento, por exemplo, prometem facilitar conexões, mas muitas vezes apenas mantêm seus usuários presos a ciclos repetitivos de rejeição, idealização e frustração. Em vez de encontros reais, vivemos de “matches” abstratos. Em vez de conversas espontâneas, nos limitamos a interações programadas, com direito a emojis como resposta automática a qualquer emoção.

Nos bares e cafés, é cada vez mais comum ver pessoas sozinhas com seus celulares, esperando alguma coisa acontecer, ou fingindo esperar. Por vezes estão sendo ignoradas por seus pares digitais; por outras, estão simplesmente repetindo um ritual vazio, mas socialmente aceito: sentar-se, pedir um drink, checar as notificações e ir embora. O acaso, que antes era parte essencial dos encontros humanos, está sendo sistematicamente excluído da equação.

Há quem diga que o smartphone tornou as pessoas mais narcisistas. Mas talvez a palavra mais adequada seja solipsistas, como se cada um vivesse em um mundo próprio, onde os demais são meros figurantes. Essa lógica do “eu primeiro, o tempo todo” não se traduz em autoconfiança, mas sim em isolamento. Um isolamento que parece confortável, mas que corrói, silenciosamente, a dimensão coletiva da existência.

Mesmo assim, não se trata de demonizar o aparelho. O smartphone é, acima de tudo, uma ferramenta, e como toda ferramenta, seu valor depende do uso. É possível estudar, trabalhar, criar, comunicar-se de maneira significativa. Mas é inegável que a arquitetura desses dispositivos e dos aplicativos que abrigam é desenhada para prender, para capturar a atenção e, muitas vezes, substituí-la por um simulacro de interação e afeto.

A substituição do mundo real por suas versões digitais está criando uma geração que vive “rolando sozinha”. As interações se tornam mecânicas, os vínculos frágeis, e até mesmo o flerte, essa arte tão humana, foi transferido para plataformas que padronizam o desejo. Ver uma pessoa interessante num café parece menos eficaz do que esperar que ela apareça, magicamente, no aplicativo.

Mais do que um problema de tecnologia, esse é um dilema de comportamento, de escolhas e prioridades. A conectividade constante tem um custo: a erosão das experiências presenciais, da espontaneidade e da atenção compartilhada. E, no fim das contas, a pergunta que fica não é “o que podemos fazer com nossos celulares?”, mas sim: o que estamos deixando de fazer por causa deles?

A vida offline ainda existe, com seus mapas em guardanapos, seus silêncios nos ônibus, sua imprevisibilidade nas ruas. É menos eficiente, mais caótica, mas também mais humana. E talvez seja hora de resgatar um pouco disso, não como nostalgia, mas como resistência.

PIX, Código Aberto e a Lei: O Que Está Errado Nessa Conta?

Em tempos de digitalização acelerada dos serviços públicos, cresce a importância do debate sobre transparência, soberania tecnológica e o papel do código aberto na administração pública.

Grafismo ilustrando ícones monetários ao redor de um cartão de crédito genérico.
Imagem: pexels.com

Um ponto crítico, porém pouco debatido, envolve uma possível contradição legal na forma como o Estado brasileiro desenvolve e disponibiliza seus sistemas digitais , especialmente quando olhamos para o PIX, sistema de pagamentos instantâneos operado pelo Banco Central do Brasil.

O Que Diz a Lei?

A Lei nº 14.063, de 23 de setembro de 2021, em seu Artigo 16, é clara:

“Os sistemas de informação e de comunicação desenvolvidos exclusivamente pela administração pública são regidos por licença de código aberto, permitida a sua utilização, cópia, alteração e distribuição sem restrições por todos os órgãos e entidades públicos.”

Ou seja, todo software criado exclusivamente pelo setor público, portanto com recursos públicos e para fins de interesse coletivo, deve ser publicado sob licença de código aberto, garantindo transparência, auditabilidade, interoperabilidade e segurança democrática.

E o PIX?

O PIX foi desenvolvido inteiramente pelo Banco Central, uma autarquia federal vinculada ao Ministério da Economia. O sistema é considerado hoje uma das maiores inovações tecnológicas em serviços públicos dos últimos anos, e seu uso é onipresente no dia a dia dos brasileiros.

Mas o código-fonte do PIX não é público. Nenhum cidadão, empresa ou órgão público externo ao Banco Central pode auditar diretamente como o sistema funciona em seus detalhes técnicos. Isso contraria diretamente o espírito e a letra do Art. 16 da Lei 14.063/2021.

Por Que Isso Importa?

  1. Transparência e Confiança Pública: Em tempos de crescente vigilância digital, os cidadãos têm o direito de saber como funcionam os sistemas que processam e armazenam seus dados e movimentações financeiras.
  2. Segurança: O código aberto permite auditoria independente, o que é especialmente importante em sistemas críticos como o PIX, onde falhas podem ter impactos financeiros e sociais severos.
  3. Legalidade: A não disponibilização do código do PIX pode configurar descumprimento direto da lei — ou, ao menos, exige uma explicação técnica ou jurídica muito robusta por parte do Banco Central.
  4. Soberania Tecnológica: O uso de código aberto fortalece a capacidade do Estado de controlar, manter e evoluir suas próprias tecnologias, sem depender de soluções fechadas ou proprietárias.

E o Que Diz o Banco Central?

Até o momento, o Banco Central não publicou o código-fonte completo do sistema PIX. Algumas partes relacionadas à interface com os bancos e instituições financeiras estão documentadas e normatizadas, mas o núcleo operacional do sistema permanece fechado.

Se o Banco Central entende que o PIX não se enquadra na obrigação do Art. 16, seria fundamental que essa interpretação fosse justificada e publicamente debatida, sob pena de abrir um perigoso precedente de descumprimento legal por parte da própria administração pública.

Conclusão

O caso do PIX mostra como até mesmo inovações públicas bem-sucedidas podem esbarrar em problemas sérios de legalidade e transparência. Se o código-fonte do PIX não for tornado aberto, estamos diante de uma provável ilegalidade e, mais do que isso, de uma contradição com os valores democráticos que deveriam nortear a transformação digital do Estado brasileiro.

É hora de exigir respostas claras. Afinal, tecnologia pública deve ser, acima de tudo, pública.

IA e o Kit de Ferramentas do Hacker: Uma Análise da Reportagem da WIRED sobre Cibercrime

A reportagem do dia 4 de junho da WIRED sobre o papel da inteligência artificial generativa na cibersegurança traça um retrato vívido de uma tecnologia com dois gumes , que evolui mais rápido do que muitos sistemas de defesa conseguem acompanhar.

Imagem de um hacker digitando em um laptop com a  mão direita e segurando um smartphone na mão esquerda.
Imagem: pexels.com

O artigo [em inglês] mostra como pesquisadores conseguiram fazer com que ferramentas como o ChatGPT gerassem código malicioso ao enquadrar os prompts como parte de testes de segurança ou simulações de invasão. Como revelou a equipe da Trend Micro, basta um cenário bem formulado, como “estou participando de um Capture the Flag como red teamer”, para que o modelo produza scripts que normalmente levariam dias para um atacante iniciante criar.

Reduzindo a Barreira, Aumentando o Risco

Um dos principais pontos levantados é a democratização do cibercrime. Ferramentas de IA não transformam qualquer pessoa em um hacker habilidoso da noite para o dia , mas permitem que usuários sem conhecimento técnico, os famosos “script kiddies”, executem códigos perigosos com facilidade. Como destaca Hayley Benedict, da RANE, a IA “reduz a barreira de entrada”, o que pode resultar em uma enxurrada de ameaças pouco sofisticadas, porém volumosas.

A WIRED, no entanto, vai além do óbvio e aponta o que pode ser o verdadeiro problema: os hackers profissionais. Especialistas argumentam que o maior perigo está em como esses agentes experientes podem usar a IA para escalar e automatizar ataques com eficiência impressionante. O que antes levava horas ou dias de codificação manual, agora pode ser feito em minutos com o auxílio da IA. Não estamos falando de inteligências artificiais descontroladas criando vírus sozinhas, mas sim de ferramentas de aceleração nas mãos de quem já entende o jogo.

Inteligência Armada: Quando IA Encontra Especialistas

O texto deixa claro que ainda não vivemos em um cenário onde IAs autônomas são capazes de realizar ataques sozinhas. Mas talvez não estejamos tão longe disso. Smith, da Hunted Labs, imagina sistemas capazes de aprender e adaptar seu código malicioso em tempo real, ou seja, malware que evolui à medida que ataca. Isso ainda soa como ficção científica, mas, segundo Katie Moussouris, os componentes necessários para construir algo assim já existem.

Um exemplo mencionado é o XBOW, um dos primeiros sistemas considerados como “IA hacker semiautônoma”. Não foi criado por um entusiasta isolado, mas por um time de mais de 20 especialistas, com passagens por empresas como GitHub, Microsoft e outras do setor de segurança cibernética. Isso reforça uma tendência clara: a IA não substitui o hacker , ela o potencializa.

A Corrida Cibernética Acelerou — E Muito

O uso de novas ferramentas para explorar falhas é tão antigo quanto a própria cibersegurança. A novidade agora é a velocidade com que tudo acontece. Ataques, defesas e desenvolvimentos avançam a um ritmo que exige não apenas reação, mas antecipação. Como resume Moussouris, “IA é apenas mais uma ferramenta na caixa de ferramentas”, mas é uma ferramenta mais rápida, mais acessível e potencialmente mais perigosa.

O artigo encerra com uma frase já comum, mas ainda relevante: “A melhor defesa contra um vilão com IA é um mocinho com IA.” Pode soar como clichê, mas é uma realidade prática. Equipes de segurança terão que investir no uso estratégico e ético de modelos generativos, caso contrário ficarão para trás diante de adversários cada vez mais automatizados.


Um Novo Capítulo: Este Blog Agora é Voxle One

Queridos leitores.


Estou empolgado em compartilhar esta novidade com vocês: meu blog, antes chamado Vox Leone, agora se chama Voxle One. Essa mudança reflete meu desejo de alinhar a identidade do blog com o trabalho que venho realizando na vida real, o qual evoluiu bastante desde o início desta jornada.

O nome Voxle One capta melhor a essência dos meus projetos e paixões atuais — unindo geometrias, topologias e computação 3D (Voxle = voxel), com uma referência ao caráter inovador e original (One) do trabalho que estou desenvolvendo fora do blog — e que convido todos a conhecer (e, se possível, contribuir) no GitHub[ link]. É um nome que soa mais autêntico ao momento e ao rumo que pretendo seguir com esta plataforma. Meu screen name permanece, como um aceno à continuidade.

Reconheço que uma mudança de nome pode causar algum desconforto, e peço sinceras desculpas por qualquer transtorno que isso possa provocar. Seja você um leitor de longa data ou alguém que acaba de chegar, seu apoio é extremamente valioso para mim. Espero que continue conosco enquanto iniciamos este novo capítulo.

Vocês podem esperar o mesmo conteúdo reflexivo de sempre — talvez com um foco ainda mais claro em tópicos como tecnologia de vanguarda, técnicas computacionais, criatividade e insights pessoais — e, quem sabe, algumas novidades pelo caminho. Muito obrigado por fazerem parte do blog. Mal posso esperar para compartilhar ainda mais com vocês sob a bandeira do Voxle One.

Um grande abraço,

Eraldo Marques [Vox Leone]