Inteligente Demais

Uma das falácias mais persistentes é a associação reflexiva de riqueza com sabedoria

Ed Borgato
Imagem: iStock

A riqueza de alguém pode ser um sinal de boas decisões, mas será que essas decisões podem ser repetidas sempre com o mesmo sucesso? E mais, será que boas decisões em um campo se traduzem em sabedoria em outras áreas da vida? Talvez sim, talvez não – é o melhor que podemos dizer. Há momentos em que possuir uma riqueza excepcional pode impedir a empatia com as pessoas comuns, tornando o insight mais precário.

Uma falácia semelhante, um pouco mais difícil de entender, é supor que pessoas inteligentes têm sempre as respostas certas.

Pode ser que realmente elas tenham. Mas a inteligência em um campo se mantém intocada em outros? Uma pessoa exímia em testes matemáticos será também um líder excepcional?

Pode ser. Nunca é tão claro

E, como a riqueza, há situações em que as pessoas se tornam inteligentes demais para o seu próprio bem; quando a inteligência se torna uma desvantagem e bloqueia boas decisões.

Algumas causas:

A capacidade mental de criar histórias complexas torna mais fácil enganar as pessoas, incluindo a sí mesmo.

Conheço pessoas com quem eu não gosto de debater sobre a questão: “quanto é 2 + 2?” porque elas invariavelmente enveredam por complexas ginásticas filosóficas que me deixam exausto ou convencido de que a resposta pode não ser quatro.

O problema é que essas pessoas podem fazer essas coisas também consigo mesmas.

Richard Feynman, habitante de um dos nichos do meu panteão, disse: “O primeiro princípio é que você nunca deve se enganar – e você é a pessoa mais fácil de enganar”. Quanto mais inteligente se é, acho que mais verdadeiro isso se torna.

Quando você é abençoado com inteligência, você é amaldiçoado com a capacidade de usá-la para inventar histórias intrincadas sobre por que as coisas acontecem – especialmente histórias que justificam um erro ou a crença de que, no final, você estará certo – em uma área em que está obviamente errado.

As grandes catástrofes em qualquer campo não são causadas por falta de inteligência. Elas são normalmente causadas por inteligência extrema, que faz com que as pessoas acreditem em suas próprias histórias perigosas – por exemplo a ilusão de que podem prever tudo com precisão – e ignorem os sinais de alerta que seriam óbvios para uma pessoa normal, menos adepta a elucubrações.

As tarefas chatas geralmente são importantes, mas as pessoas mais inteligentes são as menos interessadas nas tarefas chatas.

Noventa por cento das finanças pessoais se resume a apenas gastar menos do que você ganha, diversificar investimentos e ser paciente. Mas se você é muito inteligente, isso se torna muito chato e começa a parecer um desperdício de potencial. Você quer gastar seu tempo com os 10% das atividades financeiras que são mentalmente estimulantes.

Isso não é necessariamente ruim. Mas se o seu foco na parte emocionante das finanças começa a turvar a atenção ao 90% que é importante e entediante, o caminho para o desastre está traçado. Fundos de hedge explodem e executivos de Wall Street vão à falência fazendo coisas que uma pessoa menos inteligente jamais consideraria.

Algo semelhante acontece na medicina, um campo que atrai pessoas brilhantes que podem se tornar mais interessadas em tratamentos inovadores para doenças do que em sua enfadonha prevenção.

Há um ponto ideal em que você entende claramente as coisas importantes, mas não é inteligente o suficiente para ficar entediado com elas.

A inteligência pode dificultar a comunicação com pessoas comuns. Elas podem ter o insight que você está desesperadamente procurando. Quantos acadêmicos descobriram algo incrível, mas escreveram um artigo tão denso e complexo que ninguém conseguiu entender? E quantas pessoas comuns seriam naturalmente capazes de trazer para o mundo real a descoberta de um gênio, se apenas pudessem entender o que está escrito em seu artigo acadêmico?

A resposta tem que ser: muitas

O cientista da computação Edsger Dijkstra escreveu certa vez:

A complexidade tem uma atração mórbida. Uma palestra acadêmica que seja cristalina do início ao fim, às vezes pode deixar em alguém um certo ar de insatisfação, no limite da indignação por ter sido “enganado”. A dura verdade é que a complexidade vende melhor.

Quando a complexidade é a linguagem preferida das pessoas muito inteligentes, grandes ideias podem ser excluídas do entendimento das pessoas comuns. Parte do fascínio da era da informação é que as ideias podem ser compartilhadas entre grandes grupos de pessoas. Mas isso não se aplica aos superinteligentes – eles falam uma linguagem diferente.

Ocasionalmente aparece alguém como o já citado Richard Feynman, cuja habilidade para contar histórias é igual à sua genialidade. Mas é isso é algo muito raro. Comunicação e inteligência não são apenas habilidades separadas; elas podem até se repelir de forma que, quanto mais inteligente você se tornar, mais complexa será sua comunicação e menor será o público que você poderá persuadir.

O segredo para escapar dessa armadilha, como de tantas coisas, é respeitar o equilíbrio e a diversidade de visões.

No Collective Fund Blog


Com este post eu me despeço das minhas caras leitores e leitores, para dar uma pequena pausa em nosso blog. Muitas coisas acontencendo ao mesmo tempo e preciso de uns dias para colocar a) coisas em ordem e b) outras em funcionamento.

Se esta é sua primeira vez no blog, fique à vontade e explore nossos quase 100 artigos sobre Tecnologia da Informação et al. Use a ferramenta de procura do site e os nossos arquivos. Todo o conteúdo ainda é muito atual, e grande parte continua exclusiva de nosso site.

O segundo semestre será muito estimulante, com a perspectiva de uma certa normalização da vida [embora nada esteja garantido, como sempre], e início de novos projetos. Não faltará assunto no blog. Vou continuar trabalhando, e se algo extraordinário acontecer eu entro na linha. Muita paz e saúde a todos. Take Care! Até Agosto! 🙂

Eraldo Bernardo “Bravo” Marques

Uber Drivers

Hoje não é Sexta de Leão. O post das sextas procura trazer informações interessantes e novidadeiras [e até profundas], com uma pegada casual e um olhar original, mas sempre com um fundo leve de chiste. Meu estado de espírito nesta semana não me permite chistes. Além da solidão do distanciamento social [que já não mais suporto] e do cansaço geral da pandemia, estou tentando entender o que as estatísticas do site estão a me dizer. Embora eu seja honrado pela atenção dos novos amigos e colegas que fiz na grande rede WordPress, vejo que as pessoas do meu entorno e os [sedizentes] amigos não visitam meu site. Como posso conquistar o mundo se não consigo conquistar minha roda de bar ou a grande família?

Imagem: iStock

Eu costumo apoiar entusiasticamente os projetos dos amigos, mas não estou sendo reciprocado. Será que meu conteúdo, produzido com muito esforço, não está a contento? Será que não acreditam em mim e na minha capacidade? Por que não me dão feedback? Será que pensam que este é um projeto de vaidade? Será que não sabem que este site é um componente importante da estrutura de meu ganha-pão? Será que os ofendi de alguma forma? Ou, pior: será que também tiveram o cérebro sequestrado pelas infames redes sociais e se tornaram completamente incapazes de um pouco de concentração para entender textos como os que escrevo?

Confesso que talvez eu não seja bom para interagir em redes [minhas contas no FB e Twitter estão inativas há anos], apesar de administrar dezenas delas [construídas por mim]. Se isso é verdade, temo pelo meu futuro, na crescente e inexorável economia de rede. A reação [ou falta de] dos amigos ao meu trabalho pode ser um sinal precoce da minha obsolescência. Luto para me manter à tona e não ser varrido do mapa pelos ventos da mudança. Tangido pela exasperação, é sobre isso que decidi falar hoje.

Se você está dirigindo para o Uber ou trabalhando no iFood, seu pensamento, alguns anos atrás, seria: viva a gig economy, viva a liberdade, viva a flexibilidade! Isso tudo é muito bom. Acredito que deva existir muita coisa boa nessas novas empresas. Mas por outro lado, o lado humano, nesse ambiente você só tem chance de progredir aritmeticamente, como um operário de fábrica na Inglaterra da década de 1850. Você tem tempo flexível, mas sem propriedade, sem benefícios, sem aprendizagem, sem comunidade, sem potencial de crescimento geométrico e sempre sujeito às mudanças que eles fazem no centro da rede, aos ajustes que fazem no algoritmo e nas regras do jogo .

Se você ficar temporariamente incapacitado, em tratamento médico, ou atendendo sua família em algum percalço, a rede não precisa de você – o elemento na periferia do sistema. Você será imediatamente substituído por outro par de mãos. Você trabalha avulso, pela remuneração mínima, não construindo nada além de sua classificação no sistema deles, sem acumular vantagens, não importa o quanto você trabalhe. Seu milésimo dia no trabalho será igual ao primeiro.

Há um conjunto de empregos que tradicionalmente sempre foram província da classe média, como arquitetura ou medicina, mas esses empregos serão cada vez mais desviados para a rede, e o licitante mais barato e mais rápido obterá o contrato – por uma remuneração bem menor do que as pessoas costumavam ganhar pelo mesmo serviço na velha economia. Isso é a hiperglobalização. É a multiplicação por dez do que vimos na década de 1980, quando os EUA perderam a liderança na competição global em várias indústrias importantes da época, como aço e automóveis, e o ‘rust belt’ se formou.

As empresas centrais da economia em rede têm um impacto ainda maior sobre os consumidores [talvez nem mesmo este termo se aplique mais] do que tinham os gigantes de escala do passado, como a Standard Oil e a GM. Isso porque, nos tempos da economia de escala, você podia optar por um produto alternativo, caso não gostasse do produto oferecido.

Mas agora, não temos muita opção fora da rede. Estamos cativos. Não éramos cativos da GM, mas estou cativo, por exemplo, do Google e do Whatsapp [minha fonte particular de desgosto], porque é onde estão todas as pessoas importantes na minha área, meus clientes e potenciais clientes. Eu não posso escapar dessa situação. Estamos presos ao LinkedIn porque é assim que somos vistos pelos empregadores e parceiros com os quais interagimos. E não podemos simplesmente cancelá-los como faríamos tranquilamente com a GM.

Também ao contrário dos funcionários da GM, os motoristas do Uber precisam interagir com a rede do Uber em tempo real. Com a Ford, usei seus produtos por mais de 20 anos. Eles não tinham como me vigiar. Detroit não tinha acesso fácil ao meu nome e perfil financeiro. Mas as novas redes digitais otimizam nosso perfil de custo / benefício minuto a minuto. Eles são partes constantes de nossas vidas, extraindo o que podem de cada nó da rede. Eles sabem quem somos e conhecem nosso contexto familiar e econômico. É por isso que, aqui na extremidade da rede, estamos em desvantagem. A maioria dos nós da rede [si, nosotros!] são periféricos, e dançamos conforme a música dos algoritmos emanados do centro.

Imagem: iStock

Economia de rede

Eis uma mudança importante no mundo: na economia de rede, temos um novo conceito de ‘self’. Uma mudança semelhante ocorreu na revolução industrial, quando passamos do cultivo autossuficiente de nosso próprio solo para estar na linha de produção e ser parte do sistema, trabalhando 16 horas por dia em um tear. A revolução industrial causou uma mudança de consciência. Estamos agora passando por uma nova mudança radical na consciência e na percepção de qual é o nosso lugar no universo.

A economia da rede precisa de um novo contrato social

Um “contrato social” é um acordo geralmente não escrito entre uma sociedade e suas partes componentes, para cooperar em benefício mútuo. É um acordo implícito que a maioria de nós aceita para que possamos “ser livres e procurar a felicidade” dentro de uma comunidade. É a narrativa que anima a nacionalidade; que une uma nação ou um mundo. É o que delimita o que podemos esperar um do outro. São as regras do jogo.

Por exemplo, o contrato social entre o governo e seus cidadãos nos Estados Unidos após a Segunda Guerra Mundial era [para os cidadãos]: formar-se no ensino médio, comprar uma casa, trabalhar 40 anos para uma empresa de grande porte [ou para o governo], se aposentar aos 64 e depois viver tranquilamente na Florida. A responsabilidade do governo era se esforçar para promulgar leis para tornar tudo isso realidade. Esse foi o contrato social original, e todas as outras histórias foram construídas em torno dessa história.

Durante o mesmo período, o contrato social entre empresas de grande porte e seus funcionários era que os funcionários devotassem 40 anos de serviço leal, em troca de estabilidade e uma aposentadoria tranquila.

É claro que essa versão antiga do contrato social já expirou há pelo menos 20 anos. Todos concordam com isso. Mas nem todos concordam sobre como devem ser os novos contratos sociais.

Aqui estão algumas ideias de coisas que serão diferentes agora que vivemos em uma economia em rede. Não é a melhor das utopias, e, talvez, de fato se transforme em uma distopia. Mas estamos aqui a registrar os fatos e não para expressar desejos.

O Novo Contrato da Sociedade com seus Cidadãos

  1. Você renunciará à sua privacidade.

O cidadão abrirá mão da privacidade para que o sistema o reconheça e possa otimizar seus resultados pessoais. É uma barganha [ao meu ver faustiana].

Aqueles que se chocam com a perspectiva de qualquer redução de privacidade [como eu], precisam aceitar que isso já aconteceu e que, quando lhe é dada a oportunidade de compartilhar seus dados para obter benefícios [ainda que mínimos], a grande massa das pessoas alegremente se rende às miçangas e espelhos.

Em troca, a sociedade [talvez] concordará que:

  1. Você terá um emprego (se tiver disposição e capacidade).

No passado, a tragédia era que mesmo os muito dispostos e capazes frequentemente não conseguiam um emprego. Com o advento da internet, se você quiser e puder, agora pode oferecer seu trabalho com custos mínimos: Dirigir Ubers, construir sites, entregar comida, se exibir sexualmente diante de uma câmera, etc. Se você quer mesmo um emprego, pode conseguir seu “emprego” [aspas duplas] na internet.

Infelizmente, a parte difícil desse cenário são as pessoas emocionalmente “divergentes” e introvertidas, mesmo sendo dispostas. Algumas dessas pessoas [de novo, eu] não são emocionalmente ou intelectualmente capazes de lidar com redes. Elas são ansiosas ou deprimidas demais para atuar em um nível alto o suficiente para serem membros valiosos da rede. Alguns são fisicamente incapazes devido a doenças genéticas ou acidentes.

Paralelamente, a transparência e a velocidade da tecnologia de rede tornarão mais difícil a competição no mercado de trabalho. As exigências aumentarão para o quão emocionalmente estável e inteligente você precisa ser para competir. Todos estarão ao sabor da lei de potência [lei de potência: os melhores se dão cada vez melhor e os piores cada vez pior].

As novas tecnologias vão deixar para trás as pessoas sem preparo emocional, automotivação ou inteligência. As mudanças vão privilegiar as pessoas mais extrovertidas e energéticas.

Isso parece assustador; um motivo para um levante social. Então, o que podemos fazer?

O melhor caminho a seguir parece ser “usar soluções da rede para resolver os problemas da rede” – construir sistemas para melhorar as pessoas e mantê-las relevantes para a rede. Mais treinamento, mais apoio, mais empregos de nicho, mais conexão através da rede.

  1. Você terá acesso a treinamento.

Muitos já o fazem. Você pode se auto educar como nunca antes, graças a uma quase infinidade de conteúdo na internet. E há os cursos online. Além disso, IAs de treinamento e conteúdo estarão em toda parte. Muitas interfaces de trabalho já estão se tornando “gameficadas”, capazes de fornecer feedback constante à medida que você aprende um novo trabalho.

  1. Você terá liberdade para escolher seu trabalho e como usará seu tempo.

Já estamos vendo milhões de pessoas escolherem a liberdade do horário flexível em vez de outros benefícios tradicionais, como férias [gasp!].

  1. O governo não impedirá o crescimento da rede.

Os governos são estruturas de pensamento hierárquico. Eles são os dinossauros em extinção e as redes correspondem aos primeiros mamíferos. As redes vão reduzir o poder do estado-nação. Por outro lado, as afiliações e conexões internacionais vão aumentar.

O novo contrato social deve evitar prender as pessoas com muita força. Os cidadãos vão abraçar a economia de rede e tenderão a não se apegar à economia de escala do mundo industrial. Já que as pessoas vão agir assim, os governos vão se adaptar de forma correspondente. A economia de escala não vai desaparecer, mas vai se tornar uma parte menor da vida e da economia, como aconteceu com a agricultura na era industrial.

  1. Você terá a mobilidade como norma de vida.

Morar em uma casa com um gramado aparado e cercas branquíssimas já não é o único sonho americano possível.

Se a história nos diz alguma coisa, os próximos SnapChat, Airbnb e Uber serão criados nos próximos vinte e quatro meses. Embora a próxima startup de um bilhão de dólares [a brasileira Aucky 😉] ainda não tenha adquirido um formato reconhecível, é certo que todas elas funcionarão baseadas no efeito de rede. Se no fim das contas isso vai ser positivo para você ou para mim, deixo como exercício mental [como dizia Einstein, um gedänkenexperiment] para o fim de semana.

Fonte: https://www.nfx.com/post/network-economy/

* * *

Deixo também uma saudação aos amigos que nunca a lerão. E meu agradecimento pelo apoio nunca recebido.

(*)Tentei seguir teu conselho e escrever humanamente, @Tati. Acho que exagerei.

Voto Eletrônico sem Tabus e sem Fetiches

A discussão a respeito da segurança do voto eletrônico no país tem refletido a mesma polarização observada em outros domínios. De um lado, temos o presidente da república defendendo a impressão do voto, para fins de “confirmação de eventuais fraudes”. De outro lado, o pensamento majoritário do establishment defende o sistema atual de voto eletrônico como absolutamente invulnerável a manipulações. Como sói acontecer, ambos os lados da discussão se deixam levar por falácias.

(AP Photo/Eraldo Peres)

De um lado [o do Presidente] temos a fetichização do voto; a ideia de que o objeto-urna ou o objeto-votoimpresso são o alfa e o ômega da eleição. De outro temos os guardiões do tabu da Urna Eletrônica Segura e Santificada, refratários a qualquer consideração prática sobre a natureza da segurança de sistemas eletrônicos digitais e da falibilidade humana. Ambos os lados parecem esquecer, se é que chegam a considerar, que a eleição é um processo, no qual objetos físicos (urnas, canetas, pedaços de papel) são pequenos componentes de uma intrincada estrutura. Nenhuma ação isolada em determinada parte componente do sistema vai resultar em solução de qualquer problema.

O que é pior, sinto que a mera discussão do [falso] problema do voto eletrônico x voto impresso está se tornado área proibida. Noto que se quer criar uma atmosfera de repressão à discussão, a qual não posso coonestar. Até mesmo altas instâncias da república se movimentam no sentido de criminalizar a investigação do tema.

Apresento hoje a primeira manifestação do que espero venha a ser uma série de posts visando ampliar o debate sobre esta questão de interesse existencial para o Brasil – que em minha opinião está muito longe de terminar. Na verdade nunca houve debate técnico aberto sobre este tema na sociedade. É preciso envolver as pessoas no debate qualificado [a blogosfera me parece um ambiente mais adequado do que as redes sociais]. Não me furtarei a comentar sobre o assunto quando assim me aprouver, como me é garantido pela Carta Magna [embora, nessas horas, devo admitir que um domínio e um site hospedado no exterior – em uma democracia ainda sólida – fazem a diferença].

De Hashes para Hashes

A necessidade de verificação e supervisão do software dos fabricantes de máquinas de votação tornou-se urgente em 2003, quando a Diebold Election Systems foi descoberta instalando software não certificado em máquinas de quatro municípios da Califórnia, o que levou a empresa a ser acusada de mentir para as autoridades municipais e estaduais sobre o problema.

Desde 2005, as diretrizes do sistema de votação federal americano exigem que os fabricantes de urnas eletrônicas forneçam também às autoridades eleitorais um método confiável para verificar a) se as versões corretas do sistema operacional estão instaladas em suas urnas; b) se o software não foi alterado desde a instalação e c) se não há software não-autorizado rodando no sistema [nada além do sistema operacional deve rodar].

“Se o processo de validação de hash tiver que ser realizado pelo mesmo técnico do fabricante do software”, escreveu o secretário de estado na época, “então o processo de validação perde um de seus principais objetivos, que é garantir que o fabricante seja honesto e cumpra os requisitos de certificação impostos pelo estado”.

Para fazer essa verificação, a Electoral Assistance Commission [EAC – Comissão de Assistência Eleitoral] federal e os laboratórios de teste do sistema de votação, que examinam e certificam o software e hardware de votação, criam um hash “confiável” de cada programa de software eleitoral certificado para uso nas eleições nos EUA. Para os não técnicos, o hash é uma cifra criada – a partir do conteúdo do arquivo – por uma função matemática que não permite reversão [a operação inversa]. Entretanto, um mesmo documento [ou programa de computador] gera o mesmo hash. Isso permite comparar dois documentos [ou dois programas]. Esse hash é então usado como a assinatura do documento ou do programa. Um hash é geralmente do tipo:

127e6fbfe24a750e72930c220a8e138275656b8e5d8f48a98c3c92df2caba935

Um mesmo documento, uma mesma assinatura. Assim, quando as autoridades eleitorais recebem um novo software eleitoral [ou atualizações de software existente] para instalar em suas máquinas, eles geram o hash desse software e usam a ferramenta de verificação do fornecedor para comparar esse hash com o hash EAC “confiável” guardado nos arquivos seguros do Sistema Eleitoral.

As jurisdições variam na forma como conduzem as verificações de hash.

Estudo de um caso

O caso enfocado aqui aconteceu em 2020 e dá uma mostra da formidável complexidade do voto eletrônico, complexidade essa que não se deixa capturar por formulações simplistas e voluntarismos inócuos de ambos os lados da polarização política brasileira.

Em setembro de 2020, poucas semanas antes dos eleitores irem às urnas em uma das eleições presidenciais mais críticas e contenciosas do país, as autoridades estaduais no Texas souberam de um problema preocupante com o software eleitoral amplamente usado em seu estado e no país: Brian Mechler, um cientista de computação dos Laboratórios de Pesquisa Aplicada da Universidade do Texas em Austin, descobriu enquanto testava o software da Election Systems & Software {ES&S} no ano passado, que a ferramenta de verificação de hash da empresa nem sempre funcionava corretamente.

O componente não estava envolvido na tabulação de votos; em vez disso, se tratava-se de uma ferramenta de diagnóstico fornecida pela ES&S para auxiliar os técnicos a verificar se o software de votação instalado no equipamento eleitoral era exatamente a versão do software certificada pelo laboratório federal e que o sistema não tinha sido alterado pelo fabricante ou qualquer outra pessoa desde a data da certificação.

Com o software ES&S no Texas foi seguido o seguinte protocolo para detecção de falhas:

  • O software extraído do equipamento eleitoral é carregado em uma unidade USB.
  • O hash EAC confiável é carregado em uma segunda unidade USB, junto com três scripts: um para fazer o hash do software extraído do equipamento de eleição; um que compara os hashes desse software ao hash EAC; e um terceiro script que relata os resultados dessa verificação de hash.
  • As unidades USB são inseridas em um sistema autônomo que não é usado para eleições, onde a verificação de hash é conduzida.
  • O script que verifica os hashes é um aplicativo de código aberto chamado “diff”; o script que relata os resultados é um item separado do pacote do software, e de autoria da ES&S.

No fim do processo de inspeção, Mechler encontrou o problema no script de relatório, que indicava hashes iguais mesmo quando não havia dois hashes sendo comparados. Isso foi descoberto por acidente quando Mechler um dia se esqueceu de carregar no sistema o hash EAC confiável que fazia a verificação de hash.

No relatório que escreveu para o gabinete do secretário de estado, Mechler criticou a ES&S por produzir um roteiro de verificação mal escrito [uma falha, portanto, de processo].

O script deveria ter executado verificações explícitas sobre a existência dos dois arquivos que estão sendo comparados, devendo falhar ruidosamente caso um deles não exista. Este bug indica que a ES&S não desenvolveu seu processo de verificação de hash com […] qualidade suficiente

Mas não foi apenas a ES&S que falhou em verificar a precisão do script. Os fornecedores são obrigados a incluir o método ou ferramenta de verificação no pacote de seu software de votação. Mas não há indicação de que os laboratórios concretamente verificam se os métodos e ferramentas de verificação do software fornecidas pelo fabricante funcionam; eles simplesmente verificam se o fornecedor enviou a ferramenta.

O Government Accountability Office [GAO – Escritório de Auditoria do Governo] reconheceu esse problema há mais de uma década em um relatório publicado em 2008. O GAO aconselhou o EAC a criar um repositório certificado de software de urnas eletrônicas, estabelecer procedimentos para conduzir verificações de hash desse software e criar um protocolo para testar as ferramentas de verificação de hash do fornecedor e certificar-se de que funcionam.

Quatro anos depois, no entanto, o GAO observou que o EAC havia ignorado seus conselhos e não tinha planos de desenvolver padrões para ferramentas de verificação de hash ou um protocolo de teste para verificar se funcionavam corretamente. Isso significava, escreveu o GAO, que as jurisdições estaduais e locais não teriam “os meios para verificar de forma efetiva e eficiente se os sistemas de votação usados ​​nas eleições federais estão usando o mesmo software que os certificados pela EAC”.

A falha relatada aqui refere-se a apenas um dos componentes do software [a aplicação que gera o relatório do sistema]. Mas veja que em qualquer dessas fases uma vulnerabilidade pode estar à espreita; nas pessoas, nos dispositivos, nos procedimentos, etc. Eu poderia passar dias [ou meses] postando sobre problemas semelhantes. Eu poderia até mesmo citar as suspeitas que eu mesmo tive sobre as urnas eletrônicas, vividas pessoalmente na jornada eleitoral de 2000. Mas deixo para depois. Fico com a análise fria dos fatos.

De fato, estou começando a pesquisa para uma revisão sistemática dos artigos acadêmicos que apontam problemas nos sistema de votação eletrônicos – que espero publicar aqui quando as circunstâncias permitirem. Já no início do trabalho noto que, ao contrário do Brasil, artigos críticos ao voto eletrônico pululam na Internet anglosférica, notadamente nos EUA. Essa revisão poderá ser o primeiro post da discussão que pretendo encetar na medida em que o ciclo eleitoral de 2022 evolui.


Fonte consultada e citada: https://zetter.substack.com/p/votings-hash-problem-when-the-system

O Que Torna uma Senha Forte

É obrigatório pela política das empresas. É uma boa prática recomendada por todos. E não é novidade para praticamente nenhum de nós: as senhas devem ser longas, variadas no uso de caracteres (maiúsculas, minúsculas, números, caracteres especiais) e não baseadas em palavras de dicionário. Bastante simples, certo? Mas deixe-me ir um pouco além e fazer uma pergunta não tão simples:

O que é mais forte, uma senha aleatória de 8 caracteres que potencialmente usa todo o conjunto de caracteres ASCII (maiúsculas, minúsculas, números, caracteres especiais (incluindo um espaço)) ou uma senha aleatória de 10 caracteres que usa apenas letras maiúsculas e minúsculas?

Desconsidere por um momento qualquer situação particular; essa não é a questão.

Como fazer uma comparação exata entre as duas senhas? Elas diferem de muitas maneiras. Na literatura especializada, um argumento afirma que uma senha mais longa, mesmo usando um conjunto de caracteres menor, é mais forte. Outro argumento pode afirmar que uma senha mais curta tem potencial de ser mais forte quando extraída de uma lista maior de caracteres potenciais. Um argumento é pela extensão, o outro é pela complexidade. Então, qual é o mais resistente a um ataque?

Esta questão se aplica diretamente a discussões de políticas dentro de uma organização. Como podemos avaliar a solidez de qualquer política de senhas proposta? Seus requisitos de política são arbitrários ou baseados em algum tipo de medida quantitativa? É simples dizer, “torne as senhas suficientemente longas, complexas e não baseadas em palavras do dicionário”, mas seria possivel quantificar o que é “suficiente” para uma determinada situação? Os cenários variam. Todos nós temos necessidades diferentes e os vários sistemas têm vários níveis de suporte de senha. Ainda cabem outras perguntas: existe um ponto de diminuição dos retornos sobre a complexidade da senha? Em que ponto elas se tornam tão longas e complexas que se tornam praticamente inutilizáveis? Existe uma resposta.

A resposta (ou parte dela, pelo menos) a essas perguntas está na quantidade de entropia informacional que a senha carrega. Volumes e mais volumes de discussão já foram impressos sobre os conceitos de entropia de informação e seus usos na comunicação, mas para nossos propósitos vamos apenas dizer que, no final, o conceito de entropia de senha nos fornece uma maneira de comparar empiricamente a força potencial de uma senha com base em seu comprimento e no universo de caracteres que ela pode conter. Para explicar o porquê, deixe-me começar com uma demonstração simples.

Selecione aleatoriamente uma letra de A – Z.

Agora vou tentar adivinhar. Quantas suposições você acha que vou precisar? Eu poderia adivinhar em apenas uma tentativa? Sim. Mas também posso precisar de 25 palpites, certo? Se eu simplesmente começasse a adivinhar aleatoriamente, meu sucesso também seria aleatório. Mas se eu aplicar os conceitos básicos da teoria da informação para a execução da tarefa, algo muito interessante acontece. Não importa qual letra você selecione, sempre precisarei de apenas quatro (4), e nunca mais do que cinco (5) perguntas para adivinhar sua letra. Em contraste, se eu fosse adivinhar ao acaso, precisaria, em média, de 13 tentativas para adivinhar sua letra. Mas quando conceitos de entropia de informação são aplicados, o número de perguntas / suposições cai para consistentes 4 ou 5. O motivo é bastante simples: eu não “adivinho” as letras; eu as elimino. Suponhamos que a letra que você selecionou seja “D”. Aqui está como minha cadeia de questionamento (o algoritmo) se comporta:

Pergunta 1: sua letra está entre N e Z? Resposta: Não.
    Se sim, sua letra está entre N-Z.
    Se não, sua letra é entre A-M.

Pergunta 2: sua letra está entre A e G? Resposta: sim.
    Se sim, sua letra é entre A-G.
    Se não, sua letra é entre H-M.

Pergunta 3: sua letra está entre A-D? Resposta: sim.
    Se sim, sua letra é entre A-D.
    Se não, sua letra é entre E-G.

Pergunta 4: sua letra está entre A-B? Resposta: Não.
    Se sim, sua letra é entre A-B.
    Se não, sua letra é entre C-D.

Pergunta 5: A sua letra é C? Resposta: Não.
    Se sim, sua letra é C.
    Se não, sua letra é D.

Resultado: sua letra é D. Estimativas: 5

Vamos fazer de novo. Desta vez, vamos supor que você escolheu aleatoriamente a letra “H”.

Pergunta 1: sua letra está entre N e Z? Resposta: Não.
    Se sim, sua letra está entre N-Z.
    Se não, sua letra é entre A-M.

Pergunta 2: sua letra está entre A e G? Resposta: Não.
    Se sim, sua letra é entre A-G.
    Se não, sua letra é entre H-M.

Pergunta 3: sua letra está entre H-I? Resposta: sim.
    Se sim, sua letra é entre H-I.
    Se não, sua letra é entre J-K.

Pergunta 4: A sua letra é H? Resposta: sim.
    Se sim, sua letra é H.
    Se não, sua letra é entre I-J.

Resultado: sua letra é H. Estimativas: 4

A imagem abaixo mostra a árvore de decisão usada. Cada ‘x’ laranja é uma pergunta. As letras destacadas em verde serão identificados em 4 questões e as letras destacadas em amarelo serão identificadas em 5. A árvore de decisão na imagem mostra apenas a metade esquerda do alfabeto (A-M). Você pode replicar o lado direito do alfabeto (N-Z) em uma árvore semelhante. Se você examinar o número de questões para todas as 26 letras do alfabeto, verá que seis (6) das letras podem ser identificadas em quatro (4) questões, enquanto as vinte (20) letras restantes serão identificadas em cinco (5) questões.

Árvore de decisão do problema

Então, se fôssemos jogar esse jogo de adivinhação indefinidamente, quantas perguntas, em média, eu precisaria para adivinhar a letra escolhida?

Para calcular o número médio de perguntas que terei que fazer para determinar sua letra, tenho que saber qual será a probabilidade de uma letra ser selecionada. Para este exemplo, estou supondo que cada uma das 26 letras do alfabeto tem uma chance estatisticamente igual de ser selecionada (mais sobre as nuances dessa suposição posteriormente). Um cálculo rápido mostra que 1/26 = 0,0384. Convertendo isso em porcentagem saberemos que cada letra tem 3,84% de chance de ser a letra selecionada aleatoriamente.

Como aqui não fugimos da matemática e valentemente a enfrentamos, há uma equação para essa pergunta. Vejamos:

Esta equação calcula H, que é o símbolo usado para entropia. Para o nosso alfabeto, a equação ficaria assim:

H = – [(0,038log2 • 0,038) + (0,038log2 • 0,038) + (0,038log2 • 0,038) + (0,038log2 • 0,038) +
(0,038log2 • 0,038) + (0,038log2 • 0,038) + (0,038log2 • 0,038) + (0,038log2 • 0,038) + (0,038log2 • 0,038) +
(0,038log2 • 0,038) + (0,038log2 • 0,038) + (0,038log2 • 0,038) + (0,038log2 • 0,038) + (0,038log2 • 0,038) +
(0,038log2 • 0,038) + (0,038log2 • 0,038) + (0,038log2 • 0,038) + (0,038log2 • 0,038) + (0,038log2 • 0,038) +
(0,038log2 • 0,038) + (0,038log2 • 0,038) + (0,038log2 • 0,038) + (0,038log2 • 0,038) + (0,038log2 • 0,038) +
(0,038log2 • 0,038) + (0,038log2 • 0,038)] = 4,7004

E agora temos a resposta: terei que fazer uma MÉDIA de 4.7004 perguntas para determinar a letra selecionada aleatoriamente no alfabeto.

Mais formalmente, diríamos que existem 4.7004 ‘bits de entropia’.

Se você aplicar esta matemática a um único caractere selecionado aleatoriamente a partir dos diferentes conjuntos de caracteres que existem, você obterá o seguinte:

Binário (0, 1) -> H = 1 (1 bit de entropia)
Terei que fazer uma pergunta para determinar se o valor selecionado aleatoriamente é 1 ou 0.

Decimal (0-9) -> H = 3,32193 (3,2193 bits de entropia)
    Terei que fazer uma média de 3,32193 perguntas para determinar o número selecionado aleatoriamente (0-9).

Hexadecimal (0-9, A-F) -> H = 4.000
    Terei que fazer quatro (4) perguntas para determinar seu valor (a-f, 0-9)

Alfabeto maiúsculo e minúsculo (a-z, A-Z) -> H = 5,7004
    Terei que fazer uma média de 5.7004 perguntas para determinar sua letra selecionada aleatoriamente (a-z, A-Z).

Todos os caracteres ASCII imprimíveis (incluindo espaço) -> H = 6,5699
    Terei que fazer uma média de 6.5699 perguntas para determinar seu valor selecionado aleatoriamente.

Vamos desenvolver isso um pouco mais. Os números acima são para uma ÚNICA letra selecionada aleatoriamente. E se eu pedisse para você escolher duas (2) letras aleatoriamente? Agora, adivinhando uma letra de cada vez, quantas tentativas, em média, eu precisaria para descobrir as duas? A resposta é aditiva, o que significa que você só precisa adicionar a entropia para cada letra. Se a entropia de uma única letra minúscula é 4,7004, a entropia de duas letras selecionadas aleatoriamente é 4,7004 + 4,7004. Isso é 9.4008 perguntas para determinar as duas letras (assumindo a-z, como em nosso exemplo original). Se eu pedisse a você para selecionar uma seqüência de dez (10) caracteres aleatórios, seria necessária uma média de 47,004 perguntas (4,7004 * 10) para adivinhar todos eles.

Tudo bom, tudo bem, mas isso presume que sou capaz de adivinhar apenas um valor de cada vez. Se você escolhesse aleatoriamente 10 letras do alfabeto, eu poderia adivinhar a primeira em cerca de 4,7 tentativas, a segunda em 4,7 tentativas, a terceira em 4,7 tentativas e assim por diante. Mas no mundo real, não é assim que se adivinha senhas (um caractere por vez). Um invasor terá que adivinhar corretamente todos os dez valores de uma só vez para determinar as letras selecionadas aleatoriamente. Isso é, obviamente, uma coisa muito mais difícil de fazer. Mas quão difícil? Para descobrir, vamos voltar à pergunta original que fiz:

O que é mais forte, uma senha aleatória de 8 caracteres que potencialmente usa todo o conjunto de caracteres ASCII (maiúsculas, minúsculas, números, caracteres especiais ( incluindo um espaço)) ou uma senha aleatória de 10 caracteres que usa apenas letras maiúsculas e minúsculas?

Bem, se seu conjunto de caracteres tiver 26 letras minúsculas (az), 26 caracteres maiúsculos (AZ), e sua senha tiver 10 caracteres, haverá 5210 combinações possíveis de letras (26 caracteres (az) + 26 caracteres ( AZ) = 52 caracteres). Esse é um número grande. 144.555.105.949, 057.000 (144,5 quatrilhões), para ser exato ..

Então, para resumir esses valores:

Número de caracteres no conjunto de caracteres (a-z, A-Z): 52
Número de caracteres na senha: 10
Número total de combinações possíveis de sequências de 10 caracteres: = 52^10 = 144.555.105.949.057.000

É aqui que a magia entra em ação:

Qual é a entropia de um único caractere no conjunto completo de caracteres alfa (a-z, A-Z)? Já determinamos que é 5.7004.

Qual é o tamanho da sequência de caracteres selecionada aleatoriamente? 10 caracteres.

Qual é a entropia de uma string de 10 caracteres usando o conjunto de caracteres alfa maiúsculos / minúsculos? 5,7004 * 10 = 57,004

O que é 257,004 ? São 144.555.105.949.057.000 !!! Caramba!!! É o mesmo número que 5210 !!!

Sua string de 10 caracteres, maiúsculas / minúsculas (senha) tem 57,004 bits de entropia. Supondo que um invasor acertaria a string em 50% de todas as suposições possíveis, estimamos que ele / ela terá que fazer 72.277.552.974.528.300 suposições (sim, em média) antes de adivinhar sua string de 10 caracteres.

Para dizer isso de forma mais significativa: Uma senha de 10 caracteres maiúsculos / minúsculos tem 57,004 bits de entropia.

Então, quantos bits de entropia nossa senha concorrente tem? É uma senha de 8 caracteres que utiliza o conjunto completo de caracteres ASCII (incluindo um espaço). Se você voltar ao meio desta postagem, verá que um caractere selecionado aleatoriamente do conjunto completo de caracteres ASCII tem 6,5699 bits de entropia. Isso significa que uma senha de 8 caracteres selecionada aleatoriamente nesse intervalo terá 52.559 (8 * 6.5699) bits de entropia.

Para resumir os valores das senhas de 8 caracteres:

Número de caracteres no conjunto de caracteres (a-z, A-Z, 0-9, todos os caracteres especiais, incluindo espaço): 95
Número de caracteres na senha: 8
Número total de combinações possíveis de sequências de 8 caracteres: = 958 = 6.634.204.312.890.620 (6,63 quatrilhões)

E vemos que a magia é real:

Qual é a entropia de um único caractere no conjunto de caracteres ASCII completo (incluindo espaço)? Já determinamos que é 6,5699.

Qual é o tamanho da sequência de caracteres selecionada aleatoriamente? 8 caracteres.

Qual é a entropia de uma string de 8 caracteres usando o conjunto de caracteres alfa maiúsculos e minúsculos? 6,5699 * 8 = 52,559

O que é 252.559? É 6.634.204.312.890.620 !!! Caramba, de novo !!! É o mesmo número que 958 !!!

Nossa senha de 10 caracteres em maiúsculas / minúsculas tem 57,004 bits de entropia.
Nossa senha de conjunto de caracteres ASCII completa de 8 caracteres tem 52.559 bits de entropia.

Quanto mais bits de entropia uma senha possui, mais forte ela é. E, isso é importante, pois um único bit de entropia representa um aumento EXPONENCIAL na resistencia da senha. Há uma grande diferença entre a força de nossas duas senhas (4,445 ordens de magnitude); isso não é trivial. É algo enorme.

Então, por que usar a entropia como a expressão da força (resistência) da senha? Os gurus da teoria da informação podem certamente dar palestras por dias sobre essas questões, mas há uma resposta simples: os humanos são realmente péssimos para lidar com grandes números. Basta ver como lembramos números de telefone, endereços IP, números de cartão de crédito e números de CPF para evidenciar nossa repulsa por grandes números. Se houver uma maneira de simplificar a expressão de um valor, sempre optaremos por ela. Afinal, o que é mais fácil de dizer e entender ?:

Minha senha tem 5210 possibilidades vs 958 possibilidades.
ou;
Minha senha tem 57,004 bits de entropia vs 52,559 bits de entropia.

Com certeza você achará esta última forma mais agradável.

Quanto maior o número de bits de entropia de uma senha, mais forte ela tem o potencial de ser. Eu uso a palavra “potencial” aqui porque há muitas nuances nessa discussão que podem tornar esses números um reflexo impreciso da força da senha. A principal delas é o fato de que a maioria das senhas são geradas por humanos, não por geradores de números aleatórios. Os humanos são muito, muito ruins em gerar aleatoriedade. Somos terrivelmente péssimos nisso. Isso significa que a equação usada acima, que assume que cada caracter tem uma probabilidade igual de ser selecionado, não é tão precisa quando é uma pessoa que está escolhendo as letras. Quando invasores, com auxilio do poder de computação, começam a fazer suposições realmente boas sobre como as senhas estão sendo criadas (permitindo que eles excluam certos valores, por exemplo), a entropia pode cair muito rapidamente. Isso é não é bom.

É frequente acontecer que um dos sistemas de uma organização pode suportar o uso do conjunto de caracteres ASCII completo ao definir senhas, enquanto outro pode suportar apenas senhas alfanuméricas. Quantos bits de entropia uma senha deve ter para ser adequadamente segura? Quão longa uma senha alfanumérica deve ser para ser tão forte quanto uma senha que usa o conjunto completo de caracteres? Essas são perguntas muito importantes, especialmente quando se trata de uma política corporativa de senhas. Especificar o comprimento da senha pode ser uma medida inadequada de resistencia; especificar requisitos de entropia de senha tem o potencial de ser uma expressão muito mais consistente dos requisitos de segurança. Não tenho uma citação aqui, mas muitas organizações gostam de ter 80 bits de entropia ou mais. Nos dias de hoje, isso é muita entropia. Cheque novamente em alguns anos e certamente veremos que essa declaração se tornou falsa (pela Lei de Moore).

Uma observação final: há muitas variáveis ​​que devem ser discutidas ao explorar o assunto “senhas”. Complexidade, comprimento e entropia são todos ótimos itens para se entender, mas outros fatores podem ser tão importantes quanto. Por exemplo, quais mecanismos subjacentes suas senhas empregam? Qual algoritmo de hash? As senhas são “salgadas”? Há algum tipo de mecanismo de compatibilidade com versões anteriores habilitado (NTLM, etc.)? Essas coisas influenciam a discussão tanto quanto a entropia e podem ter um grande impacto em quanto esforço um invasor terá de fazer para adivinhar a senha. É um grande tópico, digno de muita reflexão e reflexão cuidadosa. A entropia é um ótimo lugar para começar… mas não é a única coisa a se considerar.

Sexta de Leão: Guarde Suas Taras para Você

Alguns usuários ficaram surpresos [alguns negativamente] com a série Sexta de Leão, um espaço livre que tem enfocado em suas últimas edições temas comportamentais em geral e o sexo em particular. Não deveria ser surpresa uma vez que os comentaristas são quase unânimes em apontar que as tecnologias de informação, a Internet em geral, e as mídias sociais em particular [que são o assunto primário deste site], desempenham um papel fundamental na ampliação das tendências econômicas, políticas e culturais em todo o mundo.

Apresento hoje a visão instigante e original de Mary Harrington, na revista online inglesa UnHerd, sobre as mudanças nos mores sexuais e seus impactos nas relações humanas.

Quero ter a liberdade de enfocar os temas que me interessam e explorar todas as possibilidades de comunicação com meus leitores. Não vamos focar em sexualidade eternamente, como também não vamos nos restringir a áridas arengas sobre o último lançamento em hardware. Outros temas já estão rascunhados para desenvolvimento. Quero fazer um blog universalista, que embora tenha um pé firme na tecnologia, nunca perca contato com nossa dimensão humana. Saudações a todos(as). B.M.


Imagem: UnHerd [Getty Images]

Por trás da pressão social para adicionar tempero à vida sexual, esconde-se uma palavra [composta] especialmente feia: “ciseteronormatividade“. Grosso modo, ela pretende significar que a expressão sexual humana é restringida por normas patriarcais opressivas, incluindo a heterossexualidade (e ser “baunilha”). Devemos então descartar essa opressão, prossegue o argumento, e aceitar que o alcance da expressão sexual e de gênero humanos é infinito, e que as sexualidades ‘queer’ sempre existiram.

Os contos da antiguidade clássica sustentam a ideia de que os gostos não convencionais têm uma longa história. De acordo com Suetônio, o imperador romano Nero (37-68AD) gostava de vestir-se com peles de animais e dilacerar os genitais de escravos amarrados. E o imperador Heliogábalo (204-222AD), conforme a Historia Augusta, tentou (entre muitas outras coisas) a auto-castração, gostava de se apresentar em shows de sexo ao vivo durante banquetes e escandalizou a sociedade romana ao estuprar uma Virgem Vestal.

Em vez de nos auto-reprimir, os teóricos argumentam que devemos celebrar o arco-íris completo da expressão erótica. Com esse espírito, uma recente pesquisa queer elevou Heliogábalo, de sua descrição clássica como um maníaco depravado – que nomeava ministros com base no tamanho do pênis – a um ícone transgênero.

Mas o debate não se refere apenas ao modo como lemos a história antiga. Ele também convida a questionamentos sobre os limites que hoje estabelecemos para a sexualidade. É necessário mesmo haver tabus? Na semana passada, Lauren Rowello argumentou que esses limites não são nem de longe liberais o suficiente. Não apenas os fetiches sexuais deveriam ser exibidos abertamente nas paradas do Orgulho, ela afirma, como também é importante que seus filhos os presenciem – porque as crianças devem ser ensinadas que “que todas as experiências alternativas de sexualidade e expressão são válidas”.

Normalizar a exibição pública de tendências pervertidas, argumentou ela, incentiva as crianças a perseguir seu próprio desejo e prazer: “Não falamos com nossos filhos o suficiente sobre buscar o sexo para satisfazer as necessidades carnais que nos encantam e cativam”.

A alternativa sombria para isso seria a antiquada “política da respeitabilidade” que costumava ser usada para oprimir homossesexuais. Essa visão é talvez melhor resumida pela atriz eduardiana Lady Patrick Campbell: “Realmente não importa o que essa gente faz – contanto que não façam isso nas ruas e assustem os cavalos!” Mas Rowello argumenta que o fato de os gays agora exigirem do resto das pessoas essa mesma “respeitabilidade” às ​​pessoas pervertidas significa que eles se aliaram [ao seu modo] às forças opressivas e burguesas da velha e enfadonha heteronormatividade.

Tendo Heliogábalo conseguido ultrapassar ou não os limites da opressão burguesa, a visão de Rowello das “necessidades carnais” como um fim em si mesmas data do início do Iluminismo. Notavelmente, devemos essas ideias ao Marquês de Sade (1740-1814), um igualitário [movimento precursor do anarquismo/comunismo], anticristão e defensor da liberdade absoluta, que serviu sob o regime revolucionário como “Cidadão Sade”. Sua prolífica obra literária entrelaça ataques ao Cristianismo e à moralidade convencional com reflexões filosóficas sobre a natureza da liberdade e descrições gráficas de sexo excêntrico.

Em outras palavras, ele era, de fato, um tipo muito moderno de liberal. Não é nenhuma surpresa encontrá-lo entre os primeiros defensores da liberação sexual. Como afirma um de seus personagens em Juliette (1797) “O sexo é tão importante quanto comer ou beber e devemos permitir que um apetite seja satisfeito com tão pouca restrição ou falsa modéstia quanto o outro”. Essa visão não fica muito distante da proposta de Rowello de “buscar o sexo para satisfazer as necessidades carnais que nos encantam e cativam”.

Mas de Sade também achava que as regras usuais de igualdade política, que ele abraçou com tanto entusiasmo como Cidadão Sade, não se aplicavam à sexualidade. Em Filosofia na Alcova (1795), ele escreveu que “todo homem quer ser um tirano quando fornica”. Ou seja, enterrado profundamente em cada cidadão livre e liberal está o desejo de dominar e ser obedecido, e essas pulsões são mais livremente expressas em um contexto sexual.

De Sade achava que a melhor maneira de conciliar liberdade e igualdade com esses instintos sexuais naturalmente violentos e dominadores era ter uma classe de mulheres cujo trabalho seria atuar como ‘aliviadoras’. Como observa o historiador Peter Marshall, ele defendia o estabelecimento de bordéis públicos gratuitos onde os homens pudessem saciar seus desejos sexuais e anseios de dominar – porque, em sua opinião, não satisfazer esses desejos resultaria em atos criminosos.

Hoje, é claro, não fazemos nada tão rude quanto obrigar as mulheres a agirem como unidades descartáveis para os desejos mais básicos dos homens. Ou, pelo menos, insistimos no ‘consentimento’. Ou seja, garantindo que a violência, o estupro e a humilhação ficcionais só aconteçam no mundo real com mulheres que gostam. A expressão para os praticantes do ‘BDSM’ é ‘seguro, sadio e consensual’.

Ouso dizer que há pessoas para as quais essa teoria faz sentido. Mas evidências estão se acumulando de que isso se sujeita às mesmas armadilhas que os muitos outros esforços que visam substituir as regras normativas pela escolha individual. Ou seja, a ideia pode funcionar se você for um adulto com alto nível de educação, bem ajustado e com muito capital social. Mas deixa aqueles que são impulsivos, emocionalmente carentes ou vulneráveis ​​em risco de abuso.

Uma pesquisa realizada no ano passado pela BBC Escócia relatou que dois terços dos homens com menos de 40 anos admitem que já bateram, cuspiram, amordaçaram ou sufocaram uma parceira durante o sexo. Talvez algumas mulheres tenham gostado, mas será que todas elas? Eu duvido. Talvez sem surpresa, um coro crescente (principalmente de mulheres jovens) têm reclamando que, para elas, “kink” acabou sendo menos uma troca mutuamente prazerosa do que um vetor de abuso.

A questão do “consentimento” é ainda mais complicada pelo fato de que normalizar “experiências alternativas de sexualidade e expressão” cria uma pressão social perversa para não ser “baunilha”. Até a revista Women’s Health sugeriu que suas leitoras experimentem a prática do enforcamento, no caso de as vendas nos olhos e as conversas picantes “se transformarem em baunilha”.

E aqui chegamos à dificuldade central em tentar libertar a expressão sexual humana das normas sociais: isso não funciona. O fato de que agora é constrangedor ter gostos “baunilha” sugere que normalizar o “kink” acabou não criando um espaço aberto para a auto-expressão livre e tolerante, mas uma inversão surreal da “política da respeitabilidade”, em que você fica envergonhado por não ser depravado o suficiente.

Pior ainda, essa respeitabilidade de ponta-cabeça não é nem mesmo o prometido nirvana do prazer. De Sade resumiu o problema em 120 Dias de Sodoma (1785): “Se é o elemento sujo que dá prazer ao ato de luxúria, então quanto mais sujo ele é, mais prazeroso deve ser.” Então, o que acontece quando as tendências “sujas” são tão normalizadas que as pessoas ficam ok com seus filhos vendo-as no ato sexual?

O resultado mais provável [da saturação erótica] é que, no geral, as pessoas em um certo momento vão parar de se sentir “safadinhas” [e se autonormalizar]. Isso ajuda a explicar a aura de descolamento da realidade que envolve o tipo de pessoa que gosta de ser “aberta” sobre seu “estilo de vida BDSM”. Mas também aponta para um problema estrutural com a ideia de normalizar o “kink”: é (como alguém disse uma vez do Brexit) menos um evento do que um processo.

Os oponentes da ciseteronormatividade argumentam que o objetivo final do Orgulho é ampliar o que é aceitável no mainstream, o que por sua vez significa rejeitar a “política da respeitabilidade”. Como Vox [magazine] coloca: “Queerness, em sua essência, é uma rejeição dessa respeitabilidade.”

Mas se você rejeita a política da respeitabilidade, você está rejeitando toda a estrutura de estigma social que confere frisson às práticas proibidas. Qual é, então, o sentido de tais práticas, quando a campanha para desestigmatizá-las tornou cenários antes sombrios e emocionantes tão exóticos e proibidos quanto uma ida ao Wal-Mart?

Podemos ter abraçado a ideia de que “vale tudo”, desde que seja seguro, sadio e consensual. Mas se a excitação do sexo está precisamente em sua proibição, então, mais cedo ou mais tarde, alguém virá atacar o tabu do consentimento em si – e especialmente violar o consentimento daqueles que não são considerados capazes de consentir em primeiro lugar: as crianças e animais.

Um constante toc-toc-toc nessa porta pode ser ouvido. Quando Tom Chivers recentemente refletiu aqui nestas páginas sobre por que temos nojo de pessoas que fazem sexo com animais, a confusão que se seguiu ilustra até que ponto esse assunto continua, felizmente, uma área proibida; embora no início deste ano Joanna Bourke tenha escrito um livro inteiro buscando questionar os tabus em torno da bestialidade.

Pelo mundo afora, a internet está cheia de gente esquisita que procura “complicar” os limites do consentimento sexual de menores. Isso também se estende à academia: Allyn Walker publicou recentemente um estudo simpático aos pedófilos não agressores.

Em outras palavras, a “ladeira escorregadia” dos costumes [a tendência da anormalidade gerar mais anormalidade] não é um bicho-papão criado pelos conservadores: é uma inevitabilidade estrutural. Fetiches sem “política de respeitabilidade” não têm um ponto final; ou melhor, seu ponto final está muito além da tolerância até mesmo de quem pratica chicotes e correntes como hobby.

A história sugere que não é realista imaginar que a depravação sexual possa algum dia ser eliminada. Os humanos são simplesmente perversos demais. Mas se não quisermos perseguir o ápice da transgressão sexual adentrando ainda mais no terreno do abuso sexual [e talvez desencadear uma reação puritana tão monumental que varrerá até ganhos moderados na tolerância sexual, como a aceitação de casais normais de gays e lésbicas], precisamos recuperar a ‘política da respeitabilidade’. Todos os lados ganham com isso. Afinal, é do interesse de quem gosta da transgressão restaurar a emoção do proibido. Isso significa, com efeito, uma defesa [com segundas intenções] da hipocrisia burguesa.

Aqueles que são inevitavelmente atraídos para o lado negro, de qualquer forma encontrarão o seu caminho até lá, no devido tempo. E aqueles que de outra forma não seriam sujeitos a tentações estão bem longe disso. Quem não é capaz de ser discreto não está mentalmente equipado para desfrutar da depravação – afinal, para gozar com o proibido significa que algo precisa ser proibido em primeiro lugar.

Escrito por Mary Harrington [texto publicado originalmente na revista online UnHerd, sob o título ‘Keep your kinks to yourself’]

Tradução e adaptação: Vox Leone

O Futuro da AI é Luminoso (e analógico)

Para concluir a Rápida Introdução à ‘Inteligência Artificial’, publico o post complementar, para apresentar o inovador chip ótico [ainda sem nome comercial] da start-up Lightmatter, contendo o chamado interferômetro Mach-Zehnderque, que promete elevar a computação de sistemas de aprendizagem de máquinas a um novo patamar.

Imagem: iStock

O aprendizado de máquina profundo, ou seja, redes neurais artificiais com muitas camadas ocultas, sempre nos fascina com soluções inovadoras para problemas do mundo real, cada vez em mais áreas, incluindo processamento de linguagem natural, detecção de fraude, reconhecimento de imagem e direção autônoma. As redes neurais ficam melhores a cada dia.

Mas esses avanços têm um preço enorme nos recursos de computação e no consumo de energia. Portanto, não é de se admirar que engenheiros e cientistas da computação estejam fazendo grandes esforços para descobrir maneiras de treinar e operar redes neurais profundas com mais eficiência.

Uma nova e ambiciosa estratégia que está fazendo o ‘début’ este ano é executar a computação de redes neurais usando fótons em vez de elétrons. A Lightmatter começará a comercializar no final deste ano seu chip acelerador de rede neural que calcula com luz. Será um refinamento do protótipo do chip Mars que a empresa exibiu em agosto passado.

O protótipo MARS, instalado em uma placa

Embora o desenvolvimento de um acelerador ótico comercial para aprendizado profundo seja uma conquista notável, a ideia geral de ‘computação com luz’ não é nova. Os engenheiros empregavam regularmente essa tática nas décadas de 1960 e 1970, quando os computadores digitais eletrônicos ainda não tinham capacidade para realizar cálculos complexos. Assim, os dados eram processados no domínio analógico, usando luz.

Em virtude dos ganhos da Lei de Moore na eletrônica digital, a computação óptica nunca realmente pegou, apesar da ascensão da luz [fibras óticas] como veículo para comunicação de dados. Mas tudo isso pode estar prestes a mudar: a Lei de Moore, que durante décadas proporcionou aumentos exponenciais na capacidade dos chips eletrônicos, mostra sinais de estar chegando ao fim, ao mesmo tempo em que as demandas da computação de aprendizado profundo estão explodindo.

Não há muitas escolhas para lidar com esse problema. Pesquisadores de aprendizagem profunda podem até desenvolver algoritmos mais eficientes, mas é difícil prever se esses ganhos serão suficientes. Essa é a razão da Lightmatter estar empenhada em “desenvolver uma nova tecnologia de computação que não dependa do transistor”.

Fundamentos

O componente fundamental no chip Lightmatter é um interferômetro Mach-Zehnder. Esse dispositivo ótico foi inventado em conjunto por Ludwig Mach e Ludwig Zehnder na década de 1890. Mas só recentemente esses dispositivos óticos foram miniaturizados a ponto de um grande número deles poder ser integrado em um chip e usado para realizar as multiplicações de matrizes envolvidas nos cálculos de rede neural.

O interferômetro Mach-Zehnder é um dispositivo usado para determinar as variações relativas de deslocamento de fase entre dois feixes colimados derivados da divisão da luz de uma única fonte. É um dispositivo particularmente simples para demonstrar interferência por divisão de amplitude. Um feixe de luz é primeiro dividido em duas partes por um divisor de feixe e, em seguida, recombinado por um segundo divisor de feixe. Dependendo da fase relativa adquirida pelo feixe ao longo dos dois caminhos, o segundo divisor de feixe refletirá o feixe com eficiência entre 0 e 100%. – Gráfico: Vox Leone – Uso Permitido

Esses feitos só se tornaram possíveis nos últimos anos devido ao amadurecimento do ecossistema de manufatura de fotônica integrada, necessário para fazer chips fotônicos para comunicações.

O processamento de sinais analógicos transportados pela luz reduz os custos de energia e aumenta a velocidade dos cálculos, mas a precisão pode não corresponder ao que é possível no domínio digital. O sistema é 8-bits-equivalente. Isso por enquanto mantém o chip restrito a cálculos de inferência de rede neural – aqueles que são realizados depois que a rede foi treinada.

Os desenvolvedores do sistema esperam que sua tecnologia possa um dia ser aplicada também ao treinamento de redes neurais. O treinamento exige mais precisão do que o processador ótico pode fornecer nesta etapa.

A Lightmatter não está sozinha em busca da luz para cálculos de redes neurais. Outras startups que trabalham nesta linha são Fathom Computing, LightIntelligence, LightOn, Luminous e Optalysis.

A Luminous espera desenvolver sistemas práticos em algum momento entre 2022 e 2025. Portanto, ainda teremos que esperar alguns anos para ver como essa abordagem vai evoluir. Mas muitos estão entusiasmados com as perspectivas, incluindo Bill Gates, um dos maiores investidores da empresa.

Uma coisa é clara: os recursos de computação dedicados aos sistemas de inteligência artificial não podem continuar a crescer sustentavelmente na taxa atual, dobrando a cada três ou quatro meses. Os engenheiros estão ansiosos para utilizar a fotônica integrada para enfrentar esse desafio de construir uma nova classe de máquinas de computação drasticamente diferentes daquelas baseadas nos chips eletrônicos convencionais, que agora se tornam viáveis para fabricação. São dispositivos que no passado recente só podiam ser imaginados.

Uma (muito) Rápida Introdução à ‘Inteligência Artificial’

O poder de computação ao alcance das pessoas começou a crescer rapidamente, aos trancos e barrancos, na virada do milênio, quando as unidades de processamento gráfico (GPUs) começaram a ser aproveitadas para cálculos não gráficos, uma tendência que se tornou cada vez mais difundida na última década. Mas as demandas da computação de “Aprendizado Profundo” [Deep Learning] têm aumentado ainda mais rápido. Essa dinâmica estimulou os engenheiros a desenvolver aceleradores de hardware voltados especificamente para o aprendizado profundo [o que se conhece popularmente como ‘Inteligência Artificial’], sendo a Unidade de Processamento de Tensor (TPU) do Google um excelente exemplo.

Ainda não temos uma Teoria da Mente, que possa nos dar uma base para a construção de uma verdadeira inteligência senciente. Aqui a distinção entre as disciplinas que formam o campo da Inteligência Artificial

Aqui, descreverei resumidamente o processo geral do aprendizado de máquina, introduzindo uma abordagem muito diferente para este problema – o uso de processadores óticos para realizar a computação de uma rede neural com fótons em vez de elétrons, que será objeto do próximo post. Para entender como a ótica pode impulsionar este campo, precisamos saber um pouco sobre como os computadores executam cálculos de redes neurais.

Visão geral

Quase invariavelmente, os neurônios artificiais são ‘construídos’ [na verdade eles são virtuais] usando um software especial executado em algum tipo de computador eletrônico digital.

Esse software fornece a um determinado neurônio da rede várias entradas e uma saída. O estado de cada neurônio depende da soma ponderada de suas entradas, à qual uma função não linear, chamada função de ativação, é aplicada. O resultado, a saída desse neurônio, torna-se então uma entrada para vários outros neurônios, em um processo em cascata.

As camadas de neurônios interagem entre si. Cada círculo representa um neurônio, em uma visão muito esquemática. À esquerda (em amarelo) a camada de entrada. Ao centro, em azul e verde, as camadas ocultas, que refinam os dados, aplicando pesos variados a cada neurônio. À direita, em vermelho, a camada de saída, com o resultado final.

Por questões de eficiência computacional, esses neurônios são agrupados em camadas, com neurônios conectados apenas a neurônios em camadas adjacentes. A vantagem de organizar as coisas dessa maneira, ao invés de permitir conexões entre quaisquer dois neurônios, é que isso permite que certos truques matemáticos de álgebra linear sejam usados ​​para acelerar os cálculos.

Embora os cálculos de álgebra linear não sejam toda a história, eles são a parte mais exigente do aprendizado profundo em termos de computação, principalmente à medida que o tamanho das redes aumenta. Isso é verdadeiro para ambas as fases do aprendizado de máquina:

  • O treinamento – processo de determinar quais pesos aplicar às entradas de cada neurônio.
  • A inferência – processo deflagrado quando a rede neural está fornecendo os resultados desejados.
Concepção do processo de treinamento de máquina, dos dados brutos, à esquerda, ao modelo completo.

Matrizes

O que são esses misteriosos cálculos de álgebra linear? Na verdade eles não são tão complicados. Eles envolvem operações com matrizes, que são apenas arranjos retangulares de números – planilhas, se preferir, menos os cabeçalhos de coluna descritivos que você encontra em um arquivo Excel típico.

É bom que as coisas sejam assim, porque o hardware de um computador moderno é otimizado exatamente para operações com matriz, que sempre foram o pão com manteiga da computação de alto desempenho – muito antes de o aprendizado de máquina se tornar popular. Os cálculos matriciais relevantes para o aprendizado profundo se resumem essencialmente a um grande número de operações de multiplicação e acumulação, em que pares de números são multiplicados entre si e seus produtos somados.

Ao longo dos anos, o aprendizado profundo foi exigindo um número cada vez maior dessas operações de multiplicação e acumulação. Considere LeNet, uma rede neural pioneira, projetada para fazer classificação de imagens. Em 1998, demonstrou superar o desempenho de outras técnicas de máquina para reconhecer letras e numerais manuscritos. Mas em 2012 o AlexNet, uma rede neural que processava cerca de 1.600 vezes mais operações de multiplicação e acumulação do que o LeNet, foi capaz de reconhecer milhares de diferentes tipos de objetos em imagens.

Gráfico tridimensional ilustrando o processo de inferência, partindo de dados brutos dispersos (embaixo à direita) até o refinamento final (após muitas iterações de inferência), onde o resultado (ou predição) é obtido.

Aliviar a pegada de CO2

Avançar do sucesso inicial do LeNet para o AlexNet exigiu quase 11 duplicações do desempenho de computação. Durante os 14 anos que se passaram, a lei de Moore ditava grande parte desse aumento. O desafio tem sido manter essa tendência agora que a lei de Moore dá sinais de que está perdendo força. A solução de sempre é simplesmente injetar mais recursos – tempo, dinheiro e energia – no problema.

Como resultado, o treinamento das grandes redes neurais tem deixado uma pegada ambiental significativa. Um estudo de 2019 descobriu, por exemplo, que o treinamento de um determinado tipo de rede neural profunda para o processamento de linguagem natural emite cinco vezes mais CO2 do que um automóvel durante toda a sua vida útil.

Os aprimoramentos nos computadores eletrônicos digitais com certeza permitiram que o aprendizado profundo florescesse. Mas isso não significa que a única maneira de realizar cálculos de redes neurais seja necessariamente através dessas máquinas. Décadas atrás, quando os computadores digitais ainda eram relativamente primitivos, os engenheiros lidavam com cálculos difíceis como esses usando computadores analógicos.

À medida que a eletrônica digital evoluiu, esses computadores analógicos foram sendo deixados de lado. Mas pode ser hora de seguir essa estratégia mais uma vez, em particular nestes tempos em que cálculos analógicos podem ser feitos oticamente de forma natural.

No próximo post vou trazer o mais recente desenvolvimento em fotônica aplicada ao aprendizado de máquina – em uma arquitetura analógica! Estamos, sem dúvida, vivendo tempos interessantes neste campo promissor.

Fonte de pesquisa: spectrum.ieee.org

Sexta de Leão: Da Origem e Evolução do Maravilhoso Ânus

No início não havia nada. As extremidades traseiras de nossos ancestrais animais que nadavam nos mares centenas de milhões de anos atrás estavam em branco, lisas, relegando a entrada e saída de todos os alimentos a um único buraco multiuso. Ecos evolutivos dessas formas de vida ainda existem em corais, anêmonas-do-mar, águas-vivas e uma legião de vermes marinhos cujo trato digestivo assume a forma de um saco.

Anêmona do Mar – Imagem: iStock

Esses animais são muito estritos com suas refeições, alimentando-se de uma bola de cada vez e, em seguida, expulsando os restos pelo mesmo orifício. As entranhas dessas criaturas funcionam como estacionamentos, sujeitas a rígidas cotas de vagas que restringem o fluxo do tráfego.

O surgimento de uma porta dos fundos transformou esses estacionamentos em rodovias – as “entranhas” lineares que dominam o desenho dos corpos dos animais hoje. De repente, os animais podiam se dar ao luxo de engolir várias refeições sem a necessidade de se preocupar com o descarte entre elas; surgiram tratos digestivos alongados e regionalizados, dividindo-se em câmaras que podiam extrair diferentes nutrientes e hospedar suas próprias comunidades de micróbios.

A compartimentação tornou mais fácil para os animais aproveitarem melhor suas refeições. Com o alongamento e abertura do final do intestino, muitas criaturas cresceram em formas corporais cada vez maiores e começaram a se mover de novas maneiras (Seriam necessários vários outros éons para que as nádegas verdadeiras – os acessórios carnudos e gordurosos que flanqueiam o ânus de alguns animais – como os humanos, evoluíssem).

Como a porta dos fundos foi aberta

Não é muito claro como a porta dos fundos foi escavada. Tecidos macios, sem ossos, não são exatamente amigáveis ao registro fóssil, tornando difícil provar qualquer teoria. Uma das hipóteses mais antigas sustenta que o ânus e a boca se originaram da mesma abertura solitária, que se alongou, cedeu no centro e se partiu em duas. O ânus recém-formado então se moveu lentamente para a parte posterior do animal. Claus Nielsen, biólogo evolutivo do Museu de História Natural da Dinamarca, é um fã dessa teoria; ela é razoavelmente parcimoniosa e evolutivamente equitativa: neste cenário, tecnicamente nem a boca nem o ânus surgiram primeiro; eles surgiram como gêmeos univitelíneos.

Outros, como Andreas Hejnol, defendem uma ideia diferente, em que a boca formalmente precede o ânus, que surge espontaneamente na outra extremidade do corpo. “É um avanço secundário”, disse Hejnol. “Primeiro o intestino se forma, e então faz uma conexão com o mundo exterior.” Abrir um buraco extra no corpo não é tão difícil: alguns vermes conseguiram esse feito evolutivo dezenas de vezes.

Hejnol e seus colegas ainda estão reunindo apoio para sua hipótese, mas afirmam que já há alguns argumentos contra a ideia de divisão de buracos: os animais não expressam os mesmos genes em torno da boca e do ânus, o que vai contra a noção de que as duas aberturas são cortadas do mesmo tecido evolutivo.

Se essa hipótese se provar correta, porém, não encerrará necessariamente o caso da origem evolutiva do ânus. Muitos estudiosos acham que o ânus foi uma inovação tão útil que os animais o desenvolveram independentemente pelo menos meia dúzia de vezes, talvez muitas mais, não necessariamente da mesma maneira. Essa linha de tempo tem ainda outras ramificações: algumas criaturas perderam sua abertura anal – e algumas podem ter adquirido as delas ainda mais para trás na história.

Ctenóforos e a Cloaca

Uma das maiores pregas na narrativa do ânus liso assume a forma da comb-jelly [gênero Ctenófora] – um animal gelatinoso que vagamente se assemelha a um capacete de Darth Vader translúcido. Acredita-se que a espécie tenha pelo menos 700 milhões de anos de idade. Já em 1800, os cientistas se intrigavam com a parte de trás das ctenophoras e se perguntavam se elas estavam excretando fezes a partir do que viam como um conjunto de poros de aparência estranha. Mais de um século se passou antes que seus atos de defecação fossem finalmente capturados pelas câmeras, pelo biólogo William Browne, da Universidade de Miami, e seus colegas, que filmaram uma dessas criaturas amorfas fazendo um grande monte em um laboratório. Se ctnóforas estavam fazendo cocô, aquele cocô devia estar saindo de algum tipo de buraco traseiro. Talvez, alguns disseram, a história do ânus fosse muito mais profunda no tempo do que muitos pensavam.

Comb-Jelly, uma ctenofora – Imagem: iStock

Nos meses após a equipe de Browne publicar suas descobertas, os cientistas discutiram repetidamente sobre sua importância. Alguns saudaram a descoberta como revolucionária. Mas outros, Hejnol entre eles, argumentaram que o embaraçoso vídeo afinal não significava tanta mudança dogmática assim. Provavelmente as ctenóforas evoluíram seus ânus independentemente de outros animais e chegaram a um desenho semelhante por acaso; não há como dizer quando exatamente isso pode ter ocorrido. Tal cenário deixaria a cronologia de nosso próprio ânus intacta – por ter emergido de uma linha diferente de criaturas, em um ponto separado no tempo.

Alguns dos back-ends mais intrigantes são os análogos multitarefas do ânus chamados cloaca, que mescla as partes terminais dos tratos digestivo, urinário e reprodutivo em uma única abertura – essencialmente um foyer de evacuação para fezes, urina, ovos e espermatozóides. Pode ser até que eles representem a ponte evolutiva entre os tratos reprodutivo e digestivo que levou a alguns dos primeiros ânus.

Mesmo assim, as cloacas trazem riscos: todos os resíduos digestivos ficam praticamente em contato direto com a genitália; basicamente uma infecção maligna esperando para acontecer. Qualquer rebento vivo que passe pelo trato reprodutivo será ameaçado pela proximidade de patógenos transmitidos por cocô. Talvez seja por isso que os ânus humanos se rebelaram e se aventuraram por conta própria.

Seja qual for a razão por trás disso, a mutação que acabou com a cloaca tornou os ânus humanos “completamente entediantes”. No que toca os orifícios de saída dos animais, os nossos são totalmente padrão, capazes de pouco mais do que expulsar resíduos do intestino, sem maiores frescuras.

Gluteus Maximus

A única qualidade redentora do monótono orifício posterior dos humanos é a característica que desenvolvemos para amortecê-lo: nossas nádegas infames, as mais volumosas documentadas até agora, graças à nossa tendência bizarra de andar por aí em nossas duas pernas de primatas. Esse padrão de locomoção remodelou a pelve, que por sua vez reorientou nossos músculos. O glúteo máximo – o músculo robusto que impulsiona nossa habilidade de correr e escalar – inchou em sincronia e se cobriu com uma camada aconchegante de gordura que alguns cientistas acham que também sirva como reserva de energia. Ânus à parte, nossas nádegas são a verdadeira inovação.

A evolução explodiu o traseiro humano fora de proporção; nossas normas culturais rapidamente seguiram o exemplo. Nós contemplamos os traseiros uns dos outros com luxúria, às vezes nojo e/ou fascinação culpada. Nós os tatuamos, nós os esculpimos; nós os sexualizamos. Nós fazemos sambas, raps e funks sobre eles, com abandono. Os traseiros, em troca, tornam para nós muito mais fácil correr – mas muito mais difícil manter o ânus limpo.

Peixe-pérola – Imagem: iStock

Talvez isso seja parte da razão pela qual os humanos têm tanta vergonha de seus traseiros. Nós até optamos por “bunda” como um eufemismo para ânus em uma conversa casual. As nádegas não são o ânus, mas o cobrem, física e talvez figurativamente. Elas obscurecem a visão, e portanto a percepção de que, desde o início, nossa extremidade digestiva sempre foi uma maravilha. Ela abriu o caminho evolutivo de nossos ancestrais e tornou nossa própria existência possível.

Nosso ânus é uma ovelha vestida com uma roupa de lobo fabulosa, e simplesmente não conseguimos lidar com isso [I’m so sexy it hurts!]. Talvez seja a hora de sermos sensatos fazer como o peixe-pérola, que vive confortável ​​com o que tem entre as bochechas.


Post Scriptum:

Este texto é baseado em um trabalho original de Katherine J. Wu, publicado na revista americana The Atlantic, sob o título “The Body’s Most Embarrassing Organ Is an Evolutionary Marvel” [“O Órgão Mais Embaraçoso do Corpo É uma Maravilha Evolutiva”]. É um texto delicioso. Wu consegue abordar um tema científico [e filosoficamente espinhoso – A Teoria da Evolução!] apresentando-o de forma leve, cheia de trocadilhos e tiradas de duplo sentido. Aposto que você leu com um sorriso nos lábios. Se o fez, meu objetivo foi atingido. Eu não podia privar o povo brasileiro e lusófono deste meu achado literário. Tenho trabalhado nele desde que foi publicado, em maio. Francamente eu esperava que, no país do ‘bum-bum’, algum jornal da grande mídia o publicasse. Parece que me enganei. Unilateralmente eu o adaptei [em tamanho reduzido] para a cadência brasileira e lusófona e estou a publicá-lo como se Creative Commons fosse. Meus motivos são razoáveis:

  1. Os povos brasileiro, angolano, moçambicano, e em grande medida também o português, precisam [quase todos desesperadamente] de literatura científica, e neste período histórico o povo brasileiro precisa também de leveza. É muito bom quando a ciência encontra a leveza. Não há veículo melhor para comunicar ciência ao povo brasileiro do que a espirituosidade.
  2. Meu site não tem (ainda) fins lucrativos – embora os custos de operação não sejam desprezíveis. Ademais, meu próprio conteúdo é distribuído sob licença Creative Commons. Meu interesse primário genuíno é a divulgação da ciência e da tecnologia da informação [mas é claro que sei que isso também faz muito bem ao meu CV].

Acho que posso ser perdoado.

Os Perigos do Software Evidencial – ou Quem Garante o Bafômetro?

No Lawfare Blog, Susan Landau escreve um excelente ensaio sobre os riscos apresentados pelos aplicativos usados em dispositivos de coleta de evidências (um bafômetro é provavelmente o exemplo mais óbvio). Bugs e vulnerabilidades nessa classe de equipamento podem levar a evidências imprecisas. Para compor o problema, a natureza proprietária do software torna difícil para a equipe de defesa dos réus examiná-lo. A seguir um brevíssimo resumo da essência do material.

Imagem: iStock

[…]

Os engenheiros de software propuseram um teste de três partes.

Primeiro, o tribunal deve ter acesso ao “Log de erros conhecidos”, algo que deve fazer parte de qualquer bom projeto de software desenvolvido profissionalmente.

Em seguida, o tribunal deve considerar se as provas apresentadas podem ser afetadas materialmente por um erro de software. Ladkin e seus co-autores observaram que a maioria das funcionalidades não apresentará erro, mas o momento preciso em que o software registra o uso do dispositivo pode facilmente estar incorreto.

Finalmente, os especialistas em confiabilidade recomendaram verificar se o código adere a um determinado padrão da indústria usado em uma versão não computadorizada da tarefa (por exemplo, os contadores sempre registram todas as transações – portanto, o software usado na contabilidade também deve registrar).

[…]

Objetos inanimados há muito servem como prova em tribunais: a maçaneta da porta contendo uma impressão digital, a luva encontrada na cena de um crime, o resultado do bafômetro que mostra um nível de álcool no sangue três vezes o limite legal. Mas o último desses exemplos é substancialmente diferente dos outros dois. Os dados de um bafômetro não são a entidade física em si, mas sim um cálculo de um software a respeito do nível de álcool no hálito de um motorista potencialmente bêbado. Desde que a amostra de respiração tenha sido preservada, pode-se sempre voltar e testá-la novamente em um dispositivo diferente.

O que acontece se o software cometer um erro e não houver mais nenhuma amostra para verificar? Ou, e se o próprio software produzir a evidência contra o réu? No momento em que escrevemos este artigo, não havia nenhum precedente no qual a lei permita que o próprio réu examine o código subjacente.

[…]

Dada a alta taxa de erros em sistemas de software complexos, meus colegas e eu concluímos que, quando programas de computador produzem uma prova, os tribunais não podem presumir que o software probatório seja confiável. Em vez disso, a acusação deve disponibilizar o código para uma “auditoria contraditória” pelos especialistas designados pelo réu[1]. E para evitar problemas em que o governo não tenha o código para que este seja inspecionado, os contratos de compras governamentais devem incluir a garantia de entrega do código-fonte do software adquirido – código que seja mais ou menos legível pelas pessoas – para cada versão do código ou dispositivo.

Ler o trabalho na íntegra [em inglês] em Lawfare Blog.

* * *

O comentário pertinente é: o Estado pode exigir calibração regular do bafômetro, mas quem os inspeciona? Há garantia de que o poder público multará a polícia por não verificar se os bafômetros estão calibrados de forma adequada além de estar também funcionando corretamente? E quem calibra os calibradores?

Se nenhuma amostra da respiração for retida, apenas o registro da observação do software, como a leitura de um bafômetro é essencialmente diferente de um boato ou palavra-de-boca? Será porque o bafômetro é “tecnológico”? Assumir que o instrumento é mais preciso que uma testemunha humana, apenas porque é tecnológico, gera outros grandes problemas conceituais.

Mas acho que o ponto mais amplo é este: dada a quase total falta de responsabilidade da indústria do software, a inescrutabilidade do código proprietário e a qualidade duvidosa da maioria do software comercial, um tribunal – que busca a verdade – não deve acolher prima facie evidências que consistam exclusivamente do resultado de um software.

Este não é um problema técnico, mas um problema legal causado por políticas inadequadas: a indústria do software precisa de regulamentação, responsabilidade e reforma das leis de direitos autorais.

[1] Um especialista que consultei – que um dia estará escrevendo neste espaço, gentilmente me explicou [o que agradeço penhoradamente] que esse protocolo não existe no ordenamento brasileiro. Mas da explicação depreendo que a lei brasileira pode comportar soluções análogas a essa.

A Crise das Redes: Como Administrar o Comportamento Coletivo Global

Abrimos esta semana apresentando em português o necessário estudo “Administração do Comportamento Coletivo Global”, sobre o que eu pessoalmente que caracterizo como a Crise das Rede Sociais. A sociedade humana nunca teve que lidar com entidades tão potentes, com tão grande potencial desagregador, tão desconhecidas e tão incompreendidas. Estamos em um momento-chave da civilização, e o que fizermos nesta década definirá o caminho da espécie humana por séculos.

A ‘Economia da Atenção’ tem facilitado comportamentos extremos e provocado rupturas políticas e culturais. Sua influência na opinião pública exibe uma escala sem precedentes na evolução da civilização. Imagem: iStock

O comportamento coletivo fornece uma estrutura para a compreensão de como as ações e propriedades dos grupos emergem da maneira como os indivíduos geram e compartilham informações. Em humanos, os fluxos de informação foram inicialmente moldados pela seleção natural, mas são cada vez mais estruturados por tecnologias de comunicação emergentes. Nossas redes sociais maiores e mais complexas agora movimentam informações de alta fidelidade através de grandes distâncias a baixo custo. A era digital e a ascensão das mídias sociais aceleraram as mudanças em nossos sistemas sociais, com consequências funcionais mal compreendidas. Essa lacuna em nosso conhecimento representa o principal desafio para o progresso científico, para a democracia e para as ações para enfrentar as crises globais. Argumentamos que o estudo do comportamento coletivo deve ser elevado a uma “disciplina de crise”, assim como a medicina, a conservação e a ciência do clima, e ter foco em fornecer uma visão prática para a administração dos sistemas sociais destinada aos formuladores de políticas públicas bem como os reguladores.

O comportamento coletivo historicamente se refere às instâncias em que grupos de humanos ou animais exibem ação coordenada na ausência de um líder óbvio: de bilhões de gafanhotos, estendendo-se por centenas de quilômetros, devorando a vegetação à medida que avançam; de cardumes de peixes convulsionando como um fluido animado quando sob ataque de predadores às nossas próprias sociedades, caracterizadas por cidades, com edifícios e ruas cheias de cor e som, vivas de atividade. A característica comum de todos esses sistemas é que as interações sociais entre os organismos individuais dão origem a padrões e estruturas em níveis mais elevados de organização, desde a formação de vastos grupos nômades até o surgimento de sociedades baseadas na divisão de trabalho, normas sociais, opiniões, e dinâmica de preços.

Nas últimas décadas, o “comportamento coletivo” evoluiu de uma descrição de fenômenos gerais para uma estrutura conduciva à compreensão dos mecanismos pelos quais a ação coletiva emerge (3⇓⇓⇓-7). Ele revela como as propriedades de “ordem superior” das estruturas coletivas em grande escala, se retroalimentam para influenciar o comportamento individual, que por sua vez pode influenciar o comportamento do coletivo, e assim por diante. O comportamento coletivo, portanto, se concentra no estudo de indivíduos no contexto de como eles influenciam e são influenciados pelos outros, levando em consideração as causas e consequências das diferenças interindividuais em fisiologia, motivação, experiência, objetivos e outras propriedades.

Imagem: iStock

As interações multiescala e o feedback que fundamentam o comportamento coletivo são marcas definidoras de “sistemas complexos” – que incluem nosso cérebro, redes de energia, mercados financeiros e o mundo natural. Quando perturbados, os sistemas complexos tendem a exibir uma resiliência finita seguida por mudanças catastróficas, repentinas e muitas vezes irreversíveis na sua funcionalidade. Em uma ampla gama de sistemas complexos, a pesquisa destacou como a perturbação antropogênica – tecnologia, extração de recursos e crescimento populacional – é uma fonte crescente, se não dominante, de risco sistêmico. No entanto, a pesquisa científica sobre como os sistemas complexos são afetados pela tecnologia humana e pelo crescimento populacional tem se concentrado mais intensamente nas ameaças que eles representam para o mundo natural.

Temos uma compreensão muito mais pobre das consequências funcionais das recentes mudanças em grande escala no comportamento humano coletivo e na tomada de decisões. Nossas adaptações sociais evoluíram no contexto de pequenos grupos de caçadores-coletores resolvendo problemas locais por meio de vocalizações e gestos. Em contraste, agora enfrentamos desafios globais complexos, de pandemias a mudanças climáticas – e nos comunicamos em redes dispersas conectadas por tecnologias digitais, como smartphones e mídias sociais.

Com ligações cada vez mais fortes entre os processos ecológicos e sociológicos, evitar a catástrofe a médio prazo (por exemplo, coronavírus) e a longo prazo (por exemplo, mudança climática, segurança alimentar) exigirá respostas comportamentais coletivas rápidas e eficazes – ainda não se sabe se a dinâmica social humana permitirá tais respostas.

Além das ameaças ecológicas e climáticas existenciais, a dinâmica social humana apresenta outros desafios ao bem-estar individual e coletivo, como recusa de vacinas, adulteração de eleições, doenças, extremismo violento, fome, racismo e guerra.

Nenhuma das mudanças evolutivas ou tecnológicas em nossos sistemas sociais ocorreu com o propósito expresso de promover a sustentabilidade global ou a qualidade de vida. Tecnologias recentes e emergentes, como mídia social online, não são exceção – tanto a estrutura de nossas redes sociais quanto os padrões de fluxo de informações por meio delas são direcionados por decisões de engenharia feitas para maximizar a lucratividade. Essas mudanças são drásticas, opacas, efetivamente não regulamentadas e de grande escala.

Disciplina de Crise

As consequências funcionais emergentes são desconhecidas. Não temos a estrutura científica necessária para responder até mesmo às questões mais básicas que as empresas de tecnologia e seus reguladores enfrentam. Por exemplo, será que um determinado algoritmo para recomendar amigos – ou um para selecionar itens de notícias a serem exibidos – promove ou impede a disseminação de desinformação online? Não temos um corpo de literatura embasado teoricamente e verificado empiricamente para informar uma resposta a tal pergunta. Na falta de uma estrutura desenvolvida, as empresas de tecnologia se atrapalharam com a pandemia de coronavírus em curso, incapazes de conter a “infodemia” de desinformação que impede a aceitação pública de medidas de controle, como máscaras e testes generalizados.

Em resposta, os reguladores e o público têm insistido nos pedidos de reforma do nosso ecossistema de mídia social, com demandas que vão desde maior transparência e controles de usuário até responsabilidade legal e propriedade pública. O debate básico é antigo: os processos comportamentais em grande escala são autossustentáveis ​​e autocorretivos, ou requerem gerenciamento e orientação ativos para promover o bem-estar sustentável e equitativo? Historicamente, essas questões sempre foram tratadas em termos filosóficos ou normativos. Aqui, construímos nossa compreensão dos sistemas complexos perturbados para argumentar que não se pode esperar que a dinâmica social humana produza soluções para questões globais ou promova o bem-estar humano sem uma política baseada em evidências e administração ética.

A situação é paralela aos desafios enfrentados na biologia da conservação e na ciência do clima, onde indústrias insuficientemente regulamentadas otimizam os seus lucros enquanto minam a estabilidade dos sistemas ecológicos. Tal comportamento criou a necessidade de uma política urgente baseada em evidências, na falta de uma compreensão completa da dinâmica subjacente dos sistemas (por exemplo, ecologia e geociências). Essas características levaram Michael Soulé a descrever a biologia da conservação como o contraponto da “disciplina de crise” à ecologia. As disciplinas de crise são distintas de outras áreas de pesquisa urgente baseada em evidências em sua necessidade de considerar a degradação de todo um sistema complexo – sem uma descrição completa da dinâmica do sistema. Sentimos que o estudo do comportamento humano coletivo deve se tornar a resposta da disciplina de crise às mudanças em nossa dinâmica social.

Como o comportamento humano coletivo é o resultado de processos que abrangem escalas temporais, geográficas e organizacionais, abordar o impacto da tecnologia emergente no comportamento global exigirá uma abordagem transdisciplinar e um colaboração sem precedentes entre cientistas em uma ampla gama de disciplinas acadêmicas. À medida que nossas sociedades são cada vez mais instanciadas na forma digital, abstrações de processos sociais – as redes são um exemplo proeminente – tornam-se partes muito reais da vida diária. Essas mudanças apresentam novos desafios, bem como oportunidades, para avaliação e intervenção. Disciplinas dentro e fora das ciências sociais têm acesso a técnicas e formas de pensar que expandem nossa capacidade de entender e responder aos efeitos da tecnologia de comunicação. Acreditamos que tal colaboração é urgentemente necessária.

Ler artigo original na íntegra:

Stewardship of Global Collective Behavior

Joseph B. Bak-Coleman, Mark Alfano, Wolfram Barfuss, Carl T. Bergstrom, Miguel A.
Proceedings of the National Academy of Sciences of the United States of America