A Crise das Redes: Como Administrar o Comportamento Coletivo Global

Abrimos esta semana apresentando em português o necessário estudo “Administração do Comportamento Coletivo Global”, sobre o que eu pessoalmente que caracterizo como a Crise das Rede Sociais. A sociedade humana nunca teve que lidar com entidades tão potentes, com tão grande potencial desagregador, tão desconhecidas e tão incompreendidas. Estamos em um momento-chave da civilização, e o que fizermos nesta década definirá o caminho da espécie humana por séculos.

A ‘Economia da Atenção’ tem facilitado comportamentos extremos e provocado rupturas políticas e culturais. Sua influência na opinião pública exibe uma escala sem precedentes na evolução da civilização. Imagem: iStock

O comportamento coletivo fornece uma estrutura para a compreensão de como as ações e propriedades dos grupos emergem da maneira como os indivíduos geram e compartilham informações. Em humanos, os fluxos de informação foram inicialmente moldados pela seleção natural, mas são cada vez mais estruturados por tecnologias de comunicação emergentes. Nossas redes sociais maiores e mais complexas agora movimentam informações de alta fidelidade através de grandes distâncias a baixo custo. A era digital e a ascensão das mídias sociais aceleraram as mudanças em nossos sistemas sociais, com consequências funcionais mal compreendidas. Essa lacuna em nosso conhecimento representa o principal desafio para o progresso científico, para a democracia e para as ações para enfrentar as crises globais. Argumentamos que o estudo do comportamento coletivo deve ser elevado a uma “disciplina de crise”, assim como a medicina, a conservação e a ciência do clima, e ter foco em fornecer uma visão prática para a administração dos sistemas sociais destinada aos formuladores de políticas públicas bem como os reguladores.

O comportamento coletivo historicamente se refere às instâncias em que grupos de humanos ou animais exibem ação coordenada na ausência de um líder óbvio: de bilhões de gafanhotos, estendendo-se por centenas de quilômetros, devorando a vegetação à medida que avançam; de cardumes de peixes convulsionando como um fluido animado quando sob ataque de predadores às nossas próprias sociedades, caracterizadas por cidades, com edifícios e ruas cheias de cor e som, vivas de atividade. A característica comum de todos esses sistemas é que as interações sociais entre os organismos individuais dão origem a padrões e estruturas em níveis mais elevados de organização, desde a formação de vastos grupos nômades até o surgimento de sociedades baseadas na divisão de trabalho, normas sociais, opiniões, e dinâmica de preços.

Nas últimas décadas, o “comportamento coletivo” evoluiu de uma descrição de fenômenos gerais para uma estrutura conduciva à compreensão dos mecanismos pelos quais a ação coletiva emerge (3⇓⇓⇓-7). Ele revela como as propriedades de “ordem superior” das estruturas coletivas em grande escala, se retroalimentam para influenciar o comportamento individual, que por sua vez pode influenciar o comportamento do coletivo, e assim por diante. O comportamento coletivo, portanto, se concentra no estudo de indivíduos no contexto de como eles influenciam e são influenciados pelos outros, levando em consideração as causas e consequências das diferenças interindividuais em fisiologia, motivação, experiência, objetivos e outras propriedades.

Imagem: iStock

As interações multiescala e o feedback que fundamentam o comportamento coletivo são marcas definidoras de “sistemas complexos” – que incluem nosso cérebro, redes de energia, mercados financeiros e o mundo natural. Quando perturbados, os sistemas complexos tendem a exibir uma resiliência finita seguida por mudanças catastróficas, repentinas e muitas vezes irreversíveis na sua funcionalidade. Em uma ampla gama de sistemas complexos, a pesquisa destacou como a perturbação antropogênica – tecnologia, extração de recursos e crescimento populacional – é uma fonte crescente, se não dominante, de risco sistêmico. No entanto, a pesquisa científica sobre como os sistemas complexos são afetados pela tecnologia humana e pelo crescimento populacional tem se concentrado mais intensamente nas ameaças que eles representam para o mundo natural.

Temos uma compreensão muito mais pobre das consequências funcionais das recentes mudanças em grande escala no comportamento humano coletivo e na tomada de decisões. Nossas adaptações sociais evoluíram no contexto de pequenos grupos de caçadores-coletores resolvendo problemas locais por meio de vocalizações e gestos. Em contraste, agora enfrentamos desafios globais complexos, de pandemias a mudanças climáticas – e nos comunicamos em redes dispersas conectadas por tecnologias digitais, como smartphones e mídias sociais.

Com ligações cada vez mais fortes entre os processos ecológicos e sociológicos, evitar a catástrofe a médio prazo (por exemplo, coronavírus) e a longo prazo (por exemplo, mudança climática, segurança alimentar) exigirá respostas comportamentais coletivas rápidas e eficazes – ainda não se sabe se a dinâmica social humana permitirá tais respostas.

Além das ameaças ecológicas e climáticas existenciais, a dinâmica social humana apresenta outros desafios ao bem-estar individual e coletivo, como recusa de vacinas, adulteração de eleições, doenças, extremismo violento, fome, racismo e guerra.

Nenhuma das mudanças evolutivas ou tecnológicas em nossos sistemas sociais ocorreu com o propósito expresso de promover a sustentabilidade global ou a qualidade de vida. Tecnologias recentes e emergentes, como mídia social online, não são exceção – tanto a estrutura de nossas redes sociais quanto os padrões de fluxo de informações por meio delas são direcionados por decisões de engenharia feitas para maximizar a lucratividade. Essas mudanças são drásticas, opacas, efetivamente não regulamentadas e de grande escala.

Disciplina de Crise

As consequências funcionais emergentes são desconhecidas. Não temos a estrutura científica necessária para responder até mesmo às questões mais básicas que as empresas de tecnologia e seus reguladores enfrentam. Por exemplo, será que um determinado algoritmo para recomendar amigos – ou um para selecionar itens de notícias a serem exibidos – promove ou impede a disseminação de desinformação online? Não temos um corpo de literatura embasado teoricamente e verificado empiricamente para informar uma resposta a tal pergunta. Na falta de uma estrutura desenvolvida, as empresas de tecnologia se atrapalharam com a pandemia de coronavírus em curso, incapazes de conter a “infodemia” de desinformação que impede a aceitação pública de medidas de controle, como máscaras e testes generalizados.

Em resposta, os reguladores e o público têm insistido nos pedidos de reforma do nosso ecossistema de mídia social, com demandas que vão desde maior transparência e controles de usuário até responsabilidade legal e propriedade pública. O debate básico é antigo: os processos comportamentais em grande escala são autossustentáveis ​​e autocorretivos, ou requerem gerenciamento e orientação ativos para promover o bem-estar sustentável e equitativo? Historicamente, essas questões sempre foram tratadas em termos filosóficos ou normativos. Aqui, construímos nossa compreensão dos sistemas complexos perturbados para argumentar que não se pode esperar que a dinâmica social humana produza soluções para questões globais ou promova o bem-estar humano sem uma política baseada em evidências e administração ética.

A situação é paralela aos desafios enfrentados na biologia da conservação e na ciência do clima, onde indústrias insuficientemente regulamentadas otimizam os seus lucros enquanto minam a estabilidade dos sistemas ecológicos. Tal comportamento criou a necessidade de uma política urgente baseada em evidências, na falta de uma compreensão completa da dinâmica subjacente dos sistemas (por exemplo, ecologia e geociências). Essas características levaram Michael Soulé a descrever a biologia da conservação como o contraponto da “disciplina de crise” à ecologia. As disciplinas de crise são distintas de outras áreas de pesquisa urgente baseada em evidências em sua necessidade de considerar a degradação de todo um sistema complexo – sem uma descrição completa da dinâmica do sistema. Sentimos que o estudo do comportamento humano coletivo deve se tornar a resposta da disciplina de crise às mudanças em nossa dinâmica social.

Como o comportamento humano coletivo é o resultado de processos que abrangem escalas temporais, geográficas e organizacionais, abordar o impacto da tecnologia emergente no comportamento global exigirá uma abordagem transdisciplinar e um colaboração sem precedentes entre cientistas em uma ampla gama de disciplinas acadêmicas. À medida que nossas sociedades são cada vez mais instanciadas na forma digital, abstrações de processos sociais – as redes são um exemplo proeminente – tornam-se partes muito reais da vida diária. Essas mudanças apresentam novos desafios, bem como oportunidades, para avaliação e intervenção. Disciplinas dentro e fora das ciências sociais têm acesso a técnicas e formas de pensar que expandem nossa capacidade de entender e responder aos efeitos da tecnologia de comunicação. Acreditamos que tal colaboração é urgentemente necessária.

Ler artigo original na íntegra:

Stewardship of Global Collective Behavior

Joseph B. Bak-Coleman, Mark Alfano, Wolfram Barfuss, Carl T. Bergstrom, Miguel A.
Proceedings of the National Academy of Sciences of the United States of America

Verdades, Mentiras e Automação

Sob licença, apresentamos a seguir, traduzido e adaptado, um muito temporâneo estudo publicado no último dia 21 pelos autores Ben Buchanan, Andrew Lohn, Micah Musser e Katerina Sedova, do Centro para Segurança e Tecnologia Emergente (CSET – Center for Security and Emerging Technology), analisando o terrivel problema da desinformação turbinada por tecnologias de “Inteligência Artificial” (mais propriamente referida como Aprendizado de Máquina). O texto é narrado na primeira pessoa do plural

Por milênios, campanhas de desinformação têm sido empreendimentos fundamentalmente humanos. Seus perpetradores misturam verdades e mentiras em potentes combinações, que visam semear a discórdia, criar dúvidas e provocar ações destrutivas. A campanha de desinformação mais famosa do século XXI – o esforço russo para interferir na eleição presidencial dos EUA de 2016- contou com centenas de pessoas trabalhando juntas para ampliar as fissuras preexistentes na sociedade americana.

Desde o início, escrever sempre foi um esforço fundamentalmente humano. Mas as coisas não são mais assim. Em 2020, a empresa OpenAI revelou o GPT-3, (Generative Pre-trained Transformer) um poderoso sistema de “inteligência artificial” que gera texto baseado em um estímulo provocado por operadores humanos. O sistema, que combina uma vasta rede neural, um poderoso algoritmo de aprendizado de máquina e mais de um trilhão de palavras de escrita humana para orientação, é notável. Entre outras realizações, ele já redigiu um artigo de opinião encomendado pelo The Guardian, escreveu histórias originais que a maioria dos leitores pensava ter sido escrita por humanos e criou novos memes para a Internet.

Diante dessa descoberta, consideramos uma questão simples, mas importante: pode a automação gerar conteúdo para campanhas de desinformação? Se o GPT-3 pode escrever notícias aparentemente confiáveis, é possível também que possa escrever notícias falsas convincentes; se pode redigir artigos de opinião, talvez possa redigir tweets enganosos.

Para resolver esta questão, primeiro apresentamos o conceito de parceria ou equipe homem-máquina, mostrando como o poder do GPT-3 deriva, em parte, do estímulo criado pelo homem, ao qual ele responde. Ganhamos acesso gratuito ao GPT-3 – um sistema que não está disponível para uso público – para estudar a capacidade do GPT-3 de produzir desinformação como parte de uma equipe homem-máquina.

Mostramos que, embora o GPT-3 seja bastante capaz por seus próprios méritos, ele atinge novos patamares de capacidade quando combinado com um operador/editor humano experiente. Como resultado, concluímos que, embora o GPT-3 não substitua totalmente os humanos nas operações de desinformação, ele é uma ferramenta que pode ajudar a criar mensagens de qualidade moderada a alta, em uma escala muito maior do que anteriormente possível.

Para chegar a esta conclusão, avaliamos o desempenho do GPT-3 em atividades que são comuns em muitas campanhas de desinformação modernas. A Tabela 1 descreve essas tarefas e o desempenho do GPT-3 em cada uma.

Tabela 1

Entre essas e outras avaliações, o GPT-3 provou ser tão poderoso como limitado. Quando estimulada de maneira adequada, a máquina funciona como um gravador versátil e eficaz que, no entanto, é limitado pelos dados nos quais foi treinada. Sua redação é imperfeita, mas essas suas desvantagens – como falta de foco na narrativa e tendência a adotar pontos de vista extremos – têm pouca importância na criação de conteúdo para campanhas de desinformação.

Caso os adversários optem por empregar esse tipo de automação em suas campanhas de desinformação, acreditamos que a implantação de um algoritmo como o GPT-3 esteja dentro da capacidade de governos estrangeiros, especialmente os que entendem de tecnologia, como China e Rússia. Será difícil, mas quase certamente possível para esses governos construir a capacidade computacional necessária para treinar e operar tal sistema, caso desejem fazer isso.

Mitigar os perigos da automação na desinformação é um desafio. Uma vez que o texto produzido pela GPT-3 combina tão bem com a escrita humana, a melhor maneira de impedir o uso de sistemas como o GPT-3 em campanhas de desinformação é se concentrar na infraestrutura usada para propagar as mensagens da campanha, como contas falsas nas redes sociais, em vez de tentar determinar a quem atribuir o texto.

Vale a pena considerar as mitigações porque nosso estudo mostra que há uma possibilidade real de se usar ferramentas automatizadas para gerar conteúdos para campanhas de desinformação. Em particular, nossos resultados devem ser encarados como uma estimativa pessimista do que sistemas como o GPT-3 podem oferecer. Adversários não limitados por preocupações éticas e estimulados por grandes recursos e capacidade técnica, provavelmente serão capazes de usar sistemas como o GPT-3 de maneira mais abrangente do que nós nesta pesquisa, embora seja difícil saber se eles realmente vão optar por essa linha de ação.

Em particular, com a infraestrutura certa, eles provavelmente serão capazes de aproveitar a escalabilidade que tais sistemas automatizados oferecem, gerando um grande número de mensagens e inundando o cenário de informações com as criações mais mirabolantes.

Nosso estudo mostra a plausibilidade – mas não a inevitabilidade – desse futuro, no qual mensagens automatizadas de divisão política e informações enganosas se propagam pela Internet. Enquanto mais desenvolvimentos ainda certamente estejam por vir, um fato já é aparente: as máquinas construídas por humanos agora podem ajudar a temperar a verdade e a mentira a serviço da desinformação.

Publicado sob a licença Creative Commons nc 4.0

Link para o trabalho original, na íntegra:

Sobre Democracia, Fake News e Amigos

Sou um racionalista hard-core, com um espírito curioso, voltado à honesta busca da verdade final. A existência desse conceito absurdo de “notícia falsa” (tal como o conhecemos agora) em pleno século vinte e um, é algo que literalmente me deprime e me faz duvidar de minha fé na humanidade. Com a evolução da crise da Covid, e depois de perder um número proibitivamente alto de amigos em virtude das controvérsias geradas por elas, sinto que o problema começa a afetar seriamente a minha esfera pessoal. Paladino da Ciência que sou, e para acalmar os meus sentidos, decidi empreender uma pesquisa – que eu chamaria de sistemática – da literatura sobre Fake News, a qual compartilho a seguir, no mui adequado formato de ‘prosa blogueana’.

As fake news costumam ser estudadas ao longo de quatro linhas principais: caracterização, criação, circulação e combate. O exato modelo de como caracterizar notícias falsas tem sido muito debatido na academia, uma vez que a definição do termo é ainda controversa. Diferentes tipos de noticias falsas têm diferentes gradações entre intenção e facticidade. Quanto às outras linhas de pesquisa, aquelas voltadas à criação dizem respeito à produção de notícias falsas, frequentemente com motivação financeira, política ou social. As dedicadas à circulação de notícias falsas referem-se às diferentes maneiras pelas quais as informações falsas são disseminadas e amplificadas, geralmente por meio de tecnologias de comunicação, como mídias sociais e mecanismos de busca. Por último, o combate às notícias falsas aborda a multiplicidade de técnicas para detectar e combatê-las em diferentes níveis, levando-se em conta desde os aspectos jurídicos, financeiros e técnicos até a alfabetização individual em mídia e informação e novos serviços de verificação de fatos.

Fake News foi eleita a palavra [ou expressão] do ano em 2017 pelo Dicionário Collins. Em 2017, o uso do termo havia aumentado 365% com relação à 2016 (Dicionário Collins, 2017). A eleição presidencial americana em 2016 colocara o fenômeno na agenda internacional.

Mas embora o termo pareça relativamente novo, os fenômenos que ele cobre são antigos. Manipulação, desinformação, falsidade, rumores, teorias da conspiração – ações e comportamentos frequentemente associados ao termo – existem desde que os humanos se comunicam. A novidade do termo, neste contexto, está relacionada à forma como as informações falsas ou enganosas são produzidas, distribuídas e consumidas por meio da tecnologia de comunicação digital.

Fiz um apanhado da literatura, e inúmeros trabalhos sobre o tema, escritos desde o início do século vinte, vieram à tona – que, por brevidade, limito aqui a poucos exemplos:

.Em uma coluna publicada no The Atlantic em 1919, Walter Lippmann expôs uma visão abrangente dos problemas que a propaganda representava para a sociedade ocidental moderna (Sproule, 1997).

.Lippmann argumentou que a função básica da democracia era proteger as notícias – a fonte da opinião pública – da mácula da propaganda. Nenhuma sociedade moderna sem meios adequados para detectar mentiras pode se considerar livre (Lippmann, 1922).

.Sem informações confiáveis, será difícil para as democracias continuarem a funcionar. Notícias falsas e desinformação são símbolos de um problema social mais amplo: a manipulação da opinião pública para infuenciar o mundo real (Gu, Kropotov e Yarochkin, 2017).

Mas mesmo que a desinformação seja a esta altura um fenômeno histórico, cada nova tecnologia de comunicação permite novas maneiras de manipular notícias e amplificar rumores. Manter o passo alinhado com as novas tecnologias de informação digital requer novas maneiras de enfrentar os desafios; um certo pensar-fora-da-caixa. Informações falsas disfarçadas de notícias já criaram sérias preocupações materiais e humanas em muitos países. Diferentes pesquisadores a chamaram por diferentes nomes:

.Poluição da informação (Wardle & Hossein, 2017),

.Manipulação da mídia (Warwick & Lewis, 2017) ou

.Guerra de informação (Khaldarova & Pantti, 2016).

Em minhas conversas e vivências, noto que um ponto comum entre as pessoas que têm uma vida intelectual é um certo desconforto existencial, a sensação íntima e presente, de que informações falsas poluem a esfera pública e podem prejudicar a democracia de maneira imprevisivel. Conforme argumentado por Warwick e Lewis, “a manipulação das redes sociais pode contribuir para a diminuição da confiança na mídia convencional, aumento da desinformação e maior radicalização” (2017).

Além de tudo isso, políticos e outros atores poderosos se apropriaram do termo para caracterizar a cobertura negativa da mídia sobre suas ações. Mais notoriamente, e mais de uma vez, o presidente americano Donald Trump rotulou meios de comunicação como a CNN ou o The New York Times como fake news. O mesmo se dá aqui no Brasil, com o presidente engajado em uma jihad pessoal contra a mídia tradicional. Conforme relatado pelo New York Times, em países onde a liberdade de imprensa é restrita ou está sob considerável ameaça – como Rússia, China, Turquia, Líbia, Polônia, Hungria, Tailândia, Somália e outros [ahem, Brasil] – os líderes políticos já invocaram as fake news como justificativa para repelir o escrutínio da mídia. Ao sugerir que as notícias não podem ser confiáveis e ao rotulá-las como notícias falsas, os políticos deliberadamente minam a confiança no jornalismo e nos meios de comunicação, uma das principais instituições em nações democráticas baseadas na liberdade de expressão e de imprensa.

Mais pesquisas sobre a escala e o escopo da desinformação em diferentes países são necessárias para descrever com precisão a magnitude e as características do problema. Para os estudantes de jornalismo, este recente debate sobre a desinformação tem sido uma evocação valiosa das raízes de sua profissão: avaliação crítica de informações e fontes; responsabilidade e códigos de conduta ética. O aumento dos esforços pela transparência, tanto na ecologia das plataformas de informação quanto nos métodos jornalísticos, pode, a longo prazo, aumentar a confiança do público em relação a como a informação é tratada e amplificada tanto pelas plataformas sociais quanto pelas redações da mídia profissional.

Novas ferramentas e métodos – incluindo alfabetização midiática e informacional – para identificar e detectar conteúdo manipulado, seja ele texto, imagens, vídeos ou áudio, são necessários, se queremos conter as tentativas de manipulação de diferentes atores. Em vez de tentar legislar sobre o problema – que se tornou por demais politizado – ou ceder ao ímpeto repressivo, os atores políticos e as instituições devem reconhecer que têm um papel importante a desempenhar na melhoria da qualidade do ecossistema de informações, por meio do financiamento à pesquisa e do apoio à mídia independente e pelo compartilhamento de dados com o público.

* * *

(*) Este post foi editado em 13/05 para correções de digitação e pequenos ajustes de estilo.

Pânico Moral e Extremismo na Rede

Em conversa com um grupo de desenvolvimento de software em um dos fóruns da Web, o assunto acabou descambando para o fenômeno do extremismo na rede, que leva à atual polarização política. À medida que a conversa evoluia, começaram a ser apontados alguns alguns paralelos históricos com o momento presente, como os repetidos episódios de pânico moral que o mundo enfrentou em vários momentos de mudanças culturais chave.

O tema básico da conversa pode ser resumido na segunte premissa: Uma vez que o extremismo assume o comando, não há limite para até que ponto ele chegará, até que toda a comunidade imploda.

Em primeiro lugar, uma definição de pânico moral: pânico moral é um medo generalizado, na maioria das vezes irracional, de que alguém ou um grupo é uma ameaça aos valores, segurança e interesses de uma comunidade ou sociedade em geral. Normalmente, o pânico moral é perpetuado pela mídia de notícias, alimentado por políticos e muitas vezes resulta na passagem de novas leis ou políticas que visam a fonte do pânico (minorias em geral). O pânico moral sempre promove polarização política e o aumento do controle social.

Para ser justos na abordagem do tema, temos que reconhecer que pessoas são apenas humanos sendo humanos. Um olhar superficial pela história revela que esta é a norma do mundo. De um ponto de vista evolucionário, nós sentimos pânico moral para cimentar nosso lugar nos nossos respectivos grupos sociais, e temos uma necessidade quase obsessiva de ter um grupo de “outros” a quem culpar os problemas da sociedade. Sejam eles creches satânicas, comunistas, ateus, bruxas, racistas, transfóbicos, católicos, protestantes… claramente, e eu quero dizer claramente, isso é o que os humanos fazem. Pelo menos um grande número de nós. É um fato incrivelmente consistente e repetido através da história.

O que é fascinante é que cada geração se convence de que ela progrediu além desse traço profundamente humano, e insiste em que nesta geração, e só desta vez, seu preconceito pelos outros é nobre e existe para servir um bem social maior. “Todos os outros fanáticos estavam errados, mas desta vez, nós conseguimos fazer certo! O Preconceito finalmente curará o preconceito! Espere e você verá! “

Claro que isso nunca acontece, e quando a poeira se instala depois dos debates e das lutas, a maioria dos apóstolos do pânico moral sente algum constrangimento e tenta se distanciar do seu comportamento passado. Eles na verdade estavam viciados na liberação de dopamina que estar no grupo com poder propiciava. Para não mencionar que, com tantas outras pessoas para culpar, eles não precisavam reconhecer nenhuma de suas próprias falhas. Afinal, pelo menos, eles não são “outros”.

Central para o pânico moral é o pensamento preto/branco que o perpetua. Você é muito bom ou muito ruim. Não há área cinzenta. Se a pessoa tem a opinião x, não mais importa o que ela faz. Ela é má.

É um tipo de histeria em massa e exemplos do passado se contam às centenas, se não milhares. Infelizmente, faz parte do comportamento da massa humana.

O que mudou, é que tal comportamento costumava ser mais fortemente praticado pelos religiosos. Desta vez, os poderes do mundo mudaram seu método: ao invés de explorar o medo, exploram o narcisismo, e têm agora até os mais educados da sociedade sob controle.

Isso é desalentador, pois parece que não temos mais nenhum grupo com resistência cognitiva ou pensamento crítico sólido, à medida em que mais e mais pessoas assumem uma atitude de total sinalização de virtude (em oposição à verdadeira ação virtuosa), alienação e servilismo ao pensamento grupal.

O que no fim de tudo acontece é que, à medida em que mais e mais pessoas se tornam incapazes de manter a ilusão – e todos os apóstolos do pânico moral são iludidos, em diferentes graus – o custo de manter a identidade grupal torna-se muito inconveniente frente à realidade da situação, e uma inevitável reação toma lugar. Então as desculpas começam… “Nossa, eu nunca pensei que a Gestapo fosse tão má… Ei, e não fui o único que sinalizou virtude para eles… “

Então, outro bicho-papão é escolhido e o ciclo recomeça. O que você está testemunhando é a condição humana fazendo o que faz.