Verdades, Mentiras e Automação

Sob licença, apresentamos a seguir, traduzido e adaptado, um muito temporâneo estudo publicado no último dia 21 pelos autores Ben Buchanan, Andrew Lohn, Micah Musser e Katerina Sedova, do Centro para Segurança e Tecnologia Emergente (CSET – Center for Security and Emerging Technology), analisando o terrivel problema da desinformação turbinada por tecnologias de “Inteligência Artificial” (mais propriamente referida como Aprendizado de Máquina). O texto é narrado na primeira pessoa do plural

Por milênios, campanhas de desinformação têm sido empreendimentos fundamentalmente humanos. Seus perpetradores misturam verdades e mentiras em potentes combinações, que visam semear a discórdia, criar dúvidas e provocar ações destrutivas. A campanha de desinformação mais famosa do século XXI – o esforço russo para interferir na eleição presidencial dos EUA de 2016- contou com centenas de pessoas trabalhando juntas para ampliar as fissuras preexistentes na sociedade americana.

Desde o início, escrever sempre foi um esforço fundamentalmente humano. Mas as coisas não são mais assim. Em 2020, a empresa OpenAI revelou o GPT-3, (Generative Pre-trained Transformer) um poderoso sistema de “inteligência artificial” que gera texto baseado em um estímulo provocado por operadores humanos. O sistema, que combina uma vasta rede neural, um poderoso algoritmo de aprendizado de máquina e mais de um trilhão de palavras de escrita humana para orientação, é notável. Entre outras realizações, ele já redigiu um artigo de opinião encomendado pelo The Guardian, escreveu histórias originais que a maioria dos leitores pensava ter sido escrita por humanos e criou novos memes para a Internet.

Diante dessa descoberta, consideramos uma questão simples, mas importante: pode a automação gerar conteúdo para campanhas de desinformação? Se o GPT-3 pode escrever notícias aparentemente confiáveis, é possível também que possa escrever notícias falsas convincentes; se pode redigir artigos de opinião, talvez possa redigir tweets enganosos.

Para resolver esta questão, primeiro apresentamos o conceito de parceria ou equipe homem-máquina, mostrando como o poder do GPT-3 deriva, em parte, do estímulo criado pelo homem, ao qual ele responde. Ganhamos acesso gratuito ao GPT-3 – um sistema que não está disponível para uso público – para estudar a capacidade do GPT-3 de produzir desinformação como parte de uma equipe homem-máquina.

Mostramos que, embora o GPT-3 seja bastante capaz por seus próprios méritos, ele atinge novos patamares de capacidade quando combinado com um operador/editor humano experiente. Como resultado, concluímos que, embora o GPT-3 não substitua totalmente os humanos nas operações de desinformação, ele é uma ferramenta que pode ajudar a criar mensagens de qualidade moderada a alta, em uma escala muito maior do que anteriormente possível.

Para chegar a esta conclusão, avaliamos o desempenho do GPT-3 em atividades que são comuns em muitas campanhas de desinformação modernas. A Tabela 1 descreve essas tarefas e o desempenho do GPT-3 em cada uma.

Tabela 1

Entre essas e outras avaliações, o GPT-3 provou ser tão poderoso como limitado. Quando estimulada de maneira adequada, a máquina funciona como um gravador versátil e eficaz que, no entanto, é limitado pelos dados nos quais foi treinada. Sua redação é imperfeita, mas essas suas desvantagens – como falta de foco na narrativa e tendência a adotar pontos de vista extremos – têm pouca importância na criação de conteúdo para campanhas de desinformação.

Caso os adversários optem por empregar esse tipo de automação em suas campanhas de desinformação, acreditamos que a implantação de um algoritmo como o GPT-3 esteja dentro da capacidade de governos estrangeiros, especialmente os que entendem de tecnologia, como China e Rússia. Será difícil, mas quase certamente possível para esses governos construir a capacidade computacional necessária para treinar e operar tal sistema, caso desejem fazer isso.

Mitigar os perigos da automação na desinformação é um desafio. Uma vez que o texto produzido pela GPT-3 combina tão bem com a escrita humana, a melhor maneira de impedir o uso de sistemas como o GPT-3 em campanhas de desinformação é se concentrar na infraestrutura usada para propagar as mensagens da campanha, como contas falsas nas redes sociais, em vez de tentar determinar a quem atribuir o texto.

Vale a pena considerar as mitigações porque nosso estudo mostra que há uma possibilidade real de se usar ferramentas automatizadas para gerar conteúdos para campanhas de desinformação. Em particular, nossos resultados devem ser encarados como uma estimativa pessimista do que sistemas como o GPT-3 podem oferecer. Adversários não limitados por preocupações éticas e estimulados por grandes recursos e capacidade técnica, provavelmente serão capazes de usar sistemas como o GPT-3 de maneira mais abrangente do que nós nesta pesquisa, embora seja difícil saber se eles realmente vão optar por essa linha de ação.

Em particular, com a infraestrutura certa, eles provavelmente serão capazes de aproveitar a escalabilidade que tais sistemas automatizados oferecem, gerando um grande número de mensagens e inundando o cenário de informações com as criações mais mirabolantes.

Nosso estudo mostra a plausibilidade – mas não a inevitabilidade – desse futuro, no qual mensagens automatizadas de divisão política e informações enganosas se propagam pela Internet. Enquanto mais desenvolvimentos ainda certamente estejam por vir, um fato já é aparente: as máquinas construídas por humanos agora podem ajudar a temperar a verdade e a mentira a serviço da desinformação.

Publicado sob a licença Creative Commons nc 4.0

Link para o trabalho original, na íntegra:

Sobre Democracia, Fake News e Amigos

Sou um racionalista hard-core, com um espírito curioso, voltado à honesta busca da verdade final. A existência desse conceito absurdo de “notícia falsa” (tal como o conhecemos agora) em pleno século vinte e um, é algo que literalmente me deprime e me faz duvidar de minha fé na humanidade. Com a evolução da crise da Covid, e depois de perder um número proibitivamente alto de amigos em virtude das controvérsias geradas por elas, sinto que o problema começa a afetar seriamente a minha esfera pessoal. Paladino da Ciência que sou, e para acalmar os meus sentidos, decidi empreender uma pesquisa – que eu chamaria de sistemática – da literatura sobre Fake News, a qual compartilho a seguir, no mui adequado formato de ‘prosa blogueana’.

As fake news costumam ser estudadas ao longo de quatro linhas principais: caracterização, criação, circulação e combate. O exato modelo de como caracterizar notícias falsas tem sido muito debatido na academia, uma vez que a definição do termo é ainda controversa. Diferentes tipos de noticias falsas têm diferentes gradações entre intenção e facticidade. Quanto às outras linhas de pesquisa, aquelas voltadas à criação dizem respeito à produção de notícias falsas, frequentemente com motivação financeira, política ou social. As dedicadas à circulação de notícias falsas referem-se às diferentes maneiras pelas quais as informações falsas são disseminadas e amplificadas, geralmente por meio de tecnologias de comunicação, como mídias sociais e mecanismos de busca. Por último, o combate às notícias falsas aborda a multiplicidade de técnicas para detectar e combatê-las em diferentes níveis, levando-se em conta desde os aspectos jurídicos, financeiros e técnicos até a alfabetização individual em mídia e informação e novos serviços de verificação de fatos.

Fake News foi eleita a palavra [ou expressão] do ano em 2017 pelo Dicionário Collins. Em 2017, o uso do termo havia aumentado 365% com relação à 2016 (Dicionário Collins, 2017). A eleição presidencial americana em 2016 colocara o fenômeno na agenda internacional.

Mas embora o termo pareça relativamente novo, os fenômenos que ele cobre são antigos. Manipulação, desinformação, falsidade, rumores, teorias da conspiração – ações e comportamentos frequentemente associados ao termo – existem desde que os humanos se comunicam. A novidade do termo, neste contexto, está relacionada à forma como as informações falsas ou enganosas são produzidas, distribuídas e consumidas por meio da tecnologia de comunicação digital.

Fiz um apanhado da literatura, e inúmeros trabalhos sobre o tema, escritos desde o início do século vinte, vieram à tona – que, por brevidade, limito aqui a poucos exemplos:

.Em uma coluna publicada no The Atlantic em 1919, Walter Lippmann expôs uma visão abrangente dos problemas que a propaganda representava para a sociedade ocidental moderna (Sproule, 1997).

.Lippmann argumentou que a função básica da democracia era proteger as notícias – a fonte da opinião pública – da mácula da propaganda. Nenhuma sociedade moderna sem meios adequados para detectar mentiras pode se considerar livre (Lippmann, 1922).

.Sem informações confiáveis, será difícil para as democracias continuarem a funcionar. Notícias falsas e desinformação são símbolos de um problema social mais amplo: a manipulação da opinião pública para infuenciar o mundo real (Gu, Kropotov e Yarochkin, 2017).

Mas mesmo que a desinformação seja a esta altura um fenômeno histórico, cada nova tecnologia de comunicação permite novas maneiras de manipular notícias e amplificar rumores. Manter o passo alinhado com as novas tecnologias de informação digital requer novas maneiras de enfrentar os desafios; um certo pensar-fora-da-caixa. Informações falsas disfarçadas de notícias já criaram sérias preocupações materiais e humanas em muitos países. Diferentes pesquisadores a chamaram por diferentes nomes:

.Poluição da informação (Wardle & Hossein, 2017),

.Manipulação da mídia (Warwick & Lewis, 2017) ou

.Guerra de informação (Khaldarova & Pantti, 2016).

Em minhas conversas e vivências, noto que um ponto comum entre as pessoas que têm uma vida intelectual é um certo desconforto existencial, a sensação íntima e presente, de que informações falsas poluem a esfera pública e podem prejudicar a democracia de maneira imprevisivel. Conforme argumentado por Warwick e Lewis, “a manipulação das redes sociais pode contribuir para a diminuição da confiança na mídia convencional, aumento da desinformação e maior radicalização” (2017).

Além de tudo isso, políticos e outros atores poderosos se apropriaram do termo para caracterizar a cobertura negativa da mídia sobre suas ações. Mais notoriamente, e mais de uma vez, o presidente americano Donald Trump rotulou meios de comunicação como a CNN ou o The New York Times como fake news. O mesmo se dá aqui no Brasil, com o presidente engajado em uma jihad pessoal contra a mídia tradicional. Conforme relatado pelo New York Times, em países onde a liberdade de imprensa é restrita ou está sob considerável ameaça – como Rússia, China, Turquia, Líbia, Polônia, Hungria, Tailândia, Somália e outros [ahem, Brasil] – os líderes políticos já invocaram as fake news como justificativa para repelir o escrutínio da mídia. Ao sugerir que as notícias não podem ser confiáveis e ao rotulá-las como notícias falsas, os políticos deliberadamente minam a confiança no jornalismo e nos meios de comunicação, uma das principais instituições em nações democráticas baseadas na liberdade de expressão e de imprensa.

Mais pesquisas sobre a escala e o escopo da desinformação em diferentes países são necessárias para descrever com precisão a magnitude e as características do problema. Para os estudantes de jornalismo, este recente debate sobre a desinformação tem sido uma evocação valiosa das raízes de sua profissão: avaliação crítica de informações e fontes; responsabilidade e códigos de conduta ética. O aumento dos esforços pela transparência, tanto na ecologia das plataformas de informação quanto nos métodos jornalísticos, pode, a longo prazo, aumentar a confiança do público em relação a como a informação é tratada e amplificada tanto pelas plataformas sociais quanto pelas redações da mídia profissional.

Novas ferramentas e métodos – incluindo alfabetização midiática e informacional – para identificar e detectar conteúdo manipulado, seja ele texto, imagens, vídeos ou áudio, são necessários, se queremos conter as tentativas de manipulação de diferentes atores. Em vez de tentar legislar sobre o problema – que se tornou por demais politizado – ou ceder ao ímpeto repressivo, os atores políticos e as instituições devem reconhecer que têm um papel importante a desempenhar na melhoria da qualidade do ecossistema de informações, por meio do financiamento à pesquisa e do apoio à mídia independente e pelo compartilhamento de dados com o público.

* * *

(*) Este post foi editado em 13/05 para correções de digitação e pequenos ajustes de estilo.