Abuso Psicológico nas Redes: da AOL ao Facebook

Era uma vez, há cerca de trinta anos, uma rede de computadores chamada America Online. Já existia uma Internet, mas a maioria das pessoas não sabia de sua existência ou sobre como usá-la. A AOL e alguns concorrentes, Compuserve e Prodigy, ofereciam às pessoas atividades simples que elas podiam fazer online, como conversar com outras pessoas. Os serviços tinham apenas uma desvantagem: eram limitados.

Imagem: iStock

As pessoas não podiam fazer o que queriam, só podiam escolher o que havia em um pequeno menu de funções que os serviços disponibilizavam.

À medida que crescia e crescia, a World Wide Web se tornava um lugar incrível, em contraste com a AOL. As pessoas estavam tão empolgadas com a World Wide Web que nunca mais quiseram voltar para a AOL, Compuserve ou Prodigy. Os três serviços definharam.

Entra na história o Facebook

As pessoas ficaram entusiasmadas com o Facebook porque era um lugar onde podiam encontrar pessoas reais que elas conheciam, assim como o MySpace, mas também porque tinha alguns recursos também comuns a AOL, como o jogo Farmville. As empresas ficavam cada vez mais entusiasmadas porque o Facebook começou a gerar muita receita de publicidade.

Os anunciantes gostavam do Facebook porque ele não apenas sabia quem estava falando com quem, mas também sabia bastante sobre os hobbies e interesses das pessoas. Os anunciantes gostaram disso porque podiam agora usar as informações para “direcionar” seus anúncios como nunca antes. Acadêmicos e pundits diziam que o Facebook tinha o que é conhecido como “efeito de rede”. Ele se tornava mais poderoso quanto mais pessoas se juntavam a ele.

Acontece que havia alguns problemas com o Facebook. O Facebook era muito parecido com a AOL. Limitava as pessoas, dizendo-lhes com quem podiam se comunicar. Depois de um tempo, as pessoas não tinham mais controle. Elas haviam fornecido tantas informações íntimas para o Facebook e seus concorrentes que era como se essas empresas fossem donas das pessoas quando elas estavam no ciberespaço. Esses serviços também não pareciam fazer um bom trabalho com as informações que acumulavam sobre os usuários.

Por causa de seu notório sigilo, é difícil saber o quão consciente o Facebook está a respeito dos danos que ele causa a seus “usuários”. Por exemplo, em setembro de 2019, a Insider Magazine publicou um artigo que analisava dados do CDC [Centro de Controle de Doenças dos EUA] a respeito do suicídio de adolescentes nos Estados Unidos.

Eu me pergunto quantos desses adolescentes foram empurrados para o abismo graças a comentários descuidados no Facebook? Quantas outras Michelles Carters [link em inglês] existem por aí?

O problema mais amplo que enfrentamos como sociedade é que simplesmente não sabemos o quão nocivas as redes sociais podem ser. Esse problema das redes sociais é muito parecido com a luta que enfrentamos com as empresas de tabaco – que sempre souberam o quão prejudicial o tabaco era, mas se esforçavam para esconder a pesquisa que eles mesmos realizavam comprovando os fatos. As empresas petroquímicas também se encaixam nesse perfil, com seus próprios cientistas alertando sobre a ligação entre combustíveis fósseis e o aquecimento global.

Há um crescente corpo de evidências a nos indicar que o que o Facebook faz não é apenas algo “inofensivo” como “publicidade direcionada”. Seria muito mais preciso descrever seu modus operandi como “manipulação psicológica”. Essas evidências sugerem que, no contexto amplo da sociedade, a dinâmica entre o Facebook e seus usuários é uma forma de abuso psicológico.

Combater o problema

Talvez seja hora de reunirmos algum tipo de Comissão Parlamentar de Inquérito [sob os auspícios da OMS] e fazer com que se exija, para o bem da saúde pública, que todas as grandes redes sociais sejam obrigadas a entregar detalhes de todas as “análises internas” que possuem sobre os efeitos de sua plataforma em sua base de usuários. Essa CPI idealmente deve ter autoridade para forçar o testemunho de todos profissionais de psicologia empregados por essas empresas.

Na verdade, talvez seja hora de determinar que todas essas empresas [acima de um determinado tamanho de base de usuários] devem, por lei, ter psicólogos clínicos na equipe e exigir que esse pessoal esteja envolvido na supervisão das decisões estratégicas em relação ao design e implementação dos recursos da plataforma.

Há uma expressão comumente usada em sistemas legais do Ocidente: “Ignorância da lei não é defesa”. No Brasil, o artigo 3 da Introdução ao Código Civil dispõe: “Ninguém se escusa de cumprir a lei alegando que não a conhece” Por uma linha de pensamento semelhante, ocultar atos de dano criminoso ou negligência parece, à primeira vista, tornar uma corporação cúmplice, se o ato original atingir o nível de comportamento criminoso.

Infelizmente, as coisas começam a ficar muito obscuras quando você explora o desafio de definir “dano mental” em termos de um ato criminoso. Pelo que li antes de postar este comentário, o problema fica quase intratável quando combinamos o desafio de estabelecer o grau de dano que um indivíduo pode sofrer, com o desafio de demonstrar que o dano veio como resultado direto das ações das corporações. Perguntas complexas surgem: o usuário/paciente era predisposto? Era vulnerável, emocional ou mentalmente?

Em outras palavras, parece ser bastante possível que uma empresa estabeleça um modelo de negócios nocivo ao bem-estar emocional e/ou mental de usuários e ainda assim opere impunemente, escondendo-se atrás da dificuldade de se provar que a empresa foi a causadora do dano.

É o que provavelmente pode estar acontecendo agora: estamos bloqueados nas nossas ações – cientes de que há um dano sendo causado pelas redes sociais, mas incapazes de fazer qualquer coisa a respeito.

Rolling Stones: os Primeiros Streamers

Não é grande coisa hoje em dia, mas em 1994 era ENORME! Nesse dia, em 1994, quando a internet ainda estava engatinhando, os Rolling Stones se tornaram uma das primeiras bandas a transmitir um de seus shows pela “rede mundial de computadores”.

A banda em um show não identificado – Imagem: Dallas Morning News (Fair Use)

Os Stones transmitiram pela web 20 minutos de sua apresentação no Cotton Bowl em Dallas (em sua turnê Voodoo Lounge) usando o sistema o Multicast BackBone [MBone]. Em universidades e laboratórios de pesquisa com conexões MBone, os fãs se aglomeraram em torno das telas dos computadores para assistir ao vídeo de varredura lenta. As críticas decididamente não foram entusiásticas devido à baixa qualidade da imagem.

Os Stones tocaram “Not Fade Away”, “Tumbling Dice”, “You Got Me Rocking”, “Shattered” e “Rocks Off”. No meio do set, Mick Jagger anunciou ao vivo para os fãs em Dallas e aqueles conectados virtualmente através do backbone multicast (MBone):

“Eu quero dar as boas-vindas a todos que subiram na internet esta noite e entraram no MBone. Espero que ele não caia”

Desde então, o mundo do streaming de vídeo sofreu muitas mudanças. Na década de 1990, enquanto a indústria lutava com desafios técnicos de tráfego de vídeo multicast, os protocolos de download HTTP e streaming com estado [stateful] começaram a ocupar o centro do palco. Em 1996, Netscape, RealNetworks, Borland, NeXT e 36 outras empresas deram seu peso ao Real Time Streaming Protocol (RTSP).

Em 2002, a Macromedia lançou o Flash Communication Server MX 1.0 com suporte para o que se tornaria o protocolo mais amplamente adotado para streaming orientado a conexão, o Real Time Messaging Protocol (RTMP). E em 2005, o YouTube foi lançado, lembrando aos usuários da internet que, pelo menos para vídeos curtos, o download progressivo por HTTP ainda era uma opção muito viável.

Então, em 2008, a Microsoft introduziu o Smooth Streaming, uma abordagem híbrida para transmissão de vídeo que oferecia protocolos de streaming personalizados, aproveitando-se do protocolo HTTP e da infraestrutura de rede existente. Em agosto do mesmo ano, a Microsoft e a NBC usaram o Smooth Streaming para transmitir ao vivo cada minuto de cada evento dos Jogos Olímpicos de Pequim para mais de 50 milhões de telespectadores em todo o mundo. Em um único evento, o “Modern Streaming” provou que a Internet era capaz de produzir vídeos escalonáveis, confiáveis ​​e com qualidade de transmissão.

Nos anos que se seguiram, o Modern Streaming rapidamente ganhou impulso, com a Apple introduzindo o HTTP Live Streaming (HLS), a Adobe lançando o HTTP Dynamic Streaming (HDS) e as principais empresas de mídia e streaming colaborando no MPEG-DASH. As inovações em Smooth Streaming, HLS, HDS e DASH geraram um ressurgimento na transmissão de vídeo baseada em HTTP e hoje estão remodelando a forma como as empresas e universidades transmitem conteúdo de mídia em suas redes.


Descanse em paz, Charlie Watts, baterista de Jazz, Rock’n’roller e Gentleman. 1941-2021 – Imagem: Rolling Stones – divulgação

A Apple Entrega os Pontos

A blogosfera está em polvorosa após o anúncio dos novos planos da Apple para monitorar o conteúdo que seus produtos usuários levantam para a iCloud. Nosso blog não pode ficar fora dessa conversa. Assim, buscamos com este post inaugurar essa discussão em português [uma vez que não tenho visto esse assunto alhures na mídia lusófona].

Eu sei que ninguém gosta de falar sobre de segurança na rede e o preço a pagar pela insistência nesse assunto pode ser a alienação dos leitores. Mas quis o destino que eu fosse a pessoa a falar dos assuntos desagradáveis – mas necessários. Sempre tentou-se aqui ilustrar por que os modelos de negócio do Google ou do Facebook [assim como os de todas as redes sociais] representam uma ameaça à privacidade e segurança das pessoas. É muito difícil explicar por que o novo mecanismo da Apple é ainda pior.

Na verdade, enquanto eu rascunhava esta postagem, Matthew Green e Alex Stamos publicaram um artigo no New York Times em que fazem uma boa tentativa de explicar, de forma concisa, essa questão para um público não técnico. Parece que há esperança. Não é minha intenção dar aqui uma explicação exaustiva do que exatamente a Apple planeja fazer, mesmo porque muitos outros artigos excelentes já foram escritos sobre isto na última semana.

Em essência, o iOS 15 introduzirá um mecanismo que permite comparar as fotos do telefone do usuário com um banco de dados de conteúdo CSAM [Child Sexual Abuse Materials – Material de Abuso Sexual de Crianças], e essa comparação começará no dispositivo do usuário. Essa é a grande diferença entre a abordagem da Apple e a de quase todas as outras empresas que hospedam grandes bibliotecas de fotos online. Um parágrafo do artigo de Ben Thompson publicado ontem resume muito bem:

Em vez de limitar a varredura CSAM ao iCloud Photos – a ‘nuvem’ que eles possuem e operam – a Apple resolveu comprometer o telefone de propriedade dos usuários, sem que nenhum deles tenha uma palavra a dizer sobre o assunto. Sim, você ainda pode desligar o iCloud Photos para desabilitar o monitoramento da Apple individualmente. Mas o que está em jogo é uma questão política: a capacidade de penetrar o telefone de um usuário agora existe e não há nada que um usuário de iPhone possa fazer para se livrar dela.

É claro que você poderia dizer que este é um tipo de argumento falacioso do tipo “ladeira escorregadia” [a ideia de que uma vez que algo é permitido não há mais caminho de volta] e que não deveríamos ficar tão preocupados. Talvez você dissesse que de fato devemos confiar que a Apple não usará essa funcionalidade para nenhuma outra finalidade.

Deixando de lado o absurdo de confiar em uma corporação gigante com fins lucrativos [em vez de um governo eleito democraticamente], devemos ter em mente que o histórico de privacidade da Apple até aqui tem sido muito menos estelar do que eles gostariam que pensássemos. A empresa coopera com o governo chinês, por exemplo, armazenando dados pessoais de cidadãos chineses apenas em servidores administrados por uma empresa chinesa, e já cancelou seus planos de disponibilizar a criptografia de backups no iCloud – sob pressão do FBI.

A Apple divulgou uma FAQ na terça-feira na qual tentou esclarecer e resolver os questionamentos, mas se alguma coisa aconteceu foi apenas a confirmação do que todos nós já presumiamos ser verdade: a política interna da Apple é agora a única coisa que impede qualquer agência governamental ou outro agente malicioso de inserir certos arquivos de imagem [por exemplo, fotografias de casais homossexuais em países onde a homossexualidade é ilegal] no registro CSAM.

Porta dos fundos sempre aberta

No mundo da segurança de computadores, essa tecnologia tem um nome: é chamada de “backdoor”. Uma porta dos fundos [para acesso remoto ao aparelho], neste caso bem documentada e bem intencionada, mas ainda assim uma porta dos fundos – instalada e ativada por padrão em milhões de dispositivos em todo o mundo.

Por que diabos a Apple, uma empresa que vem construindo uma imagem de proteção à privacidade nos últimos anos, escolheria tal solução? E por que agora?

A hipótese que muitos analistas de segurança consideram é que a Apple deseja se distanciar do trabalho tóxico e ingrato de verificar os dados dos usuários. Ela têm lutado com o FBI e o governo federal americano há anos. Ela também tem resistido a relatar o conteúdo CSAM que ela encontra nos iPhones ao Centro Nacional para Crianças Desaparecidas e Exploradas [National Center for Missing & Exploited Children – NCMEC].

Mas o fato é que parece que eles não querem mais se envolver em nada disso. Eles querem criar uma situação em que possam oferecer criptografia de ponta a ponta para seus produtos [iMessage, iCloud Drive, etc] e, ao mesmo tempo, manter perante o ‘establishment’ a postura de conformidade com a lei e os costumes. Essa pode ser a única maneira de a Apple ter ‘dois pássaros na mão’.

E ainda mais: devido à forma como o mecanismo é implementado, a Apple não precisa ver os dados reais do usuário. A foto do usuário é convertida em um hash [assinatura digital]. Esse hash é comparado aos hashes de imagens armazenadas em um banco de dados de fotos ‘manjadas’ – mantido pelo FBI em um servidor. A Apple, portanto, não verá o conteúdo das imagens. Só saberá se há uma correspondência entre os hashes do telefone e dos dados do servidor.

Fluxo de trabalho do monitoramento de imagens suspeitas nos produtos Apple. As assinaturas das imagens no celular do usuário são comparadas com as assinaturas das imagens de um banco de dados de referência. Se houver correspondência a Apple avalia o material e, se for o caso, encaminha às autoridades competentes. Gráfico: Vox Leone.

Dessa forma, em suas campanhas de marketing ela ainda poderá alegar que respeita a privacidade do usuário. E se esse mecanismo for usado para qualquer outra coisa, eles sempre podem alegar que estão simplesmente cumprindo as regulamentações locais e que eles próprios não censuram nem olham os dados nos telefones de seus usuários.

Infelizmente, devido à natureza intrinsecamente técnica do problema, acredito que o público geral não será capaz notar essas maquinações [ou mesmo se importar] e continuará a usar os produtos da Apple normalmente. E certamente veremos, durante o próximo evento público da Apple, Tim Cook, o CEO, anunciando triunfantemente alguns recursos de melhoria da privacidade no iOS, como a proteção dos dados pessoais contra rastreamento entre aplicativos ou oferecendo conexão anônima semelhante a VPN para Safari ou Apple Mail. Tudo isso enquanto mantém um backdoor instalado no seu telefone, sobre o qual você nada pode fazer.

É doloroso ver a Apple dando um passo em uma direção tão perigosa. Só posso esperar que a reação causada pela voz estridente da minoria faça a Apple reconsiderar, e talvez mudar a implementação em versões futuras do iOS.

Fugindo da Internet Comum

Devo primeiro definir meus termos. Usarei a expressão “Internet comum” para distinguir a nossa velha conhecida “rede mundial de computadores” das redes alternativas, que tecnicamente são chamadas de redes de sobreposição de Internet [‘overlay networks’] – algumas das quais são comumente rotuladas como “dark nets“. A maioria das pessoas hoje em dia se refere à Internet comum como “a web”, embora o significado desse termo tenha mudado ao longo dos anos.

Imagem: iStock

Originalmente, a web consistia apenas dos sites da Internet cujos URLs começavam com “www”. Agora, para a maioria das pessoas, a web significa toda a Internet. Costumo usar a expressão “mainstream Internet” para me referir aos sites mais conhecidos e movimentadas na Internet comum, especialmente os sites dos gigantes da mídia social como Facebook, Twitter e Reddit.

Há um indicador recente detectado nos países avançados: muitas pessoas estão decidindo dar uma pausa na Internet comum ou, pelo menos, diminuir o tempo dedicado às interações online. Muitas dessas pessoas estão procurando [e muitas vezes encontrando] alternativas para as principais mídias sociais e sites corporativos em geral. Uma dessas alternativas é a rede descentralizada Diaspora – também chamada “rede federada” [link para um servidor Diáspora em português]. Alguns estão indo ainda mais longe, distanciando-se até mesmo do protocolo de hipertexto [HTTP] e gravitando em direção a protocolos de rede mais amigáveis ​​e de ritmo mais lento, como Gopher e Gemini.

Quanto aos motivos, alguns reclamam que os usuários da Internet têm se mostrado cada vez mais intolerantes e mesquinhos desde a década de 1990. Outros desejam dar uma pausa nas redes sociais mais propensas a criar dependência. Alguns consideram que a Internet como um todo aumenta o volume de distração que os leva à procrastinação. Muitos estão incomodados com o comercialismo galopante que suplantou algo que foi concebido para facilitar a transferência de informações úteis e promover o crescimento do conhecimento.

Grande parte está simplesmente cansada ​​de ser rastreada e espionada. Milhões desses usuários querem recuperar a capacidade de falar livremente, algo que foi tirado deles por políticas corporativas e governamentais que limitam os tipos de conteúdo que podem ser postados nas redes sociais.

Não acho, porém, que o desencanto dos usuários com grande parte da Internet seja uma nova tendência, nem vejo uma migração em massa ocorrendo tão cedo. Mas, dados os aspectos cada vez mais desagradáveis ​​da mídia social convencional, acredito que o desencanto é agora particularmente pronunciado.

À medida que a Internet comum se torna mais centralizada, a emergência de redes alternativas atraindo consistentemente mais usuários tem o efeito oposto. Dessa forma, a Internet está se tornando mais centralizada em uma dimensão e mais distribuída em outra – ao mesmo tempo. Isso oferece oportunidades para aqueles que estão cientes desse fenômeno e desejam aproveitá-lo. Ao mesmo tempo, aqueles que estão alheios ficam cada vez mais encurralados nos jardins murados franqueados pelo Facebook, Google e outras corporações gigantes.

Talvez isso seja a evolução inevitável de uma tecnologia como a Internet, que oferece uma interface ilimitada, possibilitada por um número astronômico de protocolos de comunicação e endereços de rede. Talvez a Internet tenha se tornado a ‘fronteira final’ que há 60 anos pensávamos que o espaço seria.

Um tipo diferente de site

Na década de 1970, os varejistas americanos descobriram que adolescentes indisciplinados podiam ser expulsos de suas lojas sem alienar os clientes adultos. O método que eles usaram foi tocar música clássica e ‘muzak‘. Adolescentes rebeldes naturalmente achavam que a música clássica era “música de gente velha” e mostravam sua desaprovação abandonando os estabelecimentos que a tocavam – para a alegria dos proprietários. Outra prática era colocar iluminação rosa suave, especialmente em banheiros. Supostamente, isso tornava a acne dos adolescentes mais pronunciada, fazendo com que eles se sentissem desconfortáveis ​​e com vontade de ir embora.

Gigantes da mídia social como Facebook, YouTube, TikTok e Pinterest sabem que – como mariposas pela chama – a grande maioria dos usuários da Internet é atraída por sites chamativos, repletos de imagens, animações e vídeos de qualidade variada [e, o melhor de tudo, grátis]. Exatamente por esse motivo, alguns geeks descontentes criaram blogs e sites não comerciais que não possuem nenhuma dessas miçangas e espelhos. Eles querem que seus sites sejam menos atraentes para os usuários mais extrovertidos, menos intelectuais, como também para os assediadores de qualquer um que exiba o menor vestígio de individualidade ou pensamento original [trolls]. Muitos dos que criaram sites em redes alternativas também querem evitar a invasão de empreendimentos comerciais que acabem por atrair esses usuários ‘indesejáveis’. Outros criadores querem apenas sites simples e eficientes. Esses não estão tão preocupados com quem os frequenta.

Usuários avançados e mais tecnologicamente capazes estão preferindo redes descentralizadas e distribuídas (diagramas ao centro e à direita) para sua presença na Internet. Essas redes propiciam maior controle e privacidade, uma vez que a comunicação entre os nós (membros) não precisa passar por um centro. As redes sociais como Facebook e Instagram adotam uma topologia rigidamente centralizada, onde todas as interações passam pelo servidor central (à esquerda).

Aqueles que optam por filtrar os indesejáveis ​​geralmente seguem uma ou mais das abordagens citadas acima. Alguns criam sites baseados apenas em texto, para afugentar aqueles usuários que são facilmente atraídos pelo brilho fútil. Alguns desses administradores de site consideram um certo nível de dificuldade na interface gráfica como algo desejável. Eles querem que os “normies” com déficit de atenção nem sequer tentem aprender a usar seus sites. A atitude extrema que esses criadores adotam é isolar-se da multidão convencional, mudando para redes alternativas que só podem ser acessadas por meio de software esotérico, como o TOR.

Pessoalmente, dada a dificuldade de atrair usuários para qualquer novo site ou rede, não vejo necessidade de desencorajar ativamente os recém-chegados. Aqui ninguém é considerado menos desejável a priori. Acredito que fornecer uma plataforma que incentive a liberdade de expressão é mais importante do que se proteger de alguém que possa discordar ou ser rude.

Por outro lado, não posso criticar um desenvolvedor por querer criar uma plataforma para pessoas afins. De fato, eu acho que esse problema geralmente se resolve sozinho. Posso entender o ponto de vista daqueles que temem que o site que eles construiram com carinho – e aprenderam a amar – acabe se tornando mais um paraíso para defensores do voto impresso e negacionistas da pandemia.

A linha que adotei com o Vox Leone foi apenas criar um site simples e eficiente. Todos são convidados a ler e comentar como quiserem (sempre mantendo a civilidade, please). O nosso fórum está aberto a todos. Os únicos comentários ou postagens que já removi foram aqueles que eram completamente fora do tópico ou ininteligíveis. Geralmente, escrever tão diplomaticamente quanto sou capaz (embora muitas vezes eu falhe) parece funcionar para que tenhamos aqui um ambiente civil e criativo, frequentado por pessoas inteligentes e cordatas – apesar de muitos terem opiniões divergentes das minhas. Eu não me importo com discordâncias. Comentários contrários de pessoas bem informadas geralmente são esclarecedores.

A Crise das Redes: Como Administrar o Comportamento Coletivo Global

Abrimos esta semana apresentando em português o necessário estudo “Administração do Comportamento Coletivo Global”, sobre o que eu pessoalmente que caracterizo como a Crise das Rede Sociais. A sociedade humana nunca teve que lidar com entidades tão potentes, com tão grande potencial desagregador, tão desconhecidas e tão incompreendidas. Estamos em um momento-chave da civilização, e o que fizermos nesta década definirá o caminho da espécie humana por séculos.

A ‘Economia da Atenção’ tem facilitado comportamentos extremos e provocado rupturas políticas e culturais. Sua influência na opinião pública exibe uma escala sem precedentes na evolução da civilização. Imagem: iStock

O comportamento coletivo fornece uma estrutura para a compreensão de como as ações e propriedades dos grupos emergem da maneira como os indivíduos geram e compartilham informações. Em humanos, os fluxos de informação foram inicialmente moldados pela seleção natural, mas são cada vez mais estruturados por tecnologias de comunicação emergentes. Nossas redes sociais maiores e mais complexas agora movimentam informações de alta fidelidade através de grandes distâncias a baixo custo. A era digital e a ascensão das mídias sociais aceleraram as mudanças em nossos sistemas sociais, com consequências funcionais mal compreendidas. Essa lacuna em nosso conhecimento representa o principal desafio para o progresso científico, para a democracia e para as ações para enfrentar as crises globais. Argumentamos que o estudo do comportamento coletivo deve ser elevado a uma “disciplina de crise”, assim como a medicina, a conservação e a ciência do clima, e ter foco em fornecer uma visão prática para a administração dos sistemas sociais destinada aos formuladores de políticas públicas bem como os reguladores.

O comportamento coletivo historicamente se refere às instâncias em que grupos de humanos ou animais exibem ação coordenada na ausência de um líder óbvio: de bilhões de gafanhotos, estendendo-se por centenas de quilômetros, devorando a vegetação à medida que avançam; de cardumes de peixes convulsionando como um fluido animado quando sob ataque de predadores às nossas próprias sociedades, caracterizadas por cidades, com edifícios e ruas cheias de cor e som, vivas de atividade. A característica comum de todos esses sistemas é que as interações sociais entre os organismos individuais dão origem a padrões e estruturas em níveis mais elevados de organização, desde a formação de vastos grupos nômades até o surgimento de sociedades baseadas na divisão de trabalho, normas sociais, opiniões, e dinâmica de preços.

Nas últimas décadas, o “comportamento coletivo” evoluiu de uma descrição de fenômenos gerais para uma estrutura conduciva à compreensão dos mecanismos pelos quais a ação coletiva emerge (3⇓⇓⇓-7). Ele revela como as propriedades de “ordem superior” das estruturas coletivas em grande escala, se retroalimentam para influenciar o comportamento individual, que por sua vez pode influenciar o comportamento do coletivo, e assim por diante. O comportamento coletivo, portanto, se concentra no estudo de indivíduos no contexto de como eles influenciam e são influenciados pelos outros, levando em consideração as causas e consequências das diferenças interindividuais em fisiologia, motivação, experiência, objetivos e outras propriedades.

Imagem: iStock

As interações multiescala e o feedback que fundamentam o comportamento coletivo são marcas definidoras de “sistemas complexos” – que incluem nosso cérebro, redes de energia, mercados financeiros e o mundo natural. Quando perturbados, os sistemas complexos tendem a exibir uma resiliência finita seguida por mudanças catastróficas, repentinas e muitas vezes irreversíveis na sua funcionalidade. Em uma ampla gama de sistemas complexos, a pesquisa destacou como a perturbação antropogênica – tecnologia, extração de recursos e crescimento populacional – é uma fonte crescente, se não dominante, de risco sistêmico. No entanto, a pesquisa científica sobre como os sistemas complexos são afetados pela tecnologia humana e pelo crescimento populacional tem se concentrado mais intensamente nas ameaças que eles representam para o mundo natural.

Temos uma compreensão muito mais pobre das consequências funcionais das recentes mudanças em grande escala no comportamento humano coletivo e na tomada de decisões. Nossas adaptações sociais evoluíram no contexto de pequenos grupos de caçadores-coletores resolvendo problemas locais por meio de vocalizações e gestos. Em contraste, agora enfrentamos desafios globais complexos, de pandemias a mudanças climáticas – e nos comunicamos em redes dispersas conectadas por tecnologias digitais, como smartphones e mídias sociais.

Com ligações cada vez mais fortes entre os processos ecológicos e sociológicos, evitar a catástrofe a médio prazo (por exemplo, coronavírus) e a longo prazo (por exemplo, mudança climática, segurança alimentar) exigirá respostas comportamentais coletivas rápidas e eficazes – ainda não se sabe se a dinâmica social humana permitirá tais respostas.

Além das ameaças ecológicas e climáticas existenciais, a dinâmica social humana apresenta outros desafios ao bem-estar individual e coletivo, como recusa de vacinas, adulteração de eleições, doenças, extremismo violento, fome, racismo e guerra.

Nenhuma das mudanças evolutivas ou tecnológicas em nossos sistemas sociais ocorreu com o propósito expresso de promover a sustentabilidade global ou a qualidade de vida. Tecnologias recentes e emergentes, como mídia social online, não são exceção – tanto a estrutura de nossas redes sociais quanto os padrões de fluxo de informações por meio delas são direcionados por decisões de engenharia feitas para maximizar a lucratividade. Essas mudanças são drásticas, opacas, efetivamente não regulamentadas e de grande escala.

Disciplina de Crise

As consequências funcionais emergentes são desconhecidas. Não temos a estrutura científica necessária para responder até mesmo às questões mais básicas que as empresas de tecnologia e seus reguladores enfrentam. Por exemplo, será que um determinado algoritmo para recomendar amigos – ou um para selecionar itens de notícias a serem exibidos – promove ou impede a disseminação de desinformação online? Não temos um corpo de literatura embasado teoricamente e verificado empiricamente para informar uma resposta a tal pergunta. Na falta de uma estrutura desenvolvida, as empresas de tecnologia se atrapalharam com a pandemia de coronavírus em curso, incapazes de conter a “infodemia” de desinformação que impede a aceitação pública de medidas de controle, como máscaras e testes generalizados.

Em resposta, os reguladores e o público têm insistido nos pedidos de reforma do nosso ecossistema de mídia social, com demandas que vão desde maior transparência e controles de usuário até responsabilidade legal e propriedade pública. O debate básico é antigo: os processos comportamentais em grande escala são autossustentáveis ​​e autocorretivos, ou requerem gerenciamento e orientação ativos para promover o bem-estar sustentável e equitativo? Historicamente, essas questões sempre foram tratadas em termos filosóficos ou normativos. Aqui, construímos nossa compreensão dos sistemas complexos perturbados para argumentar que não se pode esperar que a dinâmica social humana produza soluções para questões globais ou promova o bem-estar humano sem uma política baseada em evidências e administração ética.

A situação é paralela aos desafios enfrentados na biologia da conservação e na ciência do clima, onde indústrias insuficientemente regulamentadas otimizam os seus lucros enquanto minam a estabilidade dos sistemas ecológicos. Tal comportamento criou a necessidade de uma política urgente baseada em evidências, na falta de uma compreensão completa da dinâmica subjacente dos sistemas (por exemplo, ecologia e geociências). Essas características levaram Michael Soulé a descrever a biologia da conservação como o contraponto da “disciplina de crise” à ecologia. As disciplinas de crise são distintas de outras áreas de pesquisa urgente baseada em evidências em sua necessidade de considerar a degradação de todo um sistema complexo – sem uma descrição completa da dinâmica do sistema. Sentimos que o estudo do comportamento humano coletivo deve se tornar a resposta da disciplina de crise às mudanças em nossa dinâmica social.

Como o comportamento humano coletivo é o resultado de processos que abrangem escalas temporais, geográficas e organizacionais, abordar o impacto da tecnologia emergente no comportamento global exigirá uma abordagem transdisciplinar e um colaboração sem precedentes entre cientistas em uma ampla gama de disciplinas acadêmicas. À medida que nossas sociedades são cada vez mais instanciadas na forma digital, abstrações de processos sociais – as redes são um exemplo proeminente – tornam-se partes muito reais da vida diária. Essas mudanças apresentam novos desafios, bem como oportunidades, para avaliação e intervenção. Disciplinas dentro e fora das ciências sociais têm acesso a técnicas e formas de pensar que expandem nossa capacidade de entender e responder aos efeitos da tecnologia de comunicação. Acreditamos que tal colaboração é urgentemente necessária.

Ler artigo original na íntegra:

Stewardship of Global Collective Behavior

Joseph B. Bak-Coleman, Mark Alfano, Wolfram Barfuss, Carl T. Bergstrom, Miguel A.
Proceedings of the National Academy of Sciences of the United States of America

Verdades, Mentiras e Automação

Sob licença, apresentamos a seguir, traduzido e adaptado, um muito temporâneo estudo publicado no último dia 21 pelos autores Ben Buchanan, Andrew Lohn, Micah Musser e Katerina Sedova, do Centro para Segurança e Tecnologia Emergente (CSET – Center for Security and Emerging Technology), analisando o terrivel problema da desinformação turbinada por tecnologias de “Inteligência Artificial” (mais propriamente referida como Aprendizado de Máquina). O texto é narrado na primeira pessoa do plural

Por milênios, campanhas de desinformação têm sido empreendimentos fundamentalmente humanos. Seus perpetradores misturam verdades e mentiras em potentes combinações, que visam semear a discórdia, criar dúvidas e provocar ações destrutivas. A campanha de desinformação mais famosa do século XXI – o esforço russo para interferir na eleição presidencial dos EUA de 2016- contou com centenas de pessoas trabalhando juntas para ampliar as fissuras preexistentes na sociedade americana.

Desde o início, escrever sempre foi um esforço fundamentalmente humano. Mas as coisas não são mais assim. Em 2020, a empresa OpenAI revelou o GPT-3, (Generative Pre-trained Transformer) um poderoso sistema de “inteligência artificial” que gera texto baseado em um estímulo provocado por operadores humanos. O sistema, que combina uma vasta rede neural, um poderoso algoritmo de aprendizado de máquina e mais de um trilhão de palavras de escrita humana para orientação, é notável. Entre outras realizações, ele já redigiu um artigo de opinião encomendado pelo The Guardian, escreveu histórias originais que a maioria dos leitores pensava ter sido escrita por humanos e criou novos memes para a Internet.

Diante dessa descoberta, consideramos uma questão simples, mas importante: pode a automação gerar conteúdo para campanhas de desinformação? Se o GPT-3 pode escrever notícias aparentemente confiáveis, é possível também que possa escrever notícias falsas convincentes; se pode redigir artigos de opinião, talvez possa redigir tweets enganosos.

Para resolver esta questão, primeiro apresentamos o conceito de parceria ou equipe homem-máquina, mostrando como o poder do GPT-3 deriva, em parte, do estímulo criado pelo homem, ao qual ele responde. Ganhamos acesso gratuito ao GPT-3 – um sistema que não está disponível para uso público – para estudar a capacidade do GPT-3 de produzir desinformação como parte de uma equipe homem-máquina.

Mostramos que, embora o GPT-3 seja bastante capaz por seus próprios méritos, ele atinge novos patamares de capacidade quando combinado com um operador/editor humano experiente. Como resultado, concluímos que, embora o GPT-3 não substitua totalmente os humanos nas operações de desinformação, ele é uma ferramenta que pode ajudar a criar mensagens de qualidade moderada a alta, em uma escala muito maior do que anteriormente possível.

Para chegar a esta conclusão, avaliamos o desempenho do GPT-3 em atividades que são comuns em muitas campanhas de desinformação modernas. A Tabela 1 descreve essas tarefas e o desempenho do GPT-3 em cada uma.

Tabela 1

Entre essas e outras avaliações, o GPT-3 provou ser tão poderoso como limitado. Quando estimulada de maneira adequada, a máquina funciona como um gravador versátil e eficaz que, no entanto, é limitado pelos dados nos quais foi treinada. Sua redação é imperfeita, mas essas suas desvantagens – como falta de foco na narrativa e tendência a adotar pontos de vista extremos – têm pouca importância na criação de conteúdo para campanhas de desinformação.

Caso os adversários optem por empregar esse tipo de automação em suas campanhas de desinformação, acreditamos que a implantação de um algoritmo como o GPT-3 esteja dentro da capacidade de governos estrangeiros, especialmente os que entendem de tecnologia, como China e Rússia. Será difícil, mas quase certamente possível para esses governos construir a capacidade computacional necessária para treinar e operar tal sistema, caso desejem fazer isso.

Mitigar os perigos da automação na desinformação é um desafio. Uma vez que o texto produzido pela GPT-3 combina tão bem com a escrita humana, a melhor maneira de impedir o uso de sistemas como o GPT-3 em campanhas de desinformação é se concentrar na infraestrutura usada para propagar as mensagens da campanha, como contas falsas nas redes sociais, em vez de tentar determinar a quem atribuir o texto.

Vale a pena considerar as mitigações porque nosso estudo mostra que há uma possibilidade real de se usar ferramentas automatizadas para gerar conteúdos para campanhas de desinformação. Em particular, nossos resultados devem ser encarados como uma estimativa pessimista do que sistemas como o GPT-3 podem oferecer. Adversários não limitados por preocupações éticas e estimulados por grandes recursos e capacidade técnica, provavelmente serão capazes de usar sistemas como o GPT-3 de maneira mais abrangente do que nós nesta pesquisa, embora seja difícil saber se eles realmente vão optar por essa linha de ação.

Em particular, com a infraestrutura certa, eles provavelmente serão capazes de aproveitar a escalabilidade que tais sistemas automatizados oferecem, gerando um grande número de mensagens e inundando o cenário de informações com as criações mais mirabolantes.

Nosso estudo mostra a plausibilidade – mas não a inevitabilidade – desse futuro, no qual mensagens automatizadas de divisão política e informações enganosas se propagam pela Internet. Enquanto mais desenvolvimentos ainda certamente estejam por vir, um fato já é aparente: as máquinas construídas por humanos agora podem ajudar a temperar a verdade e a mentira a serviço da desinformação.

Publicado sob a licença Creative Commons nc 4.0

Link para o trabalho original, na íntegra:

Sobre Democracia, Fake News e Amigos

Sou um racionalista hard-core, com um espírito curioso, voltado à honesta busca da verdade final. A existência desse conceito absurdo de “notícia falsa” (tal como o conhecemos agora) em pleno século vinte e um, é algo que literalmente me deprime e me faz duvidar de minha fé na humanidade. Com a evolução da crise da Covid, e depois de perder um número proibitivamente alto de amigos em virtude das controvérsias geradas por elas, sinto que o problema começa a afetar seriamente a minha esfera pessoal. Paladino da Ciência que sou, e para acalmar os meus sentidos, decidi empreender uma pesquisa – que eu chamaria de sistemática – da literatura sobre Fake News, a qual compartilho a seguir, no mui adequado formato de ‘prosa blogueana’.

As fake news costumam ser estudadas ao longo de quatro linhas principais: caracterização, criação, circulação e combate. O exato modelo de como caracterizar notícias falsas tem sido muito debatido na academia, uma vez que a definição do termo é ainda controversa. Diferentes tipos de noticias falsas têm diferentes gradações entre intenção e facticidade. Quanto às outras linhas de pesquisa, aquelas voltadas à criação dizem respeito à produção de notícias falsas, frequentemente com motivação financeira, política ou social. As dedicadas à circulação de notícias falsas referem-se às diferentes maneiras pelas quais as informações falsas são disseminadas e amplificadas, geralmente por meio de tecnologias de comunicação, como mídias sociais e mecanismos de busca. Por último, o combate às notícias falsas aborda a multiplicidade de técnicas para detectar e combatê-las em diferentes níveis, levando-se em conta desde os aspectos jurídicos, financeiros e técnicos até a alfabetização individual em mídia e informação e novos serviços de verificação de fatos.

Fake News foi eleita a palavra [ou expressão] do ano em 2017 pelo Dicionário Collins. Em 2017, o uso do termo havia aumentado 365% com relação à 2016 (Dicionário Collins, 2017). A eleição presidencial americana em 2016 colocara o fenômeno na agenda internacional.

Mas embora o termo pareça relativamente novo, os fenômenos que ele cobre são antigos. Manipulação, desinformação, falsidade, rumores, teorias da conspiração – ações e comportamentos frequentemente associados ao termo – existem desde que os humanos se comunicam. A novidade do termo, neste contexto, está relacionada à forma como as informações falsas ou enganosas são produzidas, distribuídas e consumidas por meio da tecnologia de comunicação digital.

Fiz um apanhado da literatura, e inúmeros trabalhos sobre o tema, escritos desde o início do século vinte, vieram à tona – que, por brevidade, limito aqui a poucos exemplos:

.Em uma coluna publicada no The Atlantic em 1919, Walter Lippmann expôs uma visão abrangente dos problemas que a propaganda representava para a sociedade ocidental moderna (Sproule, 1997).

.Lippmann argumentou que a função básica da democracia era proteger as notícias – a fonte da opinião pública – da mácula da propaganda. Nenhuma sociedade moderna sem meios adequados para detectar mentiras pode se considerar livre (Lippmann, 1922).

.Sem informações confiáveis, será difícil para as democracias continuarem a funcionar. Notícias falsas e desinformação são símbolos de um problema social mais amplo: a manipulação da opinião pública para infuenciar o mundo real (Gu, Kropotov e Yarochkin, 2017).

Mas mesmo que a desinformação seja a esta altura um fenômeno histórico, cada nova tecnologia de comunicação permite novas maneiras de manipular notícias e amplificar rumores. Manter o passo alinhado com as novas tecnologias de informação digital requer novas maneiras de enfrentar os desafios; um certo pensar-fora-da-caixa. Informações falsas disfarçadas de notícias já criaram sérias preocupações materiais e humanas em muitos países. Diferentes pesquisadores a chamaram por diferentes nomes:

.Poluição da informação (Wardle & Hossein, 2017),

.Manipulação da mídia (Warwick & Lewis, 2017) ou

.Guerra de informação (Khaldarova & Pantti, 2016).

Em minhas conversas e vivências, noto que um ponto comum entre as pessoas que têm uma vida intelectual é um certo desconforto existencial, a sensação íntima e presente, de que informações falsas poluem a esfera pública e podem prejudicar a democracia de maneira imprevisivel. Conforme argumentado por Warwick e Lewis, “a manipulação das redes sociais pode contribuir para a diminuição da confiança na mídia convencional, aumento da desinformação e maior radicalização” (2017).

Além de tudo isso, políticos e outros atores poderosos se apropriaram do termo para caracterizar a cobertura negativa da mídia sobre suas ações. Mais notoriamente, e mais de uma vez, o presidente americano Donald Trump rotulou meios de comunicação como a CNN ou o The New York Times como fake news. O mesmo se dá aqui no Brasil, com o presidente engajado em uma jihad pessoal contra a mídia tradicional. Conforme relatado pelo New York Times, em países onde a liberdade de imprensa é restrita ou está sob considerável ameaça – como Rússia, China, Turquia, Líbia, Polônia, Hungria, Tailândia, Somália e outros [ahem, Brasil] – os líderes políticos já invocaram as fake news como justificativa para repelir o escrutínio da mídia. Ao sugerir que as notícias não podem ser confiáveis e ao rotulá-las como notícias falsas, os políticos deliberadamente minam a confiança no jornalismo e nos meios de comunicação, uma das principais instituições em nações democráticas baseadas na liberdade de expressão e de imprensa.

Mais pesquisas sobre a escala e o escopo da desinformação em diferentes países são necessárias para descrever com precisão a magnitude e as características do problema. Para os estudantes de jornalismo, este recente debate sobre a desinformação tem sido uma evocação valiosa das raízes de sua profissão: avaliação crítica de informações e fontes; responsabilidade e códigos de conduta ética. O aumento dos esforços pela transparência, tanto na ecologia das plataformas de informação quanto nos métodos jornalísticos, pode, a longo prazo, aumentar a confiança do público em relação a como a informação é tratada e amplificada tanto pelas plataformas sociais quanto pelas redações da mídia profissional.

Novas ferramentas e métodos – incluindo alfabetização midiática e informacional – para identificar e detectar conteúdo manipulado, seja ele texto, imagens, vídeos ou áudio, são necessários, se queremos conter as tentativas de manipulação de diferentes atores. Em vez de tentar legislar sobre o problema – que se tornou por demais politizado – ou ceder ao ímpeto repressivo, os atores políticos e as instituições devem reconhecer que têm um papel importante a desempenhar na melhoria da qualidade do ecossistema de informações, por meio do financiamento à pesquisa e do apoio à mídia independente e pelo compartilhamento de dados com o público.

* * *

(*) Este post foi editado em 13/05 para correções de digitação e pequenos ajustes de estilo.

Facebook Pede Que Usuários do iOS Permitam Rastreamento (para permanecer grátis)

Em uma tentativa de combater o novo recurso de privacidade App Tracking Transparency da Apple, o Facebook está insistindo para que os usuários continuem a permitir que o gigante da tecnologia rastreie o uso do aplicativo, alertando que essa é a única maneira de manter os serviços “gratuitos”.

O site MacRumors dá conta de que o Facebook e o Instagram começaram a enviar mensagens notificando usuários do iOS 14.5 de que eles devem obrigatoriamente ativar o rastreamento no dispositivo, se quiserem ajudar a manter o Facebook e o Instagram “gratuitos”.

A Apple lançou recentemente seu novo recurso de privacidade, a ATT – App Tracking Transparency [Transparência no Rastreamento de Applicativo], como parte da atualização mais recente do iOS 14.5 para iPhones e iPads. A atualização agora exigirá que os aplicativos mostrem aos usuários um prompt solicitando seu consentimento para rastreá-los em outros aplicativos e sites.

Uma grande parte do modelo de negócios do Facebook é baseada na venda de anúncios em seus aplicativos e serviços. Os clientes pagantes podem usar as ferramentas de publicidade fornecidas pelo Facebook para alcançar pessoas ou obter dados demográficos específicos. No entanto, com o lançamento do iOS 14.5, os usuários podem optar por cancelar o rastreamento de suas atividades. Consequentemente, o Facebook terá acesso a menos dados para usar na segmentação de seus anúncios personalizados.

A atualização do iOS foi lançada ao público na semana passada e, desde então, mais aplicativos estão começando a exibir o prompt da ATT aos usuários. Um usuário do Twitter, Ashkan Soltani, foi o primeiro a observar que o Facebook atualizou seu prompt para incluir um aviso dizendo “Ajude a manter o Facebook gratuito”. Isso muda radicalmente a posição clássica do Facebook (“sempre será gratuito”). Muitos observadores na Internet vêem o movimento como uma “tática do medo” por parte da rede social. Ao mesmo tempo, fornece uma indicação indireta de que a política de privacidade da Apple é de fato a mais robusta do mercado, já que incomoda tanto o conglomerado de Zuckerberg.

Em uma postagem de blog atualizada recentemente, o Facebook chama o prompt de “tela educacional” que “ajudará as pessoas a tomar uma decisão informada sobre como suas informações são usadas”. O Instagram, que é propriedade do Facebook, também mostrará um aviso semelhante aos usuários.

A postagem do blog do Facebook diz:

Como a Apple afirmou que é permitido fornecer contexto adicional [aos usuários], mostraremos uma tela educacional antes de apresentar a solicitação da Apple, para ajudar as pessoas a tomar uma decisão informada sobre como suas informações serão usadas. Essa tela fornece detalhes adicionais sobre como usamos os dados para anúncios personalizados, bem como as maneiras como limitamos o uso de atividades que outros aplicativos e sites nos enviam se as pessoas não ativarem esta configuração do dispositivo. Nossa tela também permite que as pessoas saibam que estão vendo o prompt da Apple devido aos requisitos da Apple para iOS 14.5.

O Facebook planeja lançar o prompt com a notificação para mais usuários nos próximos dias e semanas.

Futebol Inglês Faz Boicote às Mídias Sociais Neste Fim de Semana

Equipes e organizações de futebol inglesas estão desativando suas contas do Facebook, Twitter e Instagram para este fim de semana como parte de um apagão massivo de mídias sociais para defender melhores políticas em relação à discriminação e abuso que jogadores e membros de clubes recebem nessas plataformas.

O futebol inglês se unirá para um boicote às redes sociais das 15h00 de sexta-feira, 30 de abril às 23h59, de segunda-feira, 3 de maio, em resposta ao abuso discriminatório incessante recebido online por jogadores e outras pessoas ligadas ao esporte.

https://t.co/GYTAuWAEgN pic.twitter.com/dNLuv62nw5 – Porta-voz FA (@FAspokesperson) 24 de abril de 2021

Os grupos que participarão do apagão incluem a Premier League, a English Football League, a Professional Footballers ’Association, a Football Association, a League Managers Association, a Football Supporters’ Association e mais. Os clubes que fazem parte da Premier League, EFL, Barclays FA Women’s Super League e Women’s Championship vão fechar seus canais sociais no fim de semana como parte do protesto.

O apagão ocorre depois que várias organizações de futebol inglesas se uniram em fevereiro para solicitar mudanças ao CEO do Facebook, Mark Zuckerberg, e ao CEO do Twitter, Jack Dorsey, em uma carta aberta solicitando que as empresas tomassem medidas mais firmes contra comentários discriminatórios e racistas.

Estamos desativando nossos canais de mídia social a partir das 15h de sexta-feira, 30 de abril, até as 23h59 de segunda-feira, 3 de maio, em resposta ao abuso on-line incessante. #Enough | #StopOnlineAbuse pic.twitter.com/toiIg3FfWW

Raheem Sterling (@sterling7) 30 de abril de 2021

Especificamente, os grupos de futebol defendem quatro melhorias: que as postagens sejam bloqueadas ou filtradas se contiverem material racista ou discriminatório; que as postagens abusivas sejam removidas por meio de “medidas robustas, transparentes e rápidas”; que haja processos de verificação aprimorados para permitir que a polícia identifique usuários e impeça que postadores abusivos façam novas contas; e que as plataformas trabalhem em estreita colaboração com as polícias para identificar pessoas que postam conteúdo discriminatório nos casos que infringem a lei.

As ligas esperam que o boicote deste fim de semana fortaleça esse movimento, observando que, embora tenha havido progresso, jogadores, times e outros membros do mundo do futebol inglês ainda sentem que há muito mais que o Facebook e o Twitter poderiam fazer para ajudar a impedir o abuso na Internet.

Moderadores do Facebook: ‘Somos as Amídalas da Internet’

Na manhã do último dia 14 de abril, um repórter Senior de notícias de tecnologia do Buzzfeed compartilhou o que parecia ser um relato angustiante do que é trabalhar como um moderador de conteúdo no Facebook.

A nota interna anônima sinalizando a renúncia do empregado foi lançada no Twitter por Ryan Mac em uma série de nove prints. O suposto funcionário em questão é baseado em Austin, TX e trabalha para a Accenture, uma empresa que fornece funcionários para moderação de conteúdo no Facebook.

Um moderador de conteúdo do Facebook contratado pela Accenture em Austin se demitiu esta manhã com uma ácida nota interna. Eu digitei na íntegra para que as pessoas possam ler por si mesmas.

A mensagem descreve a moderação de conteúdo como um trabalho desgastante tanto do ponto de vista mental como físico, que levou alguns de seus colegas de trabalho a entrar em medicação psiquiátrica pela primeira vez ou se auto-medicar com álcool e drogas.

As experiências traumatizantes dos moderadores de conteúdo são bem documentadas ao longo dos anos em publicações como Wired Magazine.

O funcionário em questão alegou que o Facebook fez melhorias em seu programa de bem-estar, mas sustenta que elas ainda são inadequadas, afirmando que “os gerentes vêem os cérebros dos funcionários como máquinas”, em vez de levar em conta as conseqüências do estresse no ambiente de trabalho.

“A questão real, no entanto, não é o impacto persistente de imagens individuais; é o acúmulo de milhares delas ao longo do tempo”, escreve o moderador anônimo. “Os analistas de conteúdo são pagos para olhar o pior da humanidade por oito horas por dia. Somos as amígdalas da Internet, uma primeira linha de defesa – constantemente bombardeada – contra potenciais traumas para a base de usuários.”

O empregado logo descobre que o contrato de confidencialidade, assinado por todos os funcionários quando entram na empresa, torna difícil manter a saúde mental, bem como se candidatar a outros empregos, uma vez que eles não podem discutir os detalhes de sua atividade como moderadores de conteúdo. Soluções propostas incluem treinamento em saúde mental para gerentes, mais tempo em atividades de bem-estar e capacidade de acesso a terapia, entre várias outras sugestões.

O repórter do Buzzfeed propôs que, se executivos como Mark Zuckerberg passassem um tempo experimentando pessoalmente o trabalho de moderação de conteúdo, eles talvez pudessem ficar mais dispostos a fazer melhorias. No entanto, quando questionado em 2019 pela congressista americana Katie Porter, Zuckerberg disse que esse não seria o melhor uso de seu tempo.