O Taliban, não o Ocidente, Ganhou a Guerra Tecnológica do Afeganistão

Por Christopher Ankersen e Mike Martin

MIT Technological Review

Na verdade, ao contrário da narrativa típica, os avanços tecnológicos ocorridos durante os 20 anos de conflito favoreceram mais o Taliban do que o Ocidente. Na guerra da inovação, o Taliban venceu. O que isso significa? O Ocidente lutou na guerra de uma mesma maneira, do início ao fim. Os primeiros ataques aéreos em 2001 foram conduzidos por bombardeiros B-52, o mesmo modelo que entrou em serviço pela primeira vez em 1955; em agosto, os ataques que marcaram o fim da presença norte-americana vieram do mesmo venerável modelo de aeronave.

Imagem: Pinterest

O Taliban, entretanto, deu alguns saltos enormes. Eles começaram a guerra com AK-47s e outras armas convencionais simples, mas hoje eles tiram grande proveito da telefonia móvel e da internet – não apenas para melhorar suas armas e seus sistemas de comando e controle, mas, ainda mais crucialmente, para operar suas comunicações estratégicas e sua PsyOps/guerra psicológica, assim como suas táticas de influência nas redes sociais.

O que explica esses ganhos tecnológicos – embora modestos e desigualmente distribuídos? Para o Taliban, a guerra no Afeganistão foi existencial. Confrontados com centenas de milhares de tropas estrangeiras de países da OTAN e caçados no solo e no ar, tiveram de se adaptar para sobreviver.

Embora a maior parte de seu equipamento de combate tenha permanecido simples e fácil de manter (muitas vezes não mais do que uma Kalashnikov, alguma munição, um rádio e um lenço na cabeça), eles tiveram que buscar novas tecnologias em outros grupos insurgentes ou desenvolver sua própria. Um exemplo importante: bombas de beira de estrada ou Improvised Explosive Devices – IEDs. Essas armas simples causaram mais baixas aliadas do que qualquer outra. Ativados originalmente por placas de pressão, como as minas, eles evoluíram no meio da guerra para que o Taliban pudesse detoná-los com telefones celulares de qualquer lugar com sinal de celular.

Como a linha de base tecnológica do Taliban era mais baixa, as inovações que eles fizeram são ainda mais significativas. Mas o verdadeiro avanço tecnológico do Taliban ocorreu no nível estratégico. Cientes de suas deficiências anteriores, eles tentaram superar as fraquezas mostradas em sua passagem anterior no governo. Entre 1996 e 2001, eles optaram por ser reclusos, e havia apenas uma foto conhecida de seu líder, Mullah Omar.

Desde então, porém, o Taliban desenvolveu uma equipe sofisticada de relações públicas, aproveitando a mídia social no país e no exterior. Os ataques com IEDs geralmente eram gravados por telefone celular e carregados em um dos muitos feeds do Twitter do Taliban para ajudar no recrutamento, arrecadação de fundos e moral.

Outro exemplo é a técnica de varrer automaticamente as mídias sociais em busca de frases-chave como “apoio ao ISI” – referindo-se ao serviço de segurança do Paquistão, que tem uma relação com o Taliban – e, em seguida, liberar um exército de bots online para enviar mensagens que tentam remodelar a imagem do movimento.

Para a coalizão, as coisas eram bem diferentes. As forças ocidentais tinham acesso a uma ampla gama de tecnologia de classe mundial, desde vigilância baseada no espaço até sistemas operados remotamente, como robôs e drones. Mas para eles, a guerra no Afeganistão não era uma guerra de sobrevivência; era uma guerra de escolha. E, por causa disso, grande parte da tecnologia visava reduzir o risco de baixas, em vez de obter a vitória total.

As forças ocidentais investiram pesadamente em armas que pudessem tirar os soldados do perigo – força aérea, drones – ou tecnologias que pudessem acelerar a disponibilidade de tratamento médico imediato. Coisas que mantêm o inimigo à distância ou protegem os soldados de perigos, como armas, coletes à prova de balas e detecção de bombas na beira da estrada, têm sido o foco do Ocidente.

A prioridade militar abrangente do Ocidente está em outro lugar: na batalha entre potências maiores. Tecnologicamente, isso significa investir em mísseis hipersônicos para se igualar aos da China ou da Rússia, por exemplo, ou em inteligência artificial militar para tentar enganá-los.

Tradução: Bravo Marques

Conteúdo original na íntegra em MIT Technological Review [em inglês]

Sexta de Leão: A Varinha Mágica da Hitachi

Por Christopher Trout – em Engadget

1968. Foi o ano da Ofensiva do Tet no Vietnam; dos assassinatos de Martin Luther King Jr. e Robert Kennedy; dos motins da Convenção Nacional Democrática no EUA. Foi também a primeira vez que os humanos fotografaram a Terra do espaço profundo. Foi um ano de grande inovação e devastação.

Os valores americanos estavam em convulsão e a revolução sexual estava bem encaminhada, questionando estereótipos sexuais antiquados. No meio de tudo isso, uma estrela improvável nasceu.

O Escritório de Marcas e Patentes dos EUA lista o primeiro lançamento da Varinha Mágica Hitachi no comércio como 25 de abril de 1968. Nos 53 anos desde então, este grande pedaço de plástico branco, que tem alguma semelhança com um martelo de bumbo, chegou para introduzir uma dualidade estranha para muitos americanos. É comercializado e vendido como um massageador pessoal em lojas de departamentos e farmácias, ao mesmo tempo que serve como um confiável auxiliar de masturbação feminina.

A Varinha Mágica não é o que você esperaria de um brinquedo sexual moderno. Na verdade, poderia muito bem ser o vibrador da sua avó. Ele pesa 1,2 quilo, mede 30 centímetros da base à ponta e tem uma cabeça bulbosa do tamanho de uma bola de tênis. É feito de plástico rígido, tem duas velocidades – alta (6.000 vibrações por minuto) e baixa (5.000 vibrações por minuto) – e se conecta a uma tomada elétrica por meio de um cabo de 2 metros. Não é à prova d’água e tem tendência a superaquecer após 25 minutos de uso. Deficiências à parte, a Varinha Mágica continua a vender mais que concorrentes mais avançados tecnologicamente, mesmo que a empresa que a criou tente se distanciar daquele que se tornou um dos brinquedos sexuais mais icônicos que existem.

A caixa Hitachi Magic Wand antes e depois de sua reestilização de 2013 – Imagem: Engadget

No mesmo ano em que a Varinha Mágica apareceu no mercado, uma artista residente em Nova York chamada Betty Dodson fez sua primeira exposição sexualmente explícita de uma mulher na Wickersham Gallery na Madison Avenue. De acordo com Dodson, a estréia da instalação marcou sua incursão na educação sexual. Quatro anos depois, ela lançou uma série de palestras chamadas Bodysex Workshops, nas quais usava vibradores para ensinar mulheres sobre masturbação, e em 1974 ela lançou seu primeiro livro, Liberating Masturbation. Dodson, como tantas mulheres na época, procurava brinquedos sexuais em locais bastante convencionais.

“Vibradores elétricos eram vendidos como máquinas de massagem e eu os comprei na seção de eletrodomésticos da Macy’s”

Betty Dodson

Enquanto Liberating Masturbation era vendido junto com a Magic Wand no Eve’s Garden – uma nova e um tanto subversiva sex shop que atendia especificamente às mulheres – Dodson optou pela Panasonic Panabrator em suas primeiras demos. Em 1975 ela o substituiu pela Varinha Mágica. De acordo com Dian Hanson, ex-editora da Juggs, Leg Show e várias outras revistas masculinas, e atual Sexy Book Editor da Taschen Publishing, Dodson a iniciou na Wand em 1977 e desde então ela tem sido uma devota.

“Ela me disse para comprar uma Varinha Mágica Hitachi, mas para ter cuidado com seu poder, tanto físico quanto psicológico, já que é um agente viciante equivalente à heroína”, disse Hanson. “Minha única experiência anterior com um vibrador era uma coisa de plástico rosa que continha duas baterias de célula D; a Hitachi era um mundo totalmente diferente.”

A reação de Hanson à Varinha Mágica não é única. A Internet está inundada de relatos sobre sua força, versatilidade e poder de permanência. É comumente referido como o Cadillac dos vibradores e tem sido um best-seller na sex shop progressiva Good Vibrations desde sua inauguração em 1977. Ele evoluiu de tímidos anúncios na parte de trás da revista política liberal Mother Jones nos anos 80 para ser piada em programas humorísticos na televisão e Internet. Nesse ínterim, tornou-se regular nas páginas de revistas femininas como Cosmo, apareceu como fiel ajudante em filmes adultos e gerou um exército de cópias não autorizadas. Nos mais de 50 anos desde seu lançamento, os avanços tecnológicos levaram a saltos massivos na tecnologia de consumo, mas a Varinha Mágica permaneceu praticamente inalterada.

“Ela me disse para comprar uma Varinha Mágica Hitachi, mas para ter cuidado com seu poder, tanto físico quanto psicológico, já que é um agente viciante logo atrás da heroína”

Dian Hanson

Isto é, até 2013. A Hitachi abandonou a velha embalagem dos anos 1980, reformulou os materiais para um produto mais leve e durável e trocou a placa de circuito. Para os não iniciados, parecia a velha Varinha Mágica da mamãe, com uma notável exceção: o nome Hitachi não aparecia na embalagem.

A Varinha Mágica ocupa um lugar especial na história da sexualidade feminina e dos eletrônicos de consumo, mas não é o primeiro dispositivo desse tipo a ser comercializado como um massageador pessoal, nem o primeiro produzido por um líder na indústria de eletrônicos. A GE também comercializou o seu modelo, assim como a Panasonic e a Oster (mais conhecido por seus liquidificadores).

De acordo com The Technology of Orgasm, de Rachel P. Manes, o primeiro vibrador eletrônico apareceu em 1878, antes do rádio, da televisão e de uma série de outras tecnologias inovadoras. Maines descreve um dispositivo, alimentado por uma bateria enorme, inventado por um médico inglês chamado Joseph Mortimer Granville e fabricado pela Weiss, uma fabricante de instrumentos médicos.

O folião motorizado da Weiss foi usado pela primeira vez para tratar a histeria, uma antiquada condição médica [que nunca existiu] que se pensava ser curada pelo orgasmo feminino. Como destaca Maines, no início dos anos 1900, havia dezenas de modelos no mercado e seus usos se expandiram para incluir tratamento para tudo, desde artrite e prisão de ventre até dores musculares.

The Rabbit Habit, outro vibrador popular distribuído pela Vibratex – Imagem: Engadget

Desde que Mortimer Granville inventou o primeiro vibrador elétrico, esses ‘gadgets’ penetraram com sucesso no entretenimento, com aparições nos principais filmes, programas de TV populares e revistas de moda. Mesmo Oprah Winfrey não tem medo de falar o que pensa sobre o assunto. (Aparentemente, a “grande O” prefere algo do tamanho de um “pulverizador de perfume” a massageadores de costas descomunais, como a Varinha Mágica.) As atitudes em relação ao sexo e aos brinquedos sexuais mudaram drasticamente, mas nenhum outro vibrador capturou a imaginação convencional como a Varinha Mágica, exceto para talvez o “multipontas” Rabbit, que foi o centro das atenções em um episódio de Sex and the City.

Com a ajuda da grande mídia, discussões sérias sobre a masturbação passaram dos confins das oficinas de sexualidade feminina para o nível da cultura popular. Em 1994, a então “Surgeon General” dos EUA, Joycelyn Elders, já à época uma figura controversa, foi forçada a renunciar após sugerir que os alunos fossem ensinados a se masturbar para conter a disseminação da AIDS.

Percorremos um longo caminho desde a renúncia de Elders; leis arcaicas que restringiam a venda de brinquedos sexuais lentamente caíram dos códigos legais e figuras públicas como Oprah legitimaram o assunto na grande mídia. Mas a masturbação e seus acessórios ainda são tabu. Na verdade, é difícil obter informações sobre a Magic Wand fora das anedotas pessoais e do site oficial do dispositivo. MagicWandOriginal.com contém uma lista de especificações, análises de usuários e uma vaga história do aparelho, mas nenhuma menção às suas origens.

É comumente referido como o Cadillac dos vibradores e tem sido um best-seller na sex shop progressiva Good Vibrations desde sua inauguração em 1977 – Imagem: Hitachi

Parece que o silêncio é proposital. Entramos em contato com a Hitachi várias vezes enquanto pesquisávamos essa história e não recebemos resposta. Na verdade, de acordo com Eddie Romero, diretor de operações da Vibratex, a principal importadora americana do dispositivo, a Hitachi planejava descontinuar o produto antes do redesenho de 2013. Segundo ele, a Hitachi é uma empresa japonesa “muito tradicional” e não queria que seu nome fosse vinculado ao que é essencialmente o brinquedo sexual mais conhecido da Terra. A Vibratex, ainda não preparada para perder seu maior sucesso de vendas (250.000 por ano), convenceu a Hitachi a continuar produzindo-o sob o nome Magic Wand Original [Varinha Mágica Original].

“Evidentemente, o Sr. Hitachi (Senior). não gostou da ideia de que sua máquina de massagem estava proporcionando orgasmos a milhões de mulheres”, disse Dodson. “Que merda! Ele continua sendo meu vibrador favorito até hoje.”

Splinternet: a Crescente Ameaça de Fragmentação da Rede

Você tenta usar seu cartão de crédito, mas ele não funciona. Na verdade, o cartão de crédito de ninguém funciona. Você tenta ir a alguns sites de notícias para descobrir o que está acontecendo, mas também não consegue acessar nenhum deles. Nem mais ninguém consegue. Logo as pessoas estão em pânico fazendo compras de itens essenciais e esvaziando caixas eletrônicos.

Imagem: iStock

Esse tipo de colapso catastrófico da pan-Internet é mais provável do que a maioria das pessoas imagina. O Projeto Atlas da Internet[1], da Universidade da Califórnia, Berkeley, tem como objetivo produzir indicadores dos pontos fracos, gargalos e vulnerabilidades que ameaçam a estabilidade da Internet, tornando mais claros os riscos de longo prazo.

Por exemplo, onde estão os pontos de fragilidade na conectividade global de cabos? Cabos físicos submarinos fornecem 95% do tráfego de voz e dados da Internet. Mas devido a problemas de infraestrutura, alguns países, como Tonga, se conectam a apenas um outro país, o que os torna vulneráveis ​​a ataques de grampeamento de cabos.

Outro exemplo são as redes de distribuição de conteúdo, que os sites usam para disponibilizar prontamente seu conteúdo a um grande número de usuários. Para ilustrar o problema, uma interrupção na rede de distribuição de conteúdo [Content Delivery Network – CDN] Fastly em 8 de junho de 2021, interrompeu brevemente o acesso aos sites da Amazon, CNN, PayPal, Reddit, Spotify, The New York Times e do governo do Reino Unido.

Atualmente, a Internet enfrenta perigos duplos. Por um lado, existe a ameaça de consolidação total. O poder sobre a Internet tem se concentrado cada vez mais, notadamente nas mãos de algumas organizações sediadas nos Estados Unidos. Por outro lado, nota-se uma crescente fragmentação. As tentativas de desafiar o status quo, especialmente por parte da Rússia e da China, ameaçam desestabilizar a Internet globalmente.

Para quem a Internet está se tornando mais confiável e para quem ela está se tornando mais instável? Estas são as questões críticas. Cerca de 3,4 bilhões de pessoas agora estão se conectando à Internet em países como Fiji, Tonga e Vanuatu. Que tipo de Internet eles herdarão? Uma Internet controlada pelos EUA.

Desde pelo menos 2015, os principais serviços que alimentam a internet estão cada vez mais centralizados nas mãos de empresas americanas. Estima-se que as corporações, organizações sem fins lucrativos e agências governamentais dos EUA poderiam bloquear um total de 96% do conteúdo da Internet global de alguma forma.

O Departamento de Justiça dos EUA costumeiramente usa ordens judiciais destinadas aos fornecedores de tecnologia [Google, Facebook, etc] para bloquear o acesso global a conteúdos ilegais nos EUA, como violações de direitos autorais. Ultimamente, porém, o governo federal dos EUA tem estendido sua jurisdição de forma mais agressiva. Em junho, o DOJ usou uma ordem judicial para suspender brevemente um site de notícias iraniano que o departamento alegou estar espalhando desinformação.

Devido às interdependências da web – como das redes de distribuição de conteúdo – um passo em falso na aplicação desses procedimentos pode derrubar uma peça-chave qualquer da infraestrutura da Internet, tornando mais provável um apagão generalizado.

Nesse meio-tempo, não apenas o governo, mas empresas de tecnologia com sede nos EUA também correm o risco de causar estragos pelo mundo. Considere a recente briga da Austrália com o Facebook sobre o pagamento às agências de notícias por seu conteúdo. A certa altura, o Facebook bloqueou todas as notícias em sua plataforma na Austrália.

Uma consequência foi que muitas pessoas em Fiji, Nauru, Papua Nova Guiné, Samoa, Tonga e Vanuatu perderam temporariamente uma fonte importante de notícias, porque dependem de planos de celular pré-pagos que oferecem acesso com desconto ao Facebook [mas não a sites de informação]. À medida que essas escaramuças aumentam de frequência, os países em todo o mundo estarão cada vez mais sujeitos a interrupções em seu acesso à Internet.

Uma ‘Splinternet’

Naturalmente, nem todo mundo está feliz com essa Internet liderada pelos EUA. A Rússia estrangula o tráfego do Twitter. A China bloqueia o acesso ao Google.

Essas manobras domésticas ameaçam colapsos localizados [a Índia agora se acostumou a fechar a Internet regionalmente durante distúrbios civis]. Tomados em conjunto, esses movimentos representam uma ameaça global: a fragmentação da Internet. Uma Internet fragmentada ameaça a expressão individual, o comércio e a cooperação global na ciência.

Esse estado de coisas também aumenta o risco de ataques ao coração da Internet. Em uma Internet aberta global, os ataques à infraestrutura prejudicam a todos. As internets nacionais isoladas, entretanto, seriam mais resistentes. Por exemplo, a Rússia possui a capacidade de se desconectar do resto da Internet mundial, mantendo o serviço internamente. Dispondo dessa capacidade, ela poderia ser tentada a atacar a infraestrutura central da Internet global com menos risco de perturbar sua população doméstica. Um ataque sofisticado contra uma empresa-chave dos Estados Unidos [qualquer uma] pode causar uma interrupção de grande escala na Internet.

O Futuro da Internet

Durante grande parte de sua história, a Internet foi imperfeitamente, mas amplamente aberta. O conteúdo pode ser acessado em qualquer lugar, além das fronteiras nacionais. Talvez essa abertura seja por causa, e não apesar, do domínio de uma grande democracia liberal como os EUA sobre a internet.

Quer essa teoria seja válida ou não, é improvável que o domínio dos EUA sobre a Internet persista indefinidamente. O status quo enfrenta desafios colocados pelos adversários dos EUA, seus aliados históricos e suas próprias empresas nacionais de tecnologia. Se não houver uma ação coordenada, o mundo ficará com uma mistura de poder norte-americano sem controle e um distópico mundo de escaramuças descentralizadas ad-hoc.

Nesse ambiente, construir uma internet estável e transnacional para as gerações futuras é um desafio. Requer delicadeza e precisão. É aí que um trabalho de análise como o do Projeto Atlas faz a diferença. Para tornar a Internet mais estável globalmente, as pessoas e instituições precisam de medições precisas para entender seus pontos de estrangulamento e suas vulnerabilidades. Assim como os bancos centrais observam as métricas de inflação e emprego quando decidem como estabelecer taxas, a governança da Internet também deve se basear em indicadores – por mais imperfeitos que sejam.

* * *

[1] O Internet Atlas mede os riscos estruturais de longo prazo para a Internet global. Ele produz indicadores reproduzíveis e disponibilizados de forma aberta para identificar pontos fortes e fracos em vários níveis da “pilha” da Internet.

Uber Drivers

Hoje não é Sexta de Leão. O post das sextas procura trazer informações interessantes e novidadeiras [e até profundas], com uma pegada casual e um olhar original, mas sempre com um fundo leve de chiste. Meu estado de espírito nesta semana não me permite chistes. Além da solidão do distanciamento social [que já não mais suporto] e do cansaço geral da pandemia, estou tentando entender o que as estatísticas do site estão a me dizer. Embora eu seja honrado pela atenção dos novos amigos e colegas que fiz na grande rede WordPress, vejo que as pessoas do meu entorno e os [sedizentes] amigos não visitam meu site. Como posso conquistar o mundo se não consigo conquistar minha roda de bar ou a grande família?

Imagem: iStock

Eu costumo apoiar entusiasticamente os projetos dos amigos, mas não estou sendo reciprocado. Será que meu conteúdo, produzido com muito esforço, não está a contento? Será que não acreditam em mim e na minha capacidade? Por que não me dão feedback? Será que pensam que este é um projeto de vaidade? Será que não sabem que este site é um componente importante da estrutura de meu ganha-pão? Será que os ofendi de alguma forma? Ou, pior: será que também tiveram o cérebro sequestrado pelas infames redes sociais e se tornaram completamente incapazes de um pouco de concentração para entender textos como os que escrevo?

Confesso que talvez eu não seja bom para interagir em redes [minhas contas no FB e Twitter estão inativas há anos], apesar de administrar dezenas delas [construídas por mim]. Se isso é verdade, temo pelo meu futuro, na crescente e inexorável economia de rede. A reação [ou falta de] dos amigos ao meu trabalho pode ser um sinal precoce da minha obsolescência. Luto para me manter à tona e não ser varrido do mapa pelos ventos da mudança. Tangido pela exasperação, é sobre isso que decidi falar hoje.

Se você está dirigindo para o Uber ou trabalhando no iFood, seu pensamento, alguns anos atrás, seria: viva a gig economy, viva a liberdade, viva a flexibilidade! Isso tudo é muito bom. Acredito que deva existir muita coisa boa nessas novas empresas. Mas por outro lado, o lado humano, nesse ambiente você só tem chance de progredir aritmeticamente, como um operário de fábrica na Inglaterra da década de 1850. Você tem tempo flexível, mas sem propriedade, sem benefícios, sem aprendizagem, sem comunidade, sem potencial de crescimento geométrico e sempre sujeito às mudanças que eles fazem no centro da rede, aos ajustes que fazem no algoritmo e nas regras do jogo .

Se você ficar temporariamente incapacitado, em tratamento médico, ou atendendo sua família em algum percalço, a rede não precisa de você – o elemento na periferia do sistema. Você será imediatamente substituído por outro par de mãos. Você trabalha avulso, pela remuneração mínima, não construindo nada além de sua classificação no sistema deles, sem acumular vantagens, não importa o quanto você trabalhe. Seu milésimo dia no trabalho será igual ao primeiro.

Há um conjunto de empregos que tradicionalmente sempre foram província da classe média, como arquitetura ou medicina, mas esses empregos serão cada vez mais desviados para a rede, e o licitante mais barato e mais rápido obterá o contrato – por uma remuneração bem menor do que as pessoas costumavam ganhar pelo mesmo serviço na velha economia. Isso é a hiperglobalização. É a multiplicação por dez do que vimos na década de 1980, quando os EUA perderam a liderança na competição global em várias indústrias importantes da época, como aço e automóveis, e o ‘rust belt’ se formou.

As empresas centrais da economia em rede têm um impacto ainda maior sobre os consumidores [talvez nem mesmo este termo se aplique mais] do que tinham os gigantes de escala do passado, como a Standard Oil e a GM. Isso porque, nos tempos da economia de escala, você podia optar por um produto alternativo, caso não gostasse do produto oferecido.

Mas agora, não temos muita opção fora da rede. Estamos cativos. Não éramos cativos da GM, mas estou cativo, por exemplo, do Google e do Whatsapp [minha fonte particular de desgosto], porque é onde estão todas as pessoas importantes na minha área, meus clientes e potenciais clientes. Eu não posso escapar dessa situação. Estamos presos ao LinkedIn porque é assim que somos vistos pelos empregadores e parceiros com os quais interagimos. E não podemos simplesmente cancelá-los como faríamos tranquilamente com a GM.

Também ao contrário dos funcionários da GM, os motoristas do Uber precisam interagir com a rede do Uber em tempo real. Com a Ford, usei seus produtos por mais de 20 anos. Eles não tinham como me vigiar. Detroit não tinha acesso fácil ao meu nome e perfil financeiro. Mas as novas redes digitais otimizam nosso perfil de custo / benefício minuto a minuto. Eles são partes constantes de nossas vidas, extraindo o que podem de cada nó da rede. Eles sabem quem somos e conhecem nosso contexto familiar e econômico. É por isso que, aqui na extremidade da rede, estamos em desvantagem. A maioria dos nós da rede [si, nosotros!] são periféricos, e dançamos conforme a música dos algoritmos emanados do centro.

Imagem: iStock

Economia de rede

Eis uma mudança importante no mundo: na economia de rede, temos um novo conceito de ‘self’. Uma mudança semelhante ocorreu na revolução industrial, quando passamos do cultivo autossuficiente de nosso próprio solo para estar na linha de produção e ser parte do sistema, trabalhando 16 horas por dia em um tear. A revolução industrial causou uma mudança de consciência. Estamos agora passando por uma nova mudança radical na consciência e na percepção de qual é o nosso lugar no universo.

A economia da rede precisa de um novo contrato social

Um “contrato social” é um acordo geralmente não escrito entre uma sociedade e suas partes componentes, para cooperar em benefício mútuo. É um acordo implícito que a maioria de nós aceita para que possamos “ser livres e procurar a felicidade” dentro de uma comunidade. É a narrativa que anima a nacionalidade; que une uma nação ou um mundo. É o que delimita o que podemos esperar um do outro. São as regras do jogo.

Por exemplo, o contrato social entre o governo e seus cidadãos nos Estados Unidos após a Segunda Guerra Mundial era [para os cidadãos]: formar-se no ensino médio, comprar uma casa, trabalhar 40 anos para uma empresa de grande porte [ou para o governo], se aposentar aos 64 e depois viver tranquilamente na Florida. A responsabilidade do governo era se esforçar para promulgar leis para tornar tudo isso realidade. Esse foi o contrato social original, e todas as outras histórias foram construídas em torno dessa história.

Durante o mesmo período, o contrato social entre empresas de grande porte e seus funcionários era que os funcionários devotassem 40 anos de serviço leal, em troca de estabilidade e uma aposentadoria tranquila.

É claro que essa versão antiga do contrato social já expirou há pelo menos 20 anos. Todos concordam com isso. Mas nem todos concordam sobre como devem ser os novos contratos sociais.

Aqui estão algumas ideias de coisas que serão diferentes agora que vivemos em uma economia em rede. Não é a melhor das utopias, e, talvez, de fato se transforme em uma distopia. Mas estamos aqui a registrar os fatos e não para expressar desejos.

O Novo Contrato da Sociedade com seus Cidadãos

  1. Você renunciará à sua privacidade.

O cidadão abrirá mão da privacidade para que o sistema o reconheça e possa otimizar seus resultados pessoais. É uma barganha [ao meu ver faustiana].

Aqueles que se chocam com a perspectiva de qualquer redução de privacidade [como eu], precisam aceitar que isso já aconteceu e que, quando lhe é dada a oportunidade de compartilhar seus dados para obter benefícios [ainda que mínimos], a grande massa das pessoas alegremente se rende às miçangas e espelhos.

Em troca, a sociedade [talvez] concordará que:

  1. Você terá um emprego (se tiver disposição e capacidade).

No passado, a tragédia era que mesmo os muito dispostos e capazes frequentemente não conseguiam um emprego. Com o advento da internet, se você quiser e puder, agora pode oferecer seu trabalho com custos mínimos: Dirigir Ubers, construir sites, entregar comida, se exibir sexualmente diante de uma câmera, etc. Se você quer mesmo um emprego, pode conseguir seu “emprego” [aspas duplas] na internet.

Infelizmente, a parte difícil desse cenário são as pessoas emocionalmente “divergentes” e introvertidas, mesmo sendo dispostas. Algumas dessas pessoas [de novo, eu] não são emocionalmente ou intelectualmente capazes de lidar com redes. Elas são ansiosas ou deprimidas demais para atuar em um nível alto o suficiente para serem membros valiosos da rede. Alguns são fisicamente incapazes devido a doenças genéticas ou acidentes.

Paralelamente, a transparência e a velocidade da tecnologia de rede tornarão mais difícil a competição no mercado de trabalho. As exigências aumentarão para o quão emocionalmente estável e inteligente você precisa ser para competir. Todos estarão ao sabor da lei de potência [lei de potência: os melhores se dão cada vez melhor e os piores cada vez pior].

As novas tecnologias vão deixar para trás as pessoas sem preparo emocional, automotivação ou inteligência. As mudanças vão privilegiar as pessoas mais extrovertidas e energéticas.

Isso parece assustador; um motivo para um levante social. Então, o que podemos fazer?

O melhor caminho a seguir parece ser “usar soluções da rede para resolver os problemas da rede” – construir sistemas para melhorar as pessoas e mantê-las relevantes para a rede. Mais treinamento, mais apoio, mais empregos de nicho, mais conexão através da rede.

  1. Você terá acesso a treinamento.

Muitos já o fazem. Você pode se auto educar como nunca antes, graças a uma quase infinidade de conteúdo na internet. E há os cursos online. Além disso, IAs de treinamento e conteúdo estarão em toda parte. Muitas interfaces de trabalho já estão se tornando “gameficadas”, capazes de fornecer feedback constante à medida que você aprende um novo trabalho.

  1. Você terá liberdade para escolher seu trabalho e como usará seu tempo.

Já estamos vendo milhões de pessoas escolherem a liberdade do horário flexível em vez de outros benefícios tradicionais, como férias [gasp!].

  1. O governo não impedirá o crescimento da rede.

Os governos são estruturas de pensamento hierárquico. Eles são os dinossauros em extinção e as redes correspondem aos primeiros mamíferos. As redes vão reduzir o poder do estado-nação. Por outro lado, as afiliações e conexões internacionais vão aumentar.

O novo contrato social deve evitar prender as pessoas com muita força. Os cidadãos vão abraçar a economia de rede e tenderão a não se apegar à economia de escala do mundo industrial. Já que as pessoas vão agir assim, os governos vão se adaptar de forma correspondente. A economia de escala não vai desaparecer, mas vai se tornar uma parte menor da vida e da economia, como aconteceu com a agricultura na era industrial.

  1. Você terá a mobilidade como norma de vida.

Morar em uma casa com um gramado aparado e cercas branquíssimas já não é o único sonho americano possível.

Se a história nos diz alguma coisa, os próximos SnapChat, Airbnb e Uber serão criados nos próximos vinte e quatro meses. Embora a próxima startup de um bilhão de dólares [a brasileira Aucky 😉] ainda não tenha adquirido um formato reconhecível, é certo que todas elas funcionarão baseadas no efeito de rede. Se no fim das contas isso vai ser positivo para você ou para mim, deixo como exercício mental [como dizia Einstein, um gedänkenexperiment] para o fim de semana.

Fonte: https://www.nfx.com/post/network-economy/

* * *

Deixo também uma saudação aos amigos que nunca a lerão. E meu agradecimento pelo apoio nunca recebido.

(*)Tentei seguir teu conselho e escrever humanamente, @Tati. Acho que exagerei.

O Futuro da AI é Luminoso (e analógico)

Para concluir a Rápida Introdução à ‘Inteligência Artificial’, publico o post complementar, para apresentar o inovador chip ótico [ainda sem nome comercial] da start-up Lightmatter, contendo o chamado interferômetro Mach-Zehnderque, que promete elevar a computação de sistemas de aprendizagem de máquinas a um novo patamar.

Imagem: iStock

O aprendizado de máquina profundo, ou seja, redes neurais artificiais com muitas camadas ocultas, sempre nos fascina com soluções inovadoras para problemas do mundo real, cada vez em mais áreas, incluindo processamento de linguagem natural, detecção de fraude, reconhecimento de imagem e direção autônoma. As redes neurais ficam melhores a cada dia.

Mas esses avanços têm um preço enorme nos recursos de computação e no consumo de energia. Portanto, não é de se admirar que engenheiros e cientistas da computação estejam fazendo grandes esforços para descobrir maneiras de treinar e operar redes neurais profundas com mais eficiência.

Uma nova e ambiciosa estratégia que está fazendo o ‘début’ este ano é executar a computação de redes neurais usando fótons em vez de elétrons. A Lightmatter começará a comercializar no final deste ano seu chip acelerador de rede neural que calcula com luz. Será um refinamento do protótipo do chip Mars que a empresa exibiu em agosto passado.

O protótipo MARS, instalado em uma placa

Embora o desenvolvimento de um acelerador ótico comercial para aprendizado profundo seja uma conquista notável, a ideia geral de ‘computação com luz’ não é nova. Os engenheiros empregavam regularmente essa tática nas décadas de 1960 e 1970, quando os computadores digitais eletrônicos ainda não tinham capacidade para realizar cálculos complexos. Assim, os dados eram processados no domínio analógico, usando luz.

Em virtude dos ganhos da Lei de Moore na eletrônica digital, a computação óptica nunca realmente pegou, apesar da ascensão da luz [fibras óticas] como veículo para comunicação de dados. Mas tudo isso pode estar prestes a mudar: a Lei de Moore, que durante décadas proporcionou aumentos exponenciais na capacidade dos chips eletrônicos, mostra sinais de estar chegando ao fim, ao mesmo tempo em que as demandas da computação de aprendizado profundo estão explodindo.

Não há muitas escolhas para lidar com esse problema. Pesquisadores de aprendizagem profunda podem até desenvolver algoritmos mais eficientes, mas é difícil prever se esses ganhos serão suficientes. Essa é a razão da Lightmatter estar empenhada em “desenvolver uma nova tecnologia de computação que não dependa do transistor”.

Fundamentos

O componente fundamental no chip Lightmatter é um interferômetro Mach-Zehnder. Esse dispositivo ótico foi inventado em conjunto por Ludwig Mach e Ludwig Zehnder na década de 1890. Mas só recentemente esses dispositivos óticos foram miniaturizados a ponto de um grande número deles poder ser integrado em um chip e usado para realizar as multiplicações de matrizes envolvidas nos cálculos de rede neural.

O interferômetro Mach-Zehnder é um dispositivo usado para determinar as variações relativas de deslocamento de fase entre dois feixes colimados derivados da divisão da luz de uma única fonte. É um dispositivo particularmente simples para demonstrar interferência por divisão de amplitude. Um feixe de luz é primeiro dividido em duas partes por um divisor de feixe e, em seguida, recombinado por um segundo divisor de feixe. Dependendo da fase relativa adquirida pelo feixe ao longo dos dois caminhos, o segundo divisor de feixe refletirá o feixe com eficiência entre 0 e 100%. – Gráfico: Vox Leone – Uso Permitido

Esses feitos só se tornaram possíveis nos últimos anos devido ao amadurecimento do ecossistema de manufatura de fotônica integrada, necessário para fazer chips fotônicos para comunicações.

O processamento de sinais analógicos transportados pela luz reduz os custos de energia e aumenta a velocidade dos cálculos, mas a precisão pode não corresponder ao que é possível no domínio digital. O sistema é 8-bits-equivalente. Isso por enquanto mantém o chip restrito a cálculos de inferência de rede neural – aqueles que são realizados depois que a rede foi treinada.

Os desenvolvedores do sistema esperam que sua tecnologia possa um dia ser aplicada também ao treinamento de redes neurais. O treinamento exige mais precisão do que o processador ótico pode fornecer nesta etapa.

A Lightmatter não está sozinha em busca da luz para cálculos de redes neurais. Outras startups que trabalham nesta linha são Fathom Computing, LightIntelligence, LightOn, Luminous e Optalysis.

A Luminous espera desenvolver sistemas práticos em algum momento entre 2022 e 2025. Portanto, ainda teremos que esperar alguns anos para ver como essa abordagem vai evoluir. Mas muitos estão entusiasmados com as perspectivas, incluindo Bill Gates, um dos maiores investidores da empresa.

Uma coisa é clara: os recursos de computação dedicados aos sistemas de inteligência artificial não podem continuar a crescer sustentavelmente na taxa atual, dobrando a cada três ou quatro meses. Os engenheiros estão ansiosos para utilizar a fotônica integrada para enfrentar esse desafio de construir uma nova classe de máquinas de computação drasticamente diferentes daquelas baseadas nos chips eletrônicos convencionais, que agora se tornam viáveis para fabricação. São dispositivos que no passado recente só podiam ser imaginados.

Os Perigos do Software Evidencial – ou Quem Garante o Bafômetro?

No Lawfare Blog, Susan Landau escreve um excelente ensaio sobre os riscos apresentados pelos aplicativos usados em dispositivos de coleta de evidências (um bafômetro é provavelmente o exemplo mais óbvio). Bugs e vulnerabilidades nessa classe de equipamento podem levar a evidências imprecisas. Para compor o problema, a natureza proprietária do software torna difícil para a equipe de defesa dos réus examiná-lo. A seguir um brevíssimo resumo da essência do material.

Imagem: iStock

[…]

Os engenheiros de software propuseram um teste de três partes.

Primeiro, o tribunal deve ter acesso ao “Log de erros conhecidos”, algo que deve fazer parte de qualquer bom projeto de software desenvolvido profissionalmente.

Em seguida, o tribunal deve considerar se as provas apresentadas podem ser afetadas materialmente por um erro de software. Ladkin e seus co-autores observaram que a maioria das funcionalidades não apresentará erro, mas o momento preciso em que o software registra o uso do dispositivo pode facilmente estar incorreto.

Finalmente, os especialistas em confiabilidade recomendaram verificar se o código adere a um determinado padrão da indústria usado em uma versão não computadorizada da tarefa (por exemplo, os contadores sempre registram todas as transações – portanto, o software usado na contabilidade também deve registrar).

[…]

Objetos inanimados há muito servem como prova em tribunais: a maçaneta da porta contendo uma impressão digital, a luva encontrada na cena de um crime, o resultado do bafômetro que mostra um nível de álcool no sangue três vezes o limite legal. Mas o último desses exemplos é substancialmente diferente dos outros dois. Os dados de um bafômetro não são a entidade física em si, mas sim um cálculo de um software a respeito do nível de álcool no hálito de um motorista potencialmente bêbado. Desde que a amostra de respiração tenha sido preservada, pode-se sempre voltar e testá-la novamente em um dispositivo diferente.

O que acontece se o software cometer um erro e não houver mais nenhuma amostra para verificar? Ou, e se o próprio software produzir a evidência contra o réu? No momento em que escrevemos este artigo, não havia nenhum precedente no qual a lei permita que o próprio réu examine o código subjacente.

[…]

Dada a alta taxa de erros em sistemas de software complexos, meus colegas e eu concluímos que, quando programas de computador produzem uma prova, os tribunais não podem presumir que o software probatório seja confiável. Em vez disso, a acusação deve disponibilizar o código para uma “auditoria contraditória” pelos especialistas designados pelo réu[1]. E para evitar problemas em que o governo não tenha o código para que este seja inspecionado, os contratos de compras governamentais devem incluir a garantia de entrega do código-fonte do software adquirido – código que seja mais ou menos legível pelas pessoas – para cada versão do código ou dispositivo.

Ler o trabalho na íntegra [em inglês] em Lawfare Blog.

* * *

O comentário pertinente é: o Estado pode exigir calibração regular do bafômetro, mas quem os inspeciona? Há garantia de que o poder público multará a polícia por não verificar se os bafômetros estão calibrados de forma adequada além de estar também funcionando corretamente? E quem calibra os calibradores?

Se nenhuma amostra da respiração for retida, apenas o registro da observação do software, como a leitura de um bafômetro é essencialmente diferente de um boato ou palavra-de-boca? Será porque o bafômetro é “tecnológico”? Assumir que o instrumento é mais preciso que uma testemunha humana, apenas porque é tecnológico, gera outros grandes problemas conceituais.

Mas acho que o ponto mais amplo é este: dada a quase total falta de responsabilidade da indústria do software, a inescrutabilidade do código proprietário e a qualidade duvidosa da maioria do software comercial, um tribunal – que busca a verdade – não deve acolher prima facie evidências que consistam exclusivamente do resultado de um software.

Este não é um problema técnico, mas um problema legal causado por políticas inadequadas: a indústria do software precisa de regulamentação, responsabilidade e reforma das leis de direitos autorais.

[1] Um especialista que consultei – que um dia estará escrevendo neste espaço, gentilmente me explicou [o que agradeço penhoradamente] que esse protocolo não existe no ordenamento brasileiro. Mas da explicação depreendo que a lei brasileira pode comportar soluções análogas a essa.

A Crise das Redes: Como Administrar o Comportamento Coletivo Global

Abrimos esta semana apresentando em português o necessário estudo “Administração do Comportamento Coletivo Global”, sobre o que eu pessoalmente que caracterizo como a Crise das Rede Sociais. A sociedade humana nunca teve que lidar com entidades tão potentes, com tão grande potencial desagregador, tão desconhecidas e tão incompreendidas. Estamos em um momento-chave da civilização, e o que fizermos nesta década definirá o caminho da espécie humana por séculos.

A ‘Economia da Atenção’ tem facilitado comportamentos extremos e provocado rupturas políticas e culturais. Sua influência na opinião pública exibe uma escala sem precedentes na evolução da civilização. Imagem: iStock

O comportamento coletivo fornece uma estrutura para a compreensão de como as ações e propriedades dos grupos emergem da maneira como os indivíduos geram e compartilham informações. Em humanos, os fluxos de informação foram inicialmente moldados pela seleção natural, mas são cada vez mais estruturados por tecnologias de comunicação emergentes. Nossas redes sociais maiores e mais complexas agora movimentam informações de alta fidelidade através de grandes distâncias a baixo custo. A era digital e a ascensão das mídias sociais aceleraram as mudanças em nossos sistemas sociais, com consequências funcionais mal compreendidas. Essa lacuna em nosso conhecimento representa o principal desafio para o progresso científico, para a democracia e para as ações para enfrentar as crises globais. Argumentamos que o estudo do comportamento coletivo deve ser elevado a uma “disciplina de crise”, assim como a medicina, a conservação e a ciência do clima, e ter foco em fornecer uma visão prática para a administração dos sistemas sociais destinada aos formuladores de políticas públicas bem como os reguladores.

O comportamento coletivo historicamente se refere às instâncias em que grupos de humanos ou animais exibem ação coordenada na ausência de um líder óbvio: de bilhões de gafanhotos, estendendo-se por centenas de quilômetros, devorando a vegetação à medida que avançam; de cardumes de peixes convulsionando como um fluido animado quando sob ataque de predadores às nossas próprias sociedades, caracterizadas por cidades, com edifícios e ruas cheias de cor e som, vivas de atividade. A característica comum de todos esses sistemas é que as interações sociais entre os organismos individuais dão origem a padrões e estruturas em níveis mais elevados de organização, desde a formação de vastos grupos nômades até o surgimento de sociedades baseadas na divisão de trabalho, normas sociais, opiniões, e dinâmica de preços.

Nas últimas décadas, o “comportamento coletivo” evoluiu de uma descrição de fenômenos gerais para uma estrutura conduciva à compreensão dos mecanismos pelos quais a ação coletiva emerge (3⇓⇓⇓-7). Ele revela como as propriedades de “ordem superior” das estruturas coletivas em grande escala, se retroalimentam para influenciar o comportamento individual, que por sua vez pode influenciar o comportamento do coletivo, e assim por diante. O comportamento coletivo, portanto, se concentra no estudo de indivíduos no contexto de como eles influenciam e são influenciados pelos outros, levando em consideração as causas e consequências das diferenças interindividuais em fisiologia, motivação, experiência, objetivos e outras propriedades.

Imagem: iStock

As interações multiescala e o feedback que fundamentam o comportamento coletivo são marcas definidoras de “sistemas complexos” – que incluem nosso cérebro, redes de energia, mercados financeiros e o mundo natural. Quando perturbados, os sistemas complexos tendem a exibir uma resiliência finita seguida por mudanças catastróficas, repentinas e muitas vezes irreversíveis na sua funcionalidade. Em uma ampla gama de sistemas complexos, a pesquisa destacou como a perturbação antropogênica – tecnologia, extração de recursos e crescimento populacional – é uma fonte crescente, se não dominante, de risco sistêmico. No entanto, a pesquisa científica sobre como os sistemas complexos são afetados pela tecnologia humana e pelo crescimento populacional tem se concentrado mais intensamente nas ameaças que eles representam para o mundo natural.

Temos uma compreensão muito mais pobre das consequências funcionais das recentes mudanças em grande escala no comportamento humano coletivo e na tomada de decisões. Nossas adaptações sociais evoluíram no contexto de pequenos grupos de caçadores-coletores resolvendo problemas locais por meio de vocalizações e gestos. Em contraste, agora enfrentamos desafios globais complexos, de pandemias a mudanças climáticas – e nos comunicamos em redes dispersas conectadas por tecnologias digitais, como smartphones e mídias sociais.

Com ligações cada vez mais fortes entre os processos ecológicos e sociológicos, evitar a catástrofe a médio prazo (por exemplo, coronavírus) e a longo prazo (por exemplo, mudança climática, segurança alimentar) exigirá respostas comportamentais coletivas rápidas e eficazes – ainda não se sabe se a dinâmica social humana permitirá tais respostas.

Além das ameaças ecológicas e climáticas existenciais, a dinâmica social humana apresenta outros desafios ao bem-estar individual e coletivo, como recusa de vacinas, adulteração de eleições, doenças, extremismo violento, fome, racismo e guerra.

Nenhuma das mudanças evolutivas ou tecnológicas em nossos sistemas sociais ocorreu com o propósito expresso de promover a sustentabilidade global ou a qualidade de vida. Tecnologias recentes e emergentes, como mídia social online, não são exceção – tanto a estrutura de nossas redes sociais quanto os padrões de fluxo de informações por meio delas são direcionados por decisões de engenharia feitas para maximizar a lucratividade. Essas mudanças são drásticas, opacas, efetivamente não regulamentadas e de grande escala.

Disciplina de Crise

As consequências funcionais emergentes são desconhecidas. Não temos a estrutura científica necessária para responder até mesmo às questões mais básicas que as empresas de tecnologia e seus reguladores enfrentam. Por exemplo, será que um determinado algoritmo para recomendar amigos – ou um para selecionar itens de notícias a serem exibidos – promove ou impede a disseminação de desinformação online? Não temos um corpo de literatura embasado teoricamente e verificado empiricamente para informar uma resposta a tal pergunta. Na falta de uma estrutura desenvolvida, as empresas de tecnologia se atrapalharam com a pandemia de coronavírus em curso, incapazes de conter a “infodemia” de desinformação que impede a aceitação pública de medidas de controle, como máscaras e testes generalizados.

Em resposta, os reguladores e o público têm insistido nos pedidos de reforma do nosso ecossistema de mídia social, com demandas que vão desde maior transparência e controles de usuário até responsabilidade legal e propriedade pública. O debate básico é antigo: os processos comportamentais em grande escala são autossustentáveis ​​e autocorretivos, ou requerem gerenciamento e orientação ativos para promover o bem-estar sustentável e equitativo? Historicamente, essas questões sempre foram tratadas em termos filosóficos ou normativos. Aqui, construímos nossa compreensão dos sistemas complexos perturbados para argumentar que não se pode esperar que a dinâmica social humana produza soluções para questões globais ou promova o bem-estar humano sem uma política baseada em evidências e administração ética.

A situação é paralela aos desafios enfrentados na biologia da conservação e na ciência do clima, onde indústrias insuficientemente regulamentadas otimizam os seus lucros enquanto minam a estabilidade dos sistemas ecológicos. Tal comportamento criou a necessidade de uma política urgente baseada em evidências, na falta de uma compreensão completa da dinâmica subjacente dos sistemas (por exemplo, ecologia e geociências). Essas características levaram Michael Soulé a descrever a biologia da conservação como o contraponto da “disciplina de crise” à ecologia. As disciplinas de crise são distintas de outras áreas de pesquisa urgente baseada em evidências em sua necessidade de considerar a degradação de todo um sistema complexo – sem uma descrição completa da dinâmica do sistema. Sentimos que o estudo do comportamento humano coletivo deve se tornar a resposta da disciplina de crise às mudanças em nossa dinâmica social.

Como o comportamento humano coletivo é o resultado de processos que abrangem escalas temporais, geográficas e organizacionais, abordar o impacto da tecnologia emergente no comportamento global exigirá uma abordagem transdisciplinar e um colaboração sem precedentes entre cientistas em uma ampla gama de disciplinas acadêmicas. À medida que nossas sociedades são cada vez mais instanciadas na forma digital, abstrações de processos sociais – as redes são um exemplo proeminente – tornam-se partes muito reais da vida diária. Essas mudanças apresentam novos desafios, bem como oportunidades, para avaliação e intervenção. Disciplinas dentro e fora das ciências sociais têm acesso a técnicas e formas de pensar que expandem nossa capacidade de entender e responder aos efeitos da tecnologia de comunicação. Acreditamos que tal colaboração é urgentemente necessária.

Ler artigo original na íntegra:

Stewardship of Global Collective Behavior

Joseph B. Bak-Coleman, Mark Alfano, Wolfram Barfuss, Carl T. Bergstrom, Miguel A.
Proceedings of the National Academy of Sciences of the United States of America

Sexta de Leão: as Relações Íntimas Entre Porn & Tech

Ao longo da história das mídias, da linguagem vernacular à tipografia, à fotografia, aos livros de bolso, ao videoteipe, à TV a cabo e streaming, às linhas telefônicas “900”, ao Minitel francês, aos laser-discs e CD-ROMs, até a Internet, a pornografia sempre mostrou o caminho para a tecnologia de consumo. Não é a pornografia, diz um argumento, é a distribuição!

Imagem: iStock

O vídeo ultra-conservador Perversion for Profit de 1965 [sem link para não ferir o ranking do blog] afirma: “A pornografia e o desvio sexual sempre fizeram parte da condição humana, isso é verdade. Mas agora tudo ganhou uma nova dimensão… Impressoras de alta velocidade, transporte rápido, distribuição em massa… tudo se combinou para colocar as obscenidades mais loucas ao alcance de cada homem e mulher”.

Longe vão esses tempos ingênuos diante do inesgotável buffet de imagens e sensações de que o usuário médio de Internet dispõe em 2021. O pornô até o ano 2000 era basicamente Playboy e Penthouse – por mais sexistas que fossem. Hoje a pornografia está mudada completamente, e mudou por causa da internet . A internet tornou a pornografia acessível – e (pseudo) anônima.

Todo mundo conhece a extensão da pornografia, mas poucos percebem seu verdadeiro poder. Ao ler (cursivamente) “The Sex Effect” – que examina as relações ocultas entre sexo e cultura – fiquei surpreendentemente consciente da quantidade de tecnologias de consumo que acabaram sendo adotadas pelas massas por causa da pornografia. Videocassetes, comércio eletrônico, serviços de streaming, marketing de rede – e, em última análise, a própria internet – têm uma dívida de gratidão para com os vendedores de obscenidades que ajudaram a popularizá-los. Porque, embora os militares tenham criado a internet, eles não teriam sido capazes de encontrar uma base de consumidores tão sólida sem a pornografia. Pense nos militares como o inventores/criadores de um serviço e a pornografia como o veículo que leva o serviço às massas.

“De inúmeras formas, grandes ou aparentemente insignificantes, a indústria pornográfica abriu um caminho comercial que outras indústrias estão assimilando e se apressando em seguir”, disse Frederick Lane, autor de “Lucros obscenos: Os empreendedores da pornografia na era cibernética”.

Embora as novas tecnologias de modo geral tenham permitido a expansão da indústria pornográfica, a internet tem sido uma faca de dois gumes para a indústria. A Internet aumentou a prevalência e a popularidade da pornografia, mas também facilitou a pornografia gratuita e de fácil acesso, assim como o conteúdo sexual criado pelo usuário. Muito resiliente, o setor tem sido criativo em superar essas circunstâncias.

Essa indústria nunca parou de inovar, – apesar da falência de muitas empresas pornográficas na última década. Brinquedos sexuais controlados por computador, realidade virtual e avatares sexuais são apenas alguns dos produtos com os quais os executivos do mundo pornô estão fazendo experiências.

Imagem: iStock

Os modelos de negócio do pornô também evoluíram

Para combater o onipresente conteúdo gratuito, as empresas pornográficas estão criando iniciativas voltadas à experiências premium – tanto ao vivo quanto online. Isso é feito por meio da venda de produtos e serviços derivados, como sessões de fotos (com o vibrador que foi usado durante uma cena de sexo específica); seminários ‘educacionais’ (para ensinar aos casais coisas como dinâmicas da submissão e dominação); tours em estúdios (ao vivo e virtuais); franquias de clubes de strip, swing, bares, lojas, restaurantes, hotéis; webcams ao vivo com as novas divas – as estrelas pornôs; podcasts e rádio; eventos; financiamento coletivo de conteúdo e criação de pacotes personalizados nos quais os consumidores pagam para atuar como diretores e atores… A lista é infindável.

Mesmo que a pornografia tenha tido esse impacto descomunal nas tecnologias de consumo e serviços que as pessoas usam no dia a dia, raramente ela recebe o devido crédito, já que a discussão sobre pornografia na sociedade é sempre – e naturalmente – guiada pela ideologia.

“Se não fosse pelo estigma, a pornografia seria louvada publicamente como uma indústria que soube desenvolver, adotar e difundir novas tecnologias com sucesso e rapidez”, escreveu o historiador Jonathan Coopersmith. “Mas, devido à própria natureza do assunto, o silêncio e o constrangimento sempre foram as reações padrão.”

Embora a maioria das pessoas já tenha usado pornografia casualmente, aquelas que aparecem nas notícias sobre ela normalmente pertencem a dois extremos: lobistas pró-pornografia e fanáticos anti-pornografia tentando convencer os eleitores da justiça de sua causa. Mas até que a sociedade olhe além de seu conteúdo diáfano e de seu complexo significado, o impacto real do erotismo permanecerá em grande parte desconhecido.

Para concluir esta sexta-feira [na verdade, para começar, :wink], deixo um trecho do trabalho de Peter Johnson (1996) “Pornography Drives Technology: Why Not to Censor the Internet” Federal Communications Law Journal: Vol. 49 : Iss. 1 , Article 8], disponível [em inglês] no site do FCLJ

“‘A grande arte é sempre flanqueada por suas irmãs sombrias: a blasfêmia e a pornografia.’ O mesmo é verdade para as artes mundanas que chamamos de mídia. Onde há a Bíblia de Gutenberg, também há Rabelais; onde há correio, também há cartões postais eróticos; onde há um romance de capa dura em três volumes, há a literatura barata em papel reciclado.

A Pornografia, longe de ser um mal que a Primeira Emenda deve tolerar, é um bem positivo que incentiva a experimentação com novas mídias. A Primeira Emenda, portanto, não lida apenas com valor intelectual, moral, político e artístico, mas também com o valor prático e econômico. Insta os adultos, sob consentimento mútuo, desinibidos pela falta de censura, a procurar novos estilos de vida e comunicação, bem como novas maneiras de ganhar dinheiro com os novos costumes. Portanto, embora possa ser politicamente arriscado e socialmente imprudente incentivar a pornografia por computador, os legisladores deveriam se afastar e deixar a midia seguir por onde a pornografia levar.”

* * *

Obs.: Sendo este um blog, o post pretende estimular a discussão agnóstica e desapaixonada. Este texto não representa todas as sutilezas de minha posição pessoal sobre a questão.

O Que é Preciso Saber Sobre SSDs

Muito longo, não vou ler:

SSDs tornaram-se bastante baratos e têm um desempenho muito alto. Por exemplo, um SSD de servidor Samsung PM1733 custa cerca de US$ 200 por TB e promete cerca de 7 GB/s de leitura e 4 GB/s de largura de banda de gravação. Para alcançar esse alto desempenho, é necessário saber como funcionam os SSDs e esta postagem procura descrever os mecanismos subjacentes mais importantes dos SSDs flash.

* * *

Os SSDs, menores e com maior capacidade de armazenamento, permitiram uma geração de dispositivos ‘slim’ – Imagem: iStock

Solid-State Drives (SSDs) baseados em flash têm substituído amplamente os discos magnéticos rígidos como meio de armazenamento padrão. Do ponto de vista de um programador, SSDs e discos rígidos são muito semelhantes: ambos são persistentes, permitem o acesso baseado em página por meio de sistemas de arquivos e chamadas de sistema, e têm grande capacidade.
Há por outro lado diferenças importantes, que se tornam decisivas quando se deseja otimizar o desempenho de um SSD.

Como veremos, os SSDs são mais complicados e seu comportamento no desempenho pode parecer bastante intrigante se pensarmos neles apenas como “discos rápidos”. O objetivo desta postagem é fornecer uma compreensão do por quê os SSDs se comportam dessa maneira – conhecimento que pode ajudar a criar programas mais adequados para explorá-los. (Observe que eu discuto o flash NAND, não uma memória como a Intel Optane, que tem características diferentes.)

Disco não. Unidade é o nome

Os SSDs costumam ser chamados de “discos”. Isso é enganoso, porque eles de fato armazenam dados em semicondutores em vez de em um disco mecânico. Para ler ou gravar em um bloco aleatório, um disco deve mover mecanicamente sua cabeça para o ponto correto, o que leva cerca de 10 ms [milissegundos]. Em contraste, uma leitura aleatória de um SSD leva cerca de 100 us [microssegundos] – 100 vezes mais rápido. Essa baixa latência de leitura é a razão pela qual a inicialização de um SSD é muito mais rápida do que a inicialização de um disco.

As Paralelas

Outra diferença importante entre discos e SSDs é que os discos têm um cabeçote para leitura/escrita e funcionam bem apenas para acessos sequenciais. Os SSDs, em contraste, consistem em dezenas, ou mesmo centenas, de chips flash (“unidades paralelas”), que podem ser acessados ​​simultaneamente.

Os SSDs distribuem os arquivos maiores de forma transparente pelos chips flash na granularidade da página, e um hardware pré-buscador garante que as varreduras sequenciais explorem todos os chips flash disponíveis. No entanto, no nível do flash não há muita diferença entre leituras sequenciais e aleatórias. Na verdade, para a maioria dos SSDs, também é possível usar quase toda a largura de banda disponível com leituras de página aleatórias. Para fazer isso, é necessário agendar simultaneamente centenas de solicitações aleatórias de entrada e saída para manter todos os chips flash ocupados. Isso pode ser feito iniciando muitos threads ou usando interfaces assíncronas de entrada e saída.

Gravando

As coisas ficam ainda mais interessantes com as gravações. Por exemplo, se olharmos com atenção para a latência de gravação, podemos medir resultados tão baixos quanto 10us – 10 vezes mais rápido do que uma leitura. No entanto, a latência só parece baixa porque os SSDs estão armazenando gravações em cache na RAM volátil. A latência real de gravação do flash NAND é de cerca de 1 ms – 10 vezes mais lenta do que uma leitura. Em SSDs de consumidor, isso pode ser medido emitindo um comando sync/flush após a gravação, para garantir que os dados persistam no flash. Na maioria dos SSDs de alta performance [data center/servidor], a latência de gravação não pode ser medida diretamente: a sincronização/liberação será concluída imediatamente porque uma ‘bateria’ garante a persistência do cache de gravação, mesmo em caso de perda de energia.

Para alcançar alta largura de banda de gravação, apesar da latência relativamente alta, os SSDs usam o mesmo truque das leituras: eles acessam vários chips flash simultaneamente. Como o cache de gravação pode gravar páginas de maneira assíncrona, não é necessário agendar muitas gravações simultaneamente para obter um bom desempenho de gravação. No entanto, a latência de gravação nem sempre pode ser completamente oculta: por exemplo, como uma gravação ocupa um chip flash 10 vezes mais do que uma leitura, as gravações causam latências de cauda significativas para leituras no mesmo chip flash.

Gravações fora-do-local

Nosso entendimento está ignorando um fato importante: as páginas flash NAND não podem ser substituídas. As gravações de página só podem ser executadas sequencialmente nos blocos que foram apagados anteriormente. Esses blocos de apagamento têm um tamanho de vários MB e, portanto, consistem em centenas de páginas. Em um SSD novo, todos os blocos estão apagados e é possível começar a anexar novos dados diretamente.

Atualizar páginas, no entanto, não é tão fácil. Seria muito “overhead” apagar o bloco inteiro apenas para sobrescrever uma única página no local. Portanto, os SSDs executam atualizações de página gravando a nova versão da página em um novo local. Isso significa que os endereços lógico e físico das páginas são separados. Uma tabela de mapeamento, que é armazenada no SSD, converte endereços lógicos (software) em locais físicos (flash). Esse componente também é chamado de Flash Translation Layer (FTL).

Por exemplo, vamos supor que temos um SSD (hipotético) com 3 blocos de apagamento, cada um com 4 páginas. Uma sequência de gravações nas páginas P1, P2, P0, P3, P5, P1 pode resultar no seguinte estado físico do SSD:

Bloco 0 P1 (antigo) P2 P0 P3
Bloco 1 P5 P1 →
Bloco 2

Coleta de lixo

Usando a tabela de mapeamento e gravação fora-de-local, tudo vai bem até que o SSD fique sem blocos livres. A versão antiga das páginas sobrescritas deve, no fim de tudo, ser recuperada. Se continuarmos nosso exemplo acima, escrevendo para as páginas P3, P4, P7, P1, P6, P2, teremos a seguinte situação:

Bloco 0 P1 (antigo) P2 (antigo) P0 P3 (antigo)
Bloco 1 P5 P1 (antigo) P3 P4
Bloco 2 P7 P1 P6 P2

Neste ponto, não temos mais blocos de apagamento livres (embora, lógicamente, ainda deva haver espaço). Antes que alguém possa escrever outra página, o SSD primeiro deve apagar um bloco. No nosso exemplo, pode ser melhor para o coletor de lixo apagar o bloco 0, porque apenas uma de suas páginas ainda está em uso. Depois de apagar o bloco 0, liberamos espaço para 3 gravações e nosso SSD fica assim:

Bloco 0 P0 →
Bloco 1 P5 P1 (antigo) P3 P4
Bloco 2 P7 P1 P6 P2

Amplificação de gravação e excesso de provisionamento

Para o bloco de coleta de lixo 0, tivemos que mover fisicamente a página P0, embora logicamente essa página não tenha sido envolvida em nenhum processo. Em outras palavras, com SSDs flash, o número de gravações físicas (flash) é geralmente maior do que o número de gravações lógicas (software). A proporção entre os dois números é chamada de ‘’amplificação de gravação. Em nosso exemplo, para abrir espaço para 3 novas páginas no bloco 0, tivemos que mover 1 página. Assim, temos 4 gravações físicas para 3 gravações lógicas, ou seja, uma amplificação de gravação de 1,33.

A alta amplificação de gravação diminui o desempenho e reduz a vida útil do flash. O tamanho da amplificação de gravação depende do padrão de acesso e de quão preenchido está o SSD. Grandes gravações sequenciais têm baixa amplificação de gravação, enquanto gravações aleatórias são o pior caso.

Vamos supor que nosso SSD está 50% preenchido e que executamos gravações aleatórias. No estado estacionário, sempre que apagamos um bloco cerca de metade das páginas desse bloco, em média, ainda estão em uso e devem ser copiadas. Assim, a amplificação de gravação para um fator de preenchimento de 50% é 2. Em geral, a amplificação de gravação de pior caso para um fator de preenchimento f é 1/(1-f):

f 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 0,99
WA 1,11 1,25 1,43 1,67 2,00 2,50 3,33 5 10 20 100

Como a amplificação de gravação torna-se excessivamente alta para fatores de preenchimento próximos a 1, a maioria dos SSDs tem uma capacidade ociosa oculta. Esse super provisionamento é normalmente de 10 a 20% da capacidade total. Obviamente, também é fácil adicionar mais provisionamento em excesso, criando uma partição vazia e nunca gravar nela.

Espero ter sido bem sucedido nesta tentativa de explicação. Tentei também manter este post curto, o que significa que eu tive que simplificar as coisas.

História (1978): Podemos nos Libertar do Estilo de von Neumann?

Anos 70, quando os mainframes e as linguagens procedurais FORTRAN e COBOL reinavam. A complexidade nos negócios aumentava e o mundo da computação parecia estar em um beco sem saída, quando o artigo abaixo foi publicado. Era preciso um novo paradigma e os questionamentos emergiam de todos os lados. Uma nova concepção de software surgiria em 1979, com a linguagem C e o paradigma de Orientação a Objetos. Mas nunca nos libertamos da Máquina de von Neumann. Isso virá um dia com a computação quântica, que ainda dá seus primeiros passos.

Uma máquina de von Neumann, projetada pelo físico e matemático John von Neumann (1903–1957) é um projeto teórico para um computador de uso geral. Uma máquina de von Neumann consiste em um processador central (dir.) com uma unidade lógica/aritmética (ULA), uma unidade de controle e uma memória (esq.).

* * *

A programação pode se libertar do estilo de von Neumann? Um estilo funcional e sua álgebra de programas

Resumo

As linguagens de programação convencionais estão ficando cada vez maiores, mas não mais fortes. Defeitos inerentes ao seu nível mais básico as tornam inchadas e fracas: seu estilo primitivo de programação ‘palavra-por-vez’ herdado de seu ancestral comum – o computador de von Neumann; seu acoplamento íntimo da semântica a transições de estado; sua divisão da programação em um mundo de expressões e um mundo de declarações; sua incapacidade de usar eficazmente formas combinantes poderosas para construir novos programas a partir dos existentes; e sua falta de propriedades matemáticas úteis para raciocinar sobre programas.

Um estilo funcional alternativo de programação baseia-se no uso de formas combinantes para a criação de programas. Os programas funcionais lidam com dados estruturados, são frequentemente não repetitivos e não recursivos, são construídos hierarquicamente, não nomeiam seus argumentos e não exigem que o mecanismo complexo de declarações de procedimento se torne aplicável de forma geral. Formas combinantes podem usar programas de alto nível para construir outros programas de nível ainda mais alto, em um estilo não possível em linguagens convencionais.

Uma álgebra de programas cujas variáveis ​​abarcam todo um programa e cujas operações são formas combinantes é relacionadas ao estilo funcional de programação. Essa álgebra pode ser usada para transformar programas e resolver equações cujas “incógnitas” são também programas como as transformações de equações na álgebra do ensino médio. Essas transformações são dadas por leis algébricas e são executadas na mesma linguagem em que os programas são escritos. As formas combinantes são escolhidas não apenas por seu poder de programação, mas também pelo poder das leis algébricas associadas a elas. Teoremas gerais dessa álgebra fornecem o comportamento detalhado e as condições de término [halting conditions] para grandes classes de programas.

Uma nova classe de sistemas de computação usa o estilo de programação funcional tanto em sua linguagem de programação quanto em suas regras de transição de estado. Ao contrário das linguagens de von Neumann, esses sistemas têm semântica fracamente acoplada a estados – apenas uma transição de estado ocorre por computação principal.

Ver transcrição do artigo original em Association for Computing Machinery.