Uber Drivers

Hoje não é Sexta de Leão. O post das sextas procura trazer informações interessantes e novidadeiras [e até profundas], com uma pegada casual e um olhar original, mas sempre com um fundo leve de chiste. Meu estado de espírito nesta semana não me permite chistes. Além da solidão do distanciamento social [que já não mais suporto] e do cansaço geral da pandemia, estou tentando entender o que as estatísticas do site estão a me dizer. Embora eu seja honrado pela atenção dos novos amigos e colegas que fiz na grande rede WordPress, vejo que as pessoas do meu entorno e os [sedizentes] amigos não visitam meu site. Como posso conquistar o mundo se não consigo conquistar minha roda de bar ou a grande família?

Imagem: iStock

Eu costumo apoiar entusiasticamente os projetos dos amigos, mas não estou sendo reciprocado. Será que meu conteúdo, produzido com muito esforço, não está a contento? Será que não acreditam em mim e na minha capacidade? Por que não me dão feedback? Será que pensam que este é um projeto de vaidade? Será que não sabem que este site é um componente importante da estrutura de meu ganha-pão? Será que os ofendi de alguma forma? Ou, pior: será que também tiveram o cérebro sequestrado pelas infames redes sociais e se tornaram completamente incapazes de um pouco de concentração para entender textos como os que escrevo?

Confesso que talvez eu não seja bom para interagir em redes [minhas contas no FB e Twitter estão inativas há anos], apesar de administrar dezenas delas [construídas por mim]. Se isso é verdade, temo pelo meu futuro, na crescente e inexorável economia de rede. A reação [ou falta de] dos amigos ao meu trabalho pode ser um sinal precoce da minha obsolescência. Luto para me manter à tona e não ser varrido do mapa pelos ventos da mudança. Tangido pela exasperação, é sobre isso que decidi falar hoje.

Se você está dirigindo para o Uber ou trabalhando no iFood, seu pensamento, alguns anos atrás, seria: viva a gig economy, viva a liberdade, viva a flexibilidade! Isso tudo é muito bom. Acredito que deva existir muita coisa boa nessas novas empresas. Mas por outro lado, o lado humano, nesse ambiente você só tem chance de progredir aritmeticamente, como um operário de fábrica na Inglaterra da década de 1850. Você tem tempo flexível, mas sem propriedade, sem benefícios, sem aprendizagem, sem comunidade, sem potencial de crescimento geométrico e sempre sujeito às mudanças que eles fazem no centro da rede, aos ajustes que fazem no algoritmo e nas regras do jogo .

Se você ficar temporariamente incapacitado, em tratamento médico, ou atendendo sua família em algum percalço, a rede não precisa de você – o elemento na periferia do sistema. Você será imediatamente substituído por outro par de mãos. Você trabalha avulso, pela remuneração mínima, não construindo nada além de sua classificação no sistema deles, sem acumular vantagens, não importa o quanto você trabalhe. Seu milésimo dia no trabalho será igual ao primeiro.

Há um conjunto de empregos que tradicionalmente sempre foram província da classe média, como arquitetura ou medicina, mas esses empregos serão cada vez mais desviados para a rede, e o licitante mais barato e mais rápido obterá o contrato – por uma remuneração bem menor do que as pessoas costumavam ganhar pelo mesmo serviço na velha economia. Isso é a hiperglobalização. É a multiplicação por dez do que vimos na década de 1980, quando os EUA perderam a liderança na competição global em várias indústrias importantes da época, como aço e automóveis, e o ‘rust belt’ se formou.

As empresas centrais da economia em rede têm um impacto ainda maior sobre os consumidores [talvez nem mesmo este termo se aplique mais] do que tinham os gigantes de escala do passado, como a Standard Oil e a GM. Isso porque, nos tempos da economia de escala, você podia optar por um produto alternativo, caso não gostasse do produto oferecido.

Mas agora, não temos muita opção fora da rede. Estamos cativos. Não éramos cativos da GM, mas estou cativo, por exemplo, do Google e do Whatsapp [minha fonte particular de desgosto], porque é onde estão todas as pessoas importantes na minha área, meus clientes e potenciais clientes. Eu não posso escapar dessa situação. Estamos presos ao LinkedIn porque é assim que somos vistos pelos empregadores e parceiros com os quais interagimos. E não podemos simplesmente cancelá-los como faríamos tranquilamente com a GM.

Também ao contrário dos funcionários da GM, os motoristas do Uber precisam interagir com a rede do Uber em tempo real. Com a Ford, usei seus produtos por mais de 20 anos. Eles não tinham como me vigiar. Detroit não tinha acesso fácil ao meu nome e perfil financeiro. Mas as novas redes digitais otimizam nosso perfil de custo / benefício minuto a minuto. Eles são partes constantes de nossas vidas, extraindo o que podem de cada nó da rede. Eles sabem quem somos e conhecem nosso contexto familiar e econômico. É por isso que, aqui na extremidade da rede, estamos em desvantagem. A maioria dos nós da rede [si, nosotros!] são periféricos, e dançamos conforme a música dos algoritmos emanados do centro.

Imagem: iStock

Economia de rede

Eis uma mudança importante no mundo: na economia de rede, temos um novo conceito de ‘self’. Uma mudança semelhante ocorreu na revolução industrial, quando passamos do cultivo autossuficiente de nosso próprio solo para estar na linha de produção e ser parte do sistema, trabalhando 16 horas por dia em um tear. A revolução industrial causou uma mudança de consciência. Estamos agora passando por uma nova mudança radical na consciência e na percepção de qual é o nosso lugar no universo.

A economia da rede precisa de um novo contrato social

Um “contrato social” é um acordo geralmente não escrito entre uma sociedade e suas partes componentes, para cooperar em benefício mútuo. É um acordo implícito que a maioria de nós aceita para que possamos “ser livres e procurar a felicidade” dentro de uma comunidade. É a narrativa que anima a nacionalidade; que une uma nação ou um mundo. É o que delimita o que podemos esperar um do outro. São as regras do jogo.

Por exemplo, o contrato social entre o governo e seus cidadãos nos Estados Unidos após a Segunda Guerra Mundial era [para os cidadãos]: formar-se no ensino médio, comprar uma casa, trabalhar 40 anos para uma empresa de grande porte [ou para o governo], se aposentar aos 64 e depois viver tranquilamente na Florida. A responsabilidade do governo era se esforçar para promulgar leis para tornar tudo isso realidade. Esse foi o contrato social original, e todas as outras histórias foram construídas em torno dessa história.

Durante o mesmo período, o contrato social entre empresas de grande porte e seus funcionários era que os funcionários devotassem 40 anos de serviço leal, em troca de estabilidade e uma aposentadoria tranquila.

É claro que essa versão antiga do contrato social já expirou há pelo menos 20 anos. Todos concordam com isso. Mas nem todos concordam sobre como devem ser os novos contratos sociais.

Aqui estão algumas ideias de coisas que serão diferentes agora que vivemos em uma economia em rede. Não é a melhor das utopias, e, talvez, de fato se transforme em uma distopia. Mas estamos aqui a registrar os fatos e não para expressar desejos.

O Novo Contrato da Sociedade com seus Cidadãos

  1. Você renunciará à sua privacidade.

O cidadão abrirá mão da privacidade para que o sistema o reconheça e possa otimizar seus resultados pessoais. É uma barganha [ao meu ver faustiana].

Aqueles que se chocam com a perspectiva de qualquer redução de privacidade [como eu], precisam aceitar que isso já aconteceu e que, quando lhe é dada a oportunidade de compartilhar seus dados para obter benefícios [ainda que mínimos], a grande massa das pessoas alegremente se rende às miçangas e espelhos.

Em troca, a sociedade [talvez] concordará que:

  1. Você terá um emprego (se tiver disposição e capacidade).

No passado, a tragédia era que mesmo os muito dispostos e capazes frequentemente não conseguiam um emprego. Com o advento da internet, se você quiser e puder, agora pode oferecer seu trabalho com custos mínimos: Dirigir Ubers, construir sites, entregar comida, se exibir sexualmente diante de uma câmera, etc. Se você quer mesmo um emprego, pode conseguir seu “emprego” [aspas duplas] na internet.

Infelizmente, a parte difícil desse cenário são as pessoas emocionalmente “divergentes” e introvertidas, mesmo sendo dispostas. Algumas dessas pessoas [de novo, eu] não são emocionalmente ou intelectualmente capazes de lidar com redes. Elas são ansiosas ou deprimidas demais para atuar em um nível alto o suficiente para serem membros valiosos da rede. Alguns são fisicamente incapazes devido a doenças genéticas ou acidentes.

Paralelamente, a transparência e a velocidade da tecnologia de rede tornarão mais difícil a competição no mercado de trabalho. As exigências aumentarão para o quão emocionalmente estável e inteligente você precisa ser para competir. Todos estarão ao sabor da lei de potência [lei de potência: os melhores se dão cada vez melhor e os piores cada vez pior].

As novas tecnologias vão deixar para trás as pessoas sem preparo emocional, automotivação ou inteligência. As mudanças vão privilegiar as pessoas mais extrovertidas e energéticas.

Isso parece assustador; um motivo para um levante social. Então, o que podemos fazer?

O melhor caminho a seguir parece ser “usar soluções da rede para resolver os problemas da rede” – construir sistemas para melhorar as pessoas e mantê-las relevantes para a rede. Mais treinamento, mais apoio, mais empregos de nicho, mais conexão através da rede.

  1. Você terá acesso a treinamento.

Muitos já o fazem. Você pode se auto educar como nunca antes, graças a uma quase infinidade de conteúdo na internet. E há os cursos online. Além disso, IAs de treinamento e conteúdo estarão em toda parte. Muitas interfaces de trabalho já estão se tornando “gameficadas”, capazes de fornecer feedback constante à medida que você aprende um novo trabalho.

  1. Você terá liberdade para escolher seu trabalho e como usará seu tempo.

Já estamos vendo milhões de pessoas escolherem a liberdade do horário flexível em vez de outros benefícios tradicionais, como férias [gasp!].

  1. O governo não impedirá o crescimento da rede.

Os governos são estruturas de pensamento hierárquico. Eles são os dinossauros em extinção e as redes correspondem aos primeiros mamíferos. As redes vão reduzir o poder do estado-nação. Por outro lado, as afiliações e conexões internacionais vão aumentar.

O novo contrato social deve evitar prender as pessoas com muita força. Os cidadãos vão abraçar a economia de rede e tenderão a não se apegar à economia de escala do mundo industrial. Já que as pessoas vão agir assim, os governos vão se adaptar de forma correspondente. A economia de escala não vai desaparecer, mas vai se tornar uma parte menor da vida e da economia, como aconteceu com a agricultura na era industrial.

  1. Você terá a mobilidade como norma de vida.

Morar em uma casa com um gramado aparado e cercas branquíssimas já não é o único sonho americano possível.

Se a história nos diz alguma coisa, os próximos SnapChat, Airbnb e Uber serão criados nos próximos vinte e quatro meses. Embora a próxima startup de um bilhão de dólares [a brasileira Aucky 😉] ainda não tenha adquirido um formato reconhecível, é certo que todas elas funcionarão baseadas no efeito de rede. Se no fim das contas isso vai ser positivo para você ou para mim, deixo como exercício mental [como dizia Einstein, um gedänkenexperiment] para o fim de semana.

Fonte: https://www.nfx.com/post/network-economy/

* * *

Deixo também uma saudação aos amigos que nunca a lerão. E meu agradecimento pelo apoio nunca recebido.

(*)Tentei seguir teu conselho e escrever humanamente, @Tati. Acho que exagerei.

O Futuro da AI é Luminoso (e analógico)

Para concluir a Rápida Introdução à ‘Inteligência Artificial’, publico o post complementar, para apresentar o inovador chip ótico [ainda sem nome comercial] da start-up Lightmatter, contendo o chamado interferômetro Mach-Zehnderque, que promete elevar a computação de sistemas de aprendizagem de máquinas a um novo patamar.

Imagem: iStock

O aprendizado de máquina profundo, ou seja, redes neurais artificiais com muitas camadas ocultas, sempre nos fascina com soluções inovadoras para problemas do mundo real, cada vez em mais áreas, incluindo processamento de linguagem natural, detecção de fraude, reconhecimento de imagem e direção autônoma. As redes neurais ficam melhores a cada dia.

Mas esses avanços têm um preço enorme nos recursos de computação e no consumo de energia. Portanto, não é de se admirar que engenheiros e cientistas da computação estejam fazendo grandes esforços para descobrir maneiras de treinar e operar redes neurais profundas com mais eficiência.

Uma nova e ambiciosa estratégia que está fazendo o ‘début’ este ano é executar a computação de redes neurais usando fótons em vez de elétrons. A Lightmatter começará a comercializar no final deste ano seu chip acelerador de rede neural que calcula com luz. Será um refinamento do protótipo do chip Mars que a empresa exibiu em agosto passado.

O protótipo MARS, instalado em uma placa

Embora o desenvolvimento de um acelerador ótico comercial para aprendizado profundo seja uma conquista notável, a ideia geral de ‘computação com luz’ não é nova. Os engenheiros empregavam regularmente essa tática nas décadas de 1960 e 1970, quando os computadores digitais eletrônicos ainda não tinham capacidade para realizar cálculos complexos. Assim, os dados eram processados no domínio analógico, usando luz.

Em virtude dos ganhos da Lei de Moore na eletrônica digital, a computação óptica nunca realmente pegou, apesar da ascensão da luz [fibras óticas] como veículo para comunicação de dados. Mas tudo isso pode estar prestes a mudar: a Lei de Moore, que durante décadas proporcionou aumentos exponenciais na capacidade dos chips eletrônicos, mostra sinais de estar chegando ao fim, ao mesmo tempo em que as demandas da computação de aprendizado profundo estão explodindo.

Não há muitas escolhas para lidar com esse problema. Pesquisadores de aprendizagem profunda podem até desenvolver algoritmos mais eficientes, mas é difícil prever se esses ganhos serão suficientes. Essa é a razão da Lightmatter estar empenhada em “desenvolver uma nova tecnologia de computação que não dependa do transistor”.

Fundamentos

O componente fundamental no chip Lightmatter é um interferômetro Mach-Zehnder. Esse dispositivo ótico foi inventado em conjunto por Ludwig Mach e Ludwig Zehnder na década de 1890. Mas só recentemente esses dispositivos óticos foram miniaturizados a ponto de um grande número deles poder ser integrado em um chip e usado para realizar as multiplicações de matrizes envolvidas nos cálculos de rede neural.

O interferômetro Mach-Zehnder é um dispositivo usado para determinar as variações relativas de deslocamento de fase entre dois feixes colimados derivados da divisão da luz de uma única fonte. É um dispositivo particularmente simples para demonstrar interferência por divisão de amplitude. Um feixe de luz é primeiro dividido em duas partes por um divisor de feixe e, em seguida, recombinado por um segundo divisor de feixe. Dependendo da fase relativa adquirida pelo feixe ao longo dos dois caminhos, o segundo divisor de feixe refletirá o feixe com eficiência entre 0 e 100%. – Gráfico: Vox Leone – Uso Permitido

Esses feitos só se tornaram possíveis nos últimos anos devido ao amadurecimento do ecossistema de manufatura de fotônica integrada, necessário para fazer chips fotônicos para comunicações.

O processamento de sinais analógicos transportados pela luz reduz os custos de energia e aumenta a velocidade dos cálculos, mas a precisão pode não corresponder ao que é possível no domínio digital. O sistema é 8-bits-equivalente. Isso por enquanto mantém o chip restrito a cálculos de inferência de rede neural – aqueles que são realizados depois que a rede foi treinada.

Os desenvolvedores do sistema esperam que sua tecnologia possa um dia ser aplicada também ao treinamento de redes neurais. O treinamento exige mais precisão do que o processador ótico pode fornecer nesta etapa.

A Lightmatter não está sozinha em busca da luz para cálculos de redes neurais. Outras startups que trabalham nesta linha são Fathom Computing, LightIntelligence, LightOn, Luminous e Optalysis.

A Luminous espera desenvolver sistemas práticos em algum momento entre 2022 e 2025. Portanto, ainda teremos que esperar alguns anos para ver como essa abordagem vai evoluir. Mas muitos estão entusiasmados com as perspectivas, incluindo Bill Gates, um dos maiores investidores da empresa.

Uma coisa é clara: os recursos de computação dedicados aos sistemas de inteligência artificial não podem continuar a crescer sustentavelmente na taxa atual, dobrando a cada três ou quatro meses. Os engenheiros estão ansiosos para utilizar a fotônica integrada para enfrentar esse desafio de construir uma nova classe de máquinas de computação drasticamente diferentes daquelas baseadas nos chips eletrônicos convencionais, que agora se tornam viáveis para fabricação. São dispositivos que no passado recente só podiam ser imaginados.

Os Perigos do Software Evidencial – ou Quem Garante o Bafômetro?

No Lawfare Blog, Susan Landau escreve um excelente ensaio sobre os riscos apresentados pelos aplicativos usados em dispositivos de coleta de evidências (um bafômetro é provavelmente o exemplo mais óbvio). Bugs e vulnerabilidades nessa classe de equipamento podem levar a evidências imprecisas. Para compor o problema, a natureza proprietária do software torna difícil para a equipe de defesa dos réus examiná-lo. A seguir um brevíssimo resumo da essência do material.

Imagem: iStock

[…]

Os engenheiros de software propuseram um teste de três partes.

Primeiro, o tribunal deve ter acesso ao “Log de erros conhecidos”, algo que deve fazer parte de qualquer bom projeto de software desenvolvido profissionalmente.

Em seguida, o tribunal deve considerar se as provas apresentadas podem ser afetadas materialmente por um erro de software. Ladkin e seus co-autores observaram que a maioria das funcionalidades não apresentará erro, mas o momento preciso em que o software registra o uso do dispositivo pode facilmente estar incorreto.

Finalmente, os especialistas em confiabilidade recomendaram verificar se o código adere a um determinado padrão da indústria usado em uma versão não computadorizada da tarefa (por exemplo, os contadores sempre registram todas as transações – portanto, o software usado na contabilidade também deve registrar).

[…]

Objetos inanimados há muito servem como prova em tribunais: a maçaneta da porta contendo uma impressão digital, a luva encontrada na cena de um crime, o resultado do bafômetro que mostra um nível de álcool no sangue três vezes o limite legal. Mas o último desses exemplos é substancialmente diferente dos outros dois. Os dados de um bafômetro não são a entidade física em si, mas sim um cálculo de um software a respeito do nível de álcool no hálito de um motorista potencialmente bêbado. Desde que a amostra de respiração tenha sido preservada, pode-se sempre voltar e testá-la novamente em um dispositivo diferente.

O que acontece se o software cometer um erro e não houver mais nenhuma amostra para verificar? Ou, e se o próprio software produzir a evidência contra o réu? No momento em que escrevemos este artigo, não havia nenhum precedente no qual a lei permita que o próprio réu examine o código subjacente.

[…]

Dada a alta taxa de erros em sistemas de software complexos, meus colegas e eu concluímos que, quando programas de computador produzem uma prova, os tribunais não podem presumir que o software probatório seja confiável. Em vez disso, a acusação deve disponibilizar o código para uma “auditoria contraditória” pelos especialistas designados pelo réu[1]. E para evitar problemas em que o governo não tenha o código para que este seja inspecionado, os contratos de compras governamentais devem incluir a garantia de entrega do código-fonte do software adquirido – código que seja mais ou menos legível pelas pessoas – para cada versão do código ou dispositivo.

Ler o trabalho na íntegra [em inglês] em Lawfare Blog.

* * *

O comentário pertinente é: o Estado pode exigir calibração regular do bafômetro, mas quem os inspeciona? Há garantia de que o poder público multará a polícia por não verificar se os bafômetros estão calibrados de forma adequada além de estar também funcionando corretamente? E quem calibra os calibradores?

Se nenhuma amostra da respiração for retida, apenas o registro da observação do software, como a leitura de um bafômetro é essencialmente diferente de um boato ou palavra-de-boca? Será porque o bafômetro é “tecnológico”? Assumir que o instrumento é mais preciso que uma testemunha humana, apenas porque é tecnológico, gera outros grandes problemas conceituais.

Mas acho que o ponto mais amplo é este: dada a quase total falta de responsabilidade da indústria do software, a inescrutabilidade do código proprietário e a qualidade duvidosa da maioria do software comercial, um tribunal – que busca a verdade – não deve acolher prima facie evidências que consistam exclusivamente do resultado de um software.

Este não é um problema técnico, mas um problema legal causado por políticas inadequadas: a indústria do software precisa de regulamentação, responsabilidade e reforma das leis de direitos autorais.

[1] Um especialista que consultei – que um dia estará escrevendo neste espaço, gentilmente me explicou [o que agradeço penhoradamente] que esse protocolo não existe no ordenamento brasileiro. Mas da explicação depreendo que a lei brasileira pode comportar soluções análogas a essa.

A Crise das Redes: Como Administrar o Comportamento Coletivo Global

Abrimos esta semana apresentando em português o necessário estudo “Administração do Comportamento Coletivo Global”, sobre o que eu pessoalmente que caracterizo como a Crise das Rede Sociais. A sociedade humana nunca teve que lidar com entidades tão potentes, com tão grande potencial desagregador, tão desconhecidas e tão incompreendidas. Estamos em um momento-chave da civilização, e o que fizermos nesta década definirá o caminho da espécie humana por séculos.

A ‘Economia da Atenção’ tem facilitado comportamentos extremos e provocado rupturas políticas e culturais. Sua influência na opinião pública exibe uma escala sem precedentes na evolução da civilização. Imagem: iStock

O comportamento coletivo fornece uma estrutura para a compreensão de como as ações e propriedades dos grupos emergem da maneira como os indivíduos geram e compartilham informações. Em humanos, os fluxos de informação foram inicialmente moldados pela seleção natural, mas são cada vez mais estruturados por tecnologias de comunicação emergentes. Nossas redes sociais maiores e mais complexas agora movimentam informações de alta fidelidade através de grandes distâncias a baixo custo. A era digital e a ascensão das mídias sociais aceleraram as mudanças em nossos sistemas sociais, com consequências funcionais mal compreendidas. Essa lacuna em nosso conhecimento representa o principal desafio para o progresso científico, para a democracia e para as ações para enfrentar as crises globais. Argumentamos que o estudo do comportamento coletivo deve ser elevado a uma “disciplina de crise”, assim como a medicina, a conservação e a ciência do clima, e ter foco em fornecer uma visão prática para a administração dos sistemas sociais destinada aos formuladores de políticas públicas bem como os reguladores.

O comportamento coletivo historicamente se refere às instâncias em que grupos de humanos ou animais exibem ação coordenada na ausência de um líder óbvio: de bilhões de gafanhotos, estendendo-se por centenas de quilômetros, devorando a vegetação à medida que avançam; de cardumes de peixes convulsionando como um fluido animado quando sob ataque de predadores às nossas próprias sociedades, caracterizadas por cidades, com edifícios e ruas cheias de cor e som, vivas de atividade. A característica comum de todos esses sistemas é que as interações sociais entre os organismos individuais dão origem a padrões e estruturas em níveis mais elevados de organização, desde a formação de vastos grupos nômades até o surgimento de sociedades baseadas na divisão de trabalho, normas sociais, opiniões, e dinâmica de preços.

Nas últimas décadas, o “comportamento coletivo” evoluiu de uma descrição de fenômenos gerais para uma estrutura conduciva à compreensão dos mecanismos pelos quais a ação coletiva emerge (3⇓⇓⇓-7). Ele revela como as propriedades de “ordem superior” das estruturas coletivas em grande escala, se retroalimentam para influenciar o comportamento individual, que por sua vez pode influenciar o comportamento do coletivo, e assim por diante. O comportamento coletivo, portanto, se concentra no estudo de indivíduos no contexto de como eles influenciam e são influenciados pelos outros, levando em consideração as causas e consequências das diferenças interindividuais em fisiologia, motivação, experiência, objetivos e outras propriedades.

Imagem: iStock

As interações multiescala e o feedback que fundamentam o comportamento coletivo são marcas definidoras de “sistemas complexos” – que incluem nosso cérebro, redes de energia, mercados financeiros e o mundo natural. Quando perturbados, os sistemas complexos tendem a exibir uma resiliência finita seguida por mudanças catastróficas, repentinas e muitas vezes irreversíveis na sua funcionalidade. Em uma ampla gama de sistemas complexos, a pesquisa destacou como a perturbação antropogênica – tecnologia, extração de recursos e crescimento populacional – é uma fonte crescente, se não dominante, de risco sistêmico. No entanto, a pesquisa científica sobre como os sistemas complexos são afetados pela tecnologia humana e pelo crescimento populacional tem se concentrado mais intensamente nas ameaças que eles representam para o mundo natural.

Temos uma compreensão muito mais pobre das consequências funcionais das recentes mudanças em grande escala no comportamento humano coletivo e na tomada de decisões. Nossas adaptações sociais evoluíram no contexto de pequenos grupos de caçadores-coletores resolvendo problemas locais por meio de vocalizações e gestos. Em contraste, agora enfrentamos desafios globais complexos, de pandemias a mudanças climáticas – e nos comunicamos em redes dispersas conectadas por tecnologias digitais, como smartphones e mídias sociais.

Com ligações cada vez mais fortes entre os processos ecológicos e sociológicos, evitar a catástrofe a médio prazo (por exemplo, coronavírus) e a longo prazo (por exemplo, mudança climática, segurança alimentar) exigirá respostas comportamentais coletivas rápidas e eficazes – ainda não se sabe se a dinâmica social humana permitirá tais respostas.

Além das ameaças ecológicas e climáticas existenciais, a dinâmica social humana apresenta outros desafios ao bem-estar individual e coletivo, como recusa de vacinas, adulteração de eleições, doenças, extremismo violento, fome, racismo e guerra.

Nenhuma das mudanças evolutivas ou tecnológicas em nossos sistemas sociais ocorreu com o propósito expresso de promover a sustentabilidade global ou a qualidade de vida. Tecnologias recentes e emergentes, como mídia social online, não são exceção – tanto a estrutura de nossas redes sociais quanto os padrões de fluxo de informações por meio delas são direcionados por decisões de engenharia feitas para maximizar a lucratividade. Essas mudanças são drásticas, opacas, efetivamente não regulamentadas e de grande escala.

Disciplina de Crise

As consequências funcionais emergentes são desconhecidas. Não temos a estrutura científica necessária para responder até mesmo às questões mais básicas que as empresas de tecnologia e seus reguladores enfrentam. Por exemplo, será que um determinado algoritmo para recomendar amigos – ou um para selecionar itens de notícias a serem exibidos – promove ou impede a disseminação de desinformação online? Não temos um corpo de literatura embasado teoricamente e verificado empiricamente para informar uma resposta a tal pergunta. Na falta de uma estrutura desenvolvida, as empresas de tecnologia se atrapalharam com a pandemia de coronavírus em curso, incapazes de conter a “infodemia” de desinformação que impede a aceitação pública de medidas de controle, como máscaras e testes generalizados.

Em resposta, os reguladores e o público têm insistido nos pedidos de reforma do nosso ecossistema de mídia social, com demandas que vão desde maior transparência e controles de usuário até responsabilidade legal e propriedade pública. O debate básico é antigo: os processos comportamentais em grande escala são autossustentáveis ​​e autocorretivos, ou requerem gerenciamento e orientação ativos para promover o bem-estar sustentável e equitativo? Historicamente, essas questões sempre foram tratadas em termos filosóficos ou normativos. Aqui, construímos nossa compreensão dos sistemas complexos perturbados para argumentar que não se pode esperar que a dinâmica social humana produza soluções para questões globais ou promova o bem-estar humano sem uma política baseada em evidências e administração ética.

A situação é paralela aos desafios enfrentados na biologia da conservação e na ciência do clima, onde indústrias insuficientemente regulamentadas otimizam os seus lucros enquanto minam a estabilidade dos sistemas ecológicos. Tal comportamento criou a necessidade de uma política urgente baseada em evidências, na falta de uma compreensão completa da dinâmica subjacente dos sistemas (por exemplo, ecologia e geociências). Essas características levaram Michael Soulé a descrever a biologia da conservação como o contraponto da “disciplina de crise” à ecologia. As disciplinas de crise são distintas de outras áreas de pesquisa urgente baseada em evidências em sua necessidade de considerar a degradação de todo um sistema complexo – sem uma descrição completa da dinâmica do sistema. Sentimos que o estudo do comportamento humano coletivo deve se tornar a resposta da disciplina de crise às mudanças em nossa dinâmica social.

Como o comportamento humano coletivo é o resultado de processos que abrangem escalas temporais, geográficas e organizacionais, abordar o impacto da tecnologia emergente no comportamento global exigirá uma abordagem transdisciplinar e um colaboração sem precedentes entre cientistas em uma ampla gama de disciplinas acadêmicas. À medida que nossas sociedades são cada vez mais instanciadas na forma digital, abstrações de processos sociais – as redes são um exemplo proeminente – tornam-se partes muito reais da vida diária. Essas mudanças apresentam novos desafios, bem como oportunidades, para avaliação e intervenção. Disciplinas dentro e fora das ciências sociais têm acesso a técnicas e formas de pensar que expandem nossa capacidade de entender e responder aos efeitos da tecnologia de comunicação. Acreditamos que tal colaboração é urgentemente necessária.

Ler artigo original na íntegra:

Stewardship of Global Collective Behavior

Joseph B. Bak-Coleman, Mark Alfano, Wolfram Barfuss, Carl T. Bergstrom, Miguel A.
Proceedings of the National Academy of Sciences of the United States of America

Sexta de Leão: as Relações Íntimas Entre Porn & Tech

Ao longo da história das mídias, da linguagem vernacular à tipografia, à fotografia, aos livros de bolso, ao videoteipe, à TV a cabo e streaming, às linhas telefônicas “900”, ao Minitel francês, aos laser-discs e CD-ROMs, até a Internet, a pornografia sempre mostrou o caminho para a tecnologia de consumo. Não é a pornografia, diz um argumento, é a distribuição!

Imagem: iStock

O vídeo ultra-conservador Perversion for Profit de 1965 [sem link para não ferir o ranking do blog] afirma: “A pornografia e o desvio sexual sempre fizeram parte da condição humana, isso é verdade. Mas agora tudo ganhou uma nova dimensão… Impressoras de alta velocidade, transporte rápido, distribuição em massa… tudo se combinou para colocar as obscenidades mais loucas ao alcance de cada homem e mulher”.

Longe vão esses tempos ingênuos diante do inesgotável buffet de imagens e sensações de que o usuário médio de Internet dispõe em 2021. O pornô até o ano 2000 era basicamente Playboy e Penthouse – por mais sexistas que fossem. Hoje a pornografia está mudada completamente, e mudou por causa da internet . A internet tornou a pornografia acessível – e (pseudo) anônima.

Todo mundo conhece a extensão da pornografia, mas poucos percebem seu verdadeiro poder. Ao ler (cursivamente) “The Sex Effect” – que examina as relações ocultas entre sexo e cultura – fiquei surpreendentemente consciente da quantidade de tecnologias de consumo que acabaram sendo adotadas pelas massas por causa da pornografia. Videocassetes, comércio eletrônico, serviços de streaming, marketing de rede – e, em última análise, a própria internet – têm uma dívida de gratidão para com os vendedores de obscenidades que ajudaram a popularizá-los. Porque, embora os militares tenham criado a internet, eles não teriam sido capazes de encontrar uma base de consumidores tão sólida sem a pornografia. Pense nos militares como o inventores/criadores de um serviço e a pornografia como o veículo que leva o serviço às massas.

“De inúmeras formas, grandes ou aparentemente insignificantes, a indústria pornográfica abriu um caminho comercial que outras indústrias estão assimilando e se apressando em seguir”, disse Frederick Lane, autor de “Lucros obscenos: Os empreendedores da pornografia na era cibernética”.

Embora as novas tecnologias de modo geral tenham permitido a expansão da indústria pornográfica, a internet tem sido uma faca de dois gumes para a indústria. A Internet aumentou a prevalência e a popularidade da pornografia, mas também facilitou a pornografia gratuita e de fácil acesso, assim como o conteúdo sexual criado pelo usuário. Muito resiliente, o setor tem sido criativo em superar essas circunstâncias.

Essa indústria nunca parou de inovar, – apesar da falência de muitas empresas pornográficas na última década. Brinquedos sexuais controlados por computador, realidade virtual e avatares sexuais são apenas alguns dos produtos com os quais os executivos do mundo pornô estão fazendo experiências.

Imagem: iStock

Os modelos de negócio do pornô também evoluíram

Para combater o onipresente conteúdo gratuito, as empresas pornográficas estão criando iniciativas voltadas à experiências premium – tanto ao vivo quanto online. Isso é feito por meio da venda de produtos e serviços derivados, como sessões de fotos (com o vibrador que foi usado durante uma cena de sexo específica); seminários ‘educacionais’ (para ensinar aos casais coisas como dinâmicas da submissão e dominação); tours em estúdios (ao vivo e virtuais); franquias de clubes de strip, swing, bares, lojas, restaurantes, hotéis; webcams ao vivo com as novas divas – as estrelas pornôs; podcasts e rádio; eventos; financiamento coletivo de conteúdo e criação de pacotes personalizados nos quais os consumidores pagam para atuar como diretores e atores… A lista é infindável.

Mesmo que a pornografia tenha tido esse impacto descomunal nas tecnologias de consumo e serviços que as pessoas usam no dia a dia, raramente ela recebe o devido crédito, já que a discussão sobre pornografia na sociedade é sempre – e naturalmente – guiada pela ideologia.

“Se não fosse pelo estigma, a pornografia seria louvada publicamente como uma indústria que soube desenvolver, adotar e difundir novas tecnologias com sucesso e rapidez”, escreveu o historiador Jonathan Coopersmith. “Mas, devido à própria natureza do assunto, o silêncio e o constrangimento sempre foram as reações padrão.”

Embora a maioria das pessoas já tenha usado pornografia casualmente, aquelas que aparecem nas notícias sobre ela normalmente pertencem a dois extremos: lobistas pró-pornografia e fanáticos anti-pornografia tentando convencer os eleitores da justiça de sua causa. Mas até que a sociedade olhe além de seu conteúdo diáfano e de seu complexo significado, o impacto real do erotismo permanecerá em grande parte desconhecido.

Para concluir esta sexta-feira [na verdade, para começar, :wink], deixo um trecho do trabalho de Peter Johnson (1996) “Pornography Drives Technology: Why Not to Censor the Internet” Federal Communications Law Journal: Vol. 49 : Iss. 1 , Article 8], disponível [em inglês] no site do FCLJ

“‘A grande arte é sempre flanqueada por suas irmãs sombrias: a blasfêmia e a pornografia.’ O mesmo é verdade para as artes mundanas que chamamos de mídia. Onde há a Bíblia de Gutenberg, também há Rabelais; onde há correio, também há cartões postais eróticos; onde há um romance de capa dura em três volumes, há a literatura barata em papel reciclado.

A Pornografia, longe de ser um mal que a Primeira Emenda deve tolerar, é um bem positivo que incentiva a experimentação com novas mídias. A Primeira Emenda, portanto, não lida apenas com valor intelectual, moral, político e artístico, mas também com o valor prático e econômico. Insta os adultos, sob consentimento mútuo, desinibidos pela falta de censura, a procurar novos estilos de vida e comunicação, bem como novas maneiras de ganhar dinheiro com os novos costumes. Portanto, embora possa ser politicamente arriscado e socialmente imprudente incentivar a pornografia por computador, os legisladores deveriam se afastar e deixar a midia seguir por onde a pornografia levar.”

* * *

Obs.: Sendo este um blog, o post pretende estimular a discussão agnóstica e desapaixonada. Este texto não representa todas as sutilezas de minha posição pessoal sobre a questão.

O Que é Preciso Saber Sobre SSDs

Muito longo, não vou ler:

SSDs tornaram-se bastante baratos e têm um desempenho muito alto. Por exemplo, um SSD de servidor Samsung PM1733 custa cerca de US$ 200 por TB e promete cerca de 7 GB/s de leitura e 4 GB/s de largura de banda de gravação. Para alcançar esse alto desempenho, é necessário saber como funcionam os SSDs e esta postagem procura descrever os mecanismos subjacentes mais importantes dos SSDs flash.

* * *

Os SSDs, menores e com maior capacidade de armazenamento, permitiram uma geração de dispositivos ‘slim’ – Imagem: iStock

Solid-State Drives (SSDs) baseados em flash têm substituído amplamente os discos magnéticos rígidos como meio de armazenamento padrão. Do ponto de vista de um programador, SSDs e discos rígidos são muito semelhantes: ambos são persistentes, permitem o acesso baseado em página por meio de sistemas de arquivos e chamadas de sistema, e têm grande capacidade.
Há por outro lado diferenças importantes, que se tornam decisivas quando se deseja otimizar o desempenho de um SSD.

Como veremos, os SSDs são mais complicados e seu comportamento no desempenho pode parecer bastante intrigante se pensarmos neles apenas como “discos rápidos”. O objetivo desta postagem é fornecer uma compreensão do por quê os SSDs se comportam dessa maneira – conhecimento que pode ajudar a criar programas mais adequados para explorá-los. (Observe que eu discuto o flash NAND, não uma memória como a Intel Optane, que tem características diferentes.)

Disco não. Unidade é o nome

Os SSDs costumam ser chamados de “discos”. Isso é enganoso, porque eles de fato armazenam dados em semicondutores em vez de em um disco mecânico. Para ler ou gravar em um bloco aleatório, um disco deve mover mecanicamente sua cabeça para o ponto correto, o que leva cerca de 10 ms [milissegundos]. Em contraste, uma leitura aleatória de um SSD leva cerca de 100 us [microssegundos] – 100 vezes mais rápido. Essa baixa latência de leitura é a razão pela qual a inicialização de um SSD é muito mais rápida do que a inicialização de um disco.

As Paralelas

Outra diferença importante entre discos e SSDs é que os discos têm um cabeçote para leitura/escrita e funcionam bem apenas para acessos sequenciais. Os SSDs, em contraste, consistem em dezenas, ou mesmo centenas, de chips flash (“unidades paralelas”), que podem ser acessados ​​simultaneamente.

Os SSDs distribuem os arquivos maiores de forma transparente pelos chips flash na granularidade da página, e um hardware pré-buscador garante que as varreduras sequenciais explorem todos os chips flash disponíveis. No entanto, no nível do flash não há muita diferença entre leituras sequenciais e aleatórias. Na verdade, para a maioria dos SSDs, também é possível usar quase toda a largura de banda disponível com leituras de página aleatórias. Para fazer isso, é necessário agendar simultaneamente centenas de solicitações aleatórias de entrada e saída para manter todos os chips flash ocupados. Isso pode ser feito iniciando muitos threads ou usando interfaces assíncronas de entrada e saída.

Gravando

As coisas ficam ainda mais interessantes com as gravações. Por exemplo, se olharmos com atenção para a latência de gravação, podemos medir resultados tão baixos quanto 10us – 10 vezes mais rápido do que uma leitura. No entanto, a latência só parece baixa porque os SSDs estão armazenando gravações em cache na RAM volátil. A latência real de gravação do flash NAND é de cerca de 1 ms – 10 vezes mais lenta do que uma leitura. Em SSDs de consumidor, isso pode ser medido emitindo um comando sync/flush após a gravação, para garantir que os dados persistam no flash. Na maioria dos SSDs de alta performance [data center/servidor], a latência de gravação não pode ser medida diretamente: a sincronização/liberação será concluída imediatamente porque uma ‘bateria’ garante a persistência do cache de gravação, mesmo em caso de perda de energia.

Para alcançar alta largura de banda de gravação, apesar da latência relativamente alta, os SSDs usam o mesmo truque das leituras: eles acessam vários chips flash simultaneamente. Como o cache de gravação pode gravar páginas de maneira assíncrona, não é necessário agendar muitas gravações simultaneamente para obter um bom desempenho de gravação. No entanto, a latência de gravação nem sempre pode ser completamente oculta: por exemplo, como uma gravação ocupa um chip flash 10 vezes mais do que uma leitura, as gravações causam latências de cauda significativas para leituras no mesmo chip flash.

Gravações fora-do-local

Nosso entendimento está ignorando um fato importante: as páginas flash NAND não podem ser substituídas. As gravações de página só podem ser executadas sequencialmente nos blocos que foram apagados anteriormente. Esses blocos de apagamento têm um tamanho de vários MB e, portanto, consistem em centenas de páginas. Em um SSD novo, todos os blocos estão apagados e é possível começar a anexar novos dados diretamente.

Atualizar páginas, no entanto, não é tão fácil. Seria muito “overhead” apagar o bloco inteiro apenas para sobrescrever uma única página no local. Portanto, os SSDs executam atualizações de página gravando a nova versão da página em um novo local. Isso significa que os endereços lógico e físico das páginas são separados. Uma tabela de mapeamento, que é armazenada no SSD, converte endereços lógicos (software) em locais físicos (flash). Esse componente também é chamado de Flash Translation Layer (FTL).

Por exemplo, vamos supor que temos um SSD (hipotético) com 3 blocos de apagamento, cada um com 4 páginas. Uma sequência de gravações nas páginas P1, P2, P0, P3, P5, P1 pode resultar no seguinte estado físico do SSD:

Bloco 0 P1 (antigo) P2 P0 P3
Bloco 1 P5 P1 →
Bloco 2

Coleta de lixo

Usando a tabela de mapeamento e gravação fora-de-local, tudo vai bem até que o SSD fique sem blocos livres. A versão antiga das páginas sobrescritas deve, no fim de tudo, ser recuperada. Se continuarmos nosso exemplo acima, escrevendo para as páginas P3, P4, P7, P1, P6, P2, teremos a seguinte situação:

Bloco 0 P1 (antigo) P2 (antigo) P0 P3 (antigo)
Bloco 1 P5 P1 (antigo) P3 P4
Bloco 2 P7 P1 P6 P2

Neste ponto, não temos mais blocos de apagamento livres (embora, lógicamente, ainda deva haver espaço). Antes que alguém possa escrever outra página, o SSD primeiro deve apagar um bloco. No nosso exemplo, pode ser melhor para o coletor de lixo apagar o bloco 0, porque apenas uma de suas páginas ainda está em uso. Depois de apagar o bloco 0, liberamos espaço para 3 gravações e nosso SSD fica assim:

Bloco 0 P0 →
Bloco 1 P5 P1 (antigo) P3 P4
Bloco 2 P7 P1 P6 P2

Amplificação de gravação e excesso de provisionamento

Para o bloco de coleta de lixo 0, tivemos que mover fisicamente a página P0, embora logicamente essa página não tenha sido envolvida em nenhum processo. Em outras palavras, com SSDs flash, o número de gravações físicas (flash) é geralmente maior do que o número de gravações lógicas (software). A proporção entre os dois números é chamada de ‘’amplificação de gravação. Em nosso exemplo, para abrir espaço para 3 novas páginas no bloco 0, tivemos que mover 1 página. Assim, temos 4 gravações físicas para 3 gravações lógicas, ou seja, uma amplificação de gravação de 1,33.

A alta amplificação de gravação diminui o desempenho e reduz a vida útil do flash. O tamanho da amplificação de gravação depende do padrão de acesso e de quão preenchido está o SSD. Grandes gravações sequenciais têm baixa amplificação de gravação, enquanto gravações aleatórias são o pior caso.

Vamos supor que nosso SSD está 50% preenchido e que executamos gravações aleatórias. No estado estacionário, sempre que apagamos um bloco cerca de metade das páginas desse bloco, em média, ainda estão em uso e devem ser copiadas. Assim, a amplificação de gravação para um fator de preenchimento de 50% é 2. Em geral, a amplificação de gravação de pior caso para um fator de preenchimento f é 1/(1-f):

f 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 0,99
WA 1,11 1,25 1,43 1,67 2,00 2,50 3,33 5 10 20 100

Como a amplificação de gravação torna-se excessivamente alta para fatores de preenchimento próximos a 1, a maioria dos SSDs tem uma capacidade ociosa oculta. Esse super provisionamento é normalmente de 10 a 20% da capacidade total. Obviamente, também é fácil adicionar mais provisionamento em excesso, criando uma partição vazia e nunca gravar nela.

Espero ter sido bem sucedido nesta tentativa de explicação. Tentei também manter este post curto, o que significa que eu tive que simplificar as coisas.

História (1978): Podemos nos Libertar do Estilo de von Neumann?

Anos 70, quando os mainframes e as linguagens procedurais FORTRAN e COBOL reinavam. A complexidade nos negócios aumentava e o mundo da computação parecia estar em um beco sem saída, quando o artigo abaixo foi publicado. Era preciso um novo paradigma e os questionamentos emergiam de todos os lados. Uma nova concepção de software surgiria em 1979, com a linguagem C e o paradigma de Orientação a Objetos. Mas nunca nos libertamos da Máquina de von Neumann. Isso virá um dia com a computação quântica, que ainda dá seus primeiros passos.

Uma máquina de von Neumann, projetada pelo físico e matemático John von Neumann (1903–1957) é um projeto teórico para um computador de uso geral. Uma máquina de von Neumann consiste em um processador central (dir.) com uma unidade lógica/aritmética (ULA), uma unidade de controle e uma memória (esq.).

* * *

A programação pode se libertar do estilo de von Neumann? Um estilo funcional e sua álgebra de programas

Resumo

As linguagens de programação convencionais estão ficando cada vez maiores, mas não mais fortes. Defeitos inerentes ao seu nível mais básico as tornam inchadas e fracas: seu estilo primitivo de programação ‘palavra-por-vez’ herdado de seu ancestral comum – o computador de von Neumann; seu acoplamento íntimo da semântica a transições de estado; sua divisão da programação em um mundo de expressões e um mundo de declarações; sua incapacidade de usar eficazmente formas combinantes poderosas para construir novos programas a partir dos existentes; e sua falta de propriedades matemáticas úteis para raciocinar sobre programas.

Um estilo funcional alternativo de programação baseia-se no uso de formas combinantes para a criação de programas. Os programas funcionais lidam com dados estruturados, são frequentemente não repetitivos e não recursivos, são construídos hierarquicamente, não nomeiam seus argumentos e não exigem que o mecanismo complexo de declarações de procedimento se torne aplicável de forma geral. Formas combinantes podem usar programas de alto nível para construir outros programas de nível ainda mais alto, em um estilo não possível em linguagens convencionais.

Uma álgebra de programas cujas variáveis ​​abarcam todo um programa e cujas operações são formas combinantes é relacionadas ao estilo funcional de programação. Essa álgebra pode ser usada para transformar programas e resolver equações cujas “incógnitas” são também programas como as transformações de equações na álgebra do ensino médio. Essas transformações são dadas por leis algébricas e são executadas na mesma linguagem em que os programas são escritos. As formas combinantes são escolhidas não apenas por seu poder de programação, mas também pelo poder das leis algébricas associadas a elas. Teoremas gerais dessa álgebra fornecem o comportamento detalhado e as condições de término [halting conditions] para grandes classes de programas.

Uma nova classe de sistemas de computação usa o estilo de programação funcional tanto em sua linguagem de programação quanto em suas regras de transição de estado. Ao contrário das linguagens de von Neumann, esses sistemas têm semântica fracamente acoplada a estados – apenas uma transição de estado ocorre por computação principal.

Ver transcrição do artigo original em Association for Computing Machinery.

Sexta de Leão: Aventuras no Jardim Murado

Poucos meses atrás, enquanto eu desenvolvia um pequeno aplicativo desktop [um trabalho acadêmico] para Windows, Mac e Linux, em algum momento do desenvolvimento tive que testá-lo em todas as três plataformas. Para tornar o teste mais fácil, decidi instalar todos os três sistemas operacionais no mesmo computador, por meio de uma máquina virtual. As coisas corriam bem, até que cheguei ao MacOs.

De acordo com a política da Apple, você não tem permissão para instalar MacOs em um hardware que não seja da própria Apple. Então, como faço para testar meu software se não sou proprietário de um Mac?

O que eu podia fazer:

  • Comprar um Mac (onde o mais barato no momento custa mais de US$ 1000)
  • Pegar um Mac emprestado de alguém
  • Instalar um Hackintosh em uma máquina virtual e violar a política da Apple.

Comprar um Mac. Se você está desenvolvendo um produto que pode trazer uma receita razoável dos usuários de Mac, então a necessidade de comprar um Mac é indiscutível. Se esse não é o caso, então despejar algumas centenas de dólares no negócio só “porque sim” é algo injustificável.

Sua segunda opção é pegar emprestado o Mac de alguém que você conhece. Considerando o quão pequenos são os discos rígidos do Macbook, o proprietário não ficará feliz por você instalar um ambiente de desenvolvimento completo na máquina dele – e possivelmente deixar gigabytes de material instalado para trás. Você também teria que se adaptar à rotina de uso e tempo do proprietário, o que poderia ser bastante irritante [como assim “sua filha precisa escrever um trabalho esta noite?”].

E, por último, você pode mandar a Lei às favas e instalar um MacOs em uma máquina virtual. Uma rápida pesquisa revela centenas de tutoriais e postagens de blog sobre a instalação de MacOs. Todos instalando imagens ISO piratas tiradas do Google Drive de alguém – e agindo como se tivessem acabado de descobrir o fogo.

Obviamente escolhi a terceira opção, pois parecia a melhor de todas as escolhas ruins possíveis. Depois de passar alguns dias remexendo na ISO “ilegal” do Mac e não conseguir passar da tela de boot, era hora de refletir sobre o que estava acontecendo.

Imagem: iStock

Escrever um aplicativo desktop multiplataforma é uma tarefa muito mais difícil do que escrever um aplicativo para a web, já que o conjunto de ferramentas para esta última não é tão polido. Isso explica por que os aplicativos para web estão em todo lugar e o software para desktop está lentamente desaparecendo.

Além dos problemas gerais que o desenvolvimento de aplicativos traz, também existem inúmeras tarefas que são específicos de certas plataformas, apesar de os frameworks serem multiplataforma. É preciso por exemplo:

  • Criar soluções alternativas para todos os bugs da plataforma específica da interface de usuário (IU) escolhida. A estrutura pode estar funcionando bem em uma plataforma e se comportando de maneira extremamente estranha em outra.
  • Configurar uma máquina/ambiente de compilação para cada plataforma que você está oferecendo. A compilação cruzada de aplicativos desktop infelizmente ainda não é uma opção disponível em 2021.
  • Criar um instalador para cada sistema operacional e descobrir – depois – as especificações de instalação de cada um.
  • Descobrir que certas plataformas gritam com seus usuários quando eles tentam instalar um software que não possui um instalador assinado.

Você logo percebe que assinar um instalador em cada plataforma existente não é barato [e de fato é um aborrecimento que não leva a nada]. No Windows, você tem o prazer adicional de lidar com ‘revendedores’ duvidosos de certificados. Dê uma olhada em um dos sites deles [ou melhor não – eles são fraudes e podem roubar suas informações de cartão de crédito].

Eu me senti sujo depois de visitá-los. Você poderia, como alternativa, usar lojas online credenciadas que supostamente não têm esses problemas, mas a esta altura você realmente tem ainda vontade de fazer isso? Você dá o melhor de si para uma empresa que pode um dia simplesmente decidir que o seu aplicativo não está mais de acordo com a nova política e removê-lo de sua loja sem a menor cerimônia. Você também tem que passar pelo complicado processo de verificação de “malware” no software que você criou, o que pode, em alguns casos, levar semanas e, no fim, rejeitar seu trabalho sem nenhuma explicação. Existem dezenas de histórias de horror sobre isso na Internet. Reserve um tempo para conhecê-las antes de decidir seguir por este caminho.

Como você pode ver, desenvolver um aplicativo para desktop não envolve apenas programar a IU. O resto da subida da montanha é lidar com problemas que nem deveriam estar presentes. E se, no final, testar o software em uma determinada plataforma for muito trabalhoso, essa plataforma simplesmente não terá suporte. Este parece ser o caso recentemente, já que nem me lembro da última vez que vi um aplicativo multiplataforma. Eles são sempre vinculados a uma plataforma específica ou baseados na web.

Imagem: iStock

No final, todo mundo perde com a política do jardim murado:

  • Os usuários vão perder seu software favorito, que só existe em uma determinada plataforma.
  • Os desenvolvedores vão perder as vendas que a outra plataforma pode trazer.
  • As lojas online vão perder o percentual de sua receita, pois o desenvolvedor muitas vezes simplesmente não tem interesse em lidar com processos complicados. As plataformas deveriam tornar sua vida mais simples; em vez disso, apenas adicionam camadas de burocracia.

Laissez faire!

A Microsoft tem ouvido um monte de merda sobre seu último Windows 10. Ele tem seu próprio conjunto de problemas, como a telemetria intrusiva e a grande quantidade de ‘crapware’ aleatório – que ninguém pediu – instalado por padrão. Mas pelo menos a Microsoft faz alguma média com os desenvolvedores. Você pode instalar o Windows como quiser – seja no metal nú ou em uma máquina virtual [e ele ainda funciona em um computador com 10 anos de idade!].

A Apple, por outro lado, está erguendo muralhas cada vez maiores em torno de sua plataforma. Sua última manobra foi impedir os usuários de executar qualquer aplicativo que não tenha sido certificado. O que significa basicamente “se não tiver nossa benção a cada passo, você não vai poder usar sua máquina”. É como a mílícia que vai confiscar a sua casa se você não pagar a proteção.

Os usuários, que pagaram o dobro do que custaria um PC, agora também têm que lutar contra um ecossistema que absurdamente os impede de usar seu próprio computador. Quem diria que instalar um editor de texto é uma coisa tão perigosa? Isso vindo de uma empresa que afirma que o uso de seus produtos irá ajudá-lo a “liberar a criatividade” – e um monte de outras bobagens corporativas.

Então solução é a seguinte para os fãs da Apple: se quiserem ter programas em sua amada plataforma, vocês terão que torná-la amigável para os desenvolvedores. Nota: os desenvolvedores são aqueles que escrevem os aplicativos, publicando-os em suas ‘stores’. Se eles não puderem usar sua plataforma de trabalho preferida (que, surpresa-surpresa, pode não ser o Mac), isso significa que eles simplesmente não publicarão o software para sua plataforma.

Quanto à Apple, ela pode continuar com a muralha de pedra cercando o seu jardim, se assim quiser. Ela pode continuar cobrando a entrada, se há um número suficiente de pessoas dispostas a pagar. E se você gosta da Apple, seja feliz dizendo a todos como é lindo seu jardim.

Mas eu pessoalmente não gosto do jardim da Apple. Não gosto da maneira ‘Apple’ de fazer as coisas, dizendo às pessoas que elas estão usando seus produtos de maneira errada. Eu não gosto de como a Apple é arrogante e não joga com o resto do mundo. E, francamente, nunca gostei de Steve Jobs.

Existem jardins de mente mais aberta, onde você é responsável por administrar seu canto como quiser. Um jardim onde derrubar uma parede para dar mais espaço para as suas coisas é algo perfeitamente possível e não desaprovado. Enfim, que a Apple não rejeite aqueles que fazem valer a pena visitar seu jardim.

O Software Está Engolindo o Carro

As previsões de cortes na produção global de veículos causadas pela contínua escassez de semicondutores continuam a fazer notícia. Em janeiro, analistas previram que 1,5 milhão de veículos a menos seriam produzidos como resultado da escassez; em abril, esse número subiu de forma constante para mais de 2,7 milhões de unidades e, em maio, para mais de 4,1 milhões de unidades.

Imagem: iStock

A escassez de semicondutores realçou não apenas a fragilidade da cadeia de suprimentos automotiva, mas também colocou um holofote na dependência da indústria automotiva nas dezenas de computadores embarcados – e ocultos – nos veículos hoje.

“Nenhuma outra indústria está passando por uma mudança tecnológica tão rápida quanto a indústria automotiva”, diz Zoran Filipi, presidente do Departamento de Engenharia Automotiva do Centro Internacional de Pesquisa Automotiva da Universidade Clemson.

O fenômeno é impulsionado pela necessidade de atender a regulamentos de emissões de CO2 cada vez mais rigorosos, e ao mesmo tempo manter um ritmo de progresso sem precedentes no desenvolvimento da automação e infoentretenimento, sem deixar de atender às expectativas do cliente em relação a desempenho, conforto e utilidade.

Os próximos anos vão trazer mudanças ainda maiores, à medida que mais fabricantes de automóveis se comprometem a descontinuar a produção de veículos movidos a motor de combustão interna (MCI) para atender às metas globais dos acordos de combate às mudanças climáticas, substituindo-os por veículos elétricos (EVs) que em dia serão capazes de operação autônoma .

A última década de desenvolvimento dos veículos a combustão ilustra o rápido progresso que se fez, bem como para onde estamos indo.

Queda de produção de automóveis em 2021 devido à falta de chips – Gráfico: Mark Montgomery

“Antes, o software fazia parte do carro. Agora, o software determina o valor de um carro ”, observa Manfred Broy, professor emérito de informática na Universidade Técnica de Munique e um dos maiores especialistas em software para automóveis. “O sucesso de um carro depende muito mais de seu software do que do lado mecânico.” Quase todas as inovações de veículos introduzidas pelos fabricantes de automóveis, ou fabricantes de equipamento original (FEO – do inglês OEM ‘Original Equipment Manufacturer’), como são chamados por especialistas da indústria, agora estão vinculadas ao software, diz ele.

Dez anos atrás, apenas carros premium continham 100 unidades de controle eletrônico (UCEs) baseadas em microprocessadores em rede ao longo da carroceria, executando 100 milhões de linhas de código ou mais. Hoje, carros sofisticados como o BMW série 7 com tecnologia avançada, como sistemas avançados de assistência ao motorista (SAAM), podem conter 150 UCEs ou mais, enquanto picapes como o F-150 da Ford chegam a 150 milhões de linhas de código. Mesmo veículos de baixo custo estão se aproximando rapidamente de 100 UCEs e 100 milhões de linhas de código, já que mais recursos que antes eram considerados opções de luxo [como controle de cruzeiro adaptável e frenagem automática de emergência] estão se tornando padrão.

Itens de segurança adicionais exigidos desde 2010, como controle eletrônico de estabilidade, câmeras de ré e chamadas de emergência automáticas (eCall, na União Européia), bem como padrões de emissão mais rigorosos [que os veículos a combustão só podem atender usando componentes eletrônicos e aplicativos ainda mais inovadores], impulsionaram ainda mais a proliferação de software.

A consultoria Deloitte Touche Tohmatsu Limited estima que, a partir de 2017, cerca de 40% do custo de um carro novo pode ser atribuído a sistemas eletrônicos baseados em semicondutores, custo esse que dobrou desde 2007. Eles estimam que esse total se aproximará de 50% até 2030. A empresa estima ainda que cada carro novo hoje tem cerca de US$ 600 em semicondutores embarcados, totalizando cerca de 3.000 chips de todos os tipos.

Contabilizar o número de UCEs e linhas de código dá apenas uma ideia da intrincada orquestração de software encontrada nos veículos hoje. Ao observar como esses sistemas atuam juntos, uma complexidade extraordinária começa a emergir:

  • Novos recursos de segurança, conforto, desempenho e entretenimento,
  • O imperativo comercial de oferecer dezenas de opções aos compradores, resultando em uma multiplicidade de variantes para cada marca e modelo,
  • A mudança de carros a gasolina e motoristas humanos para carros elétricos e motoristas artificialmente inteligentes
  • As centenas de milhões de linhas de códigos que precisarão ser escritas, verificadas, depuradas e protegidas contra hackers

Tudo isso está transformando carros em supercomputadores sobre rodas e forçando a indústria automobilística a se adaptar. Mas conseguirá ela se adaptar?

A Unidade de Controle Eletrônico

A unidade de controle eletrônico está no centro de todas as inovações automotivas. Saiba como a história se desdobrou.

A era da eletrônica embarcada começou com a invenção dos dispositivos semicondutores, MOSFETs e evoluiu para sistemas mais complexos, como a UCE. Em 1978 a General Motors introduziu o primeiro sistema eletrônico em um automóvel. O resto, como dizem, é história.

Desde o seu início até a sua forma atual, a UCE moldou a evolução dos automóveis em todos os aspectos. Dos componentes mais simples, como a tampa da gasolina, aos mais complexos como o trem de força, a unidade de controle eletrônico tem capacidade de gerenciar os vários sensores com uma eficiência que um sistema mecânico jamais conseguiria.

Uma UCE é essencialmente um sistema embarcado construído sobre um microcontrolador automotivo. Junto com o software automotivo e os protocolos de comunicação, uma UCE é capaz de controlar todos os sistemas e subsistemas elétricos de um veículo. UCEs mais avançadas também se comunicam com a nuvem e até mesmo com outros veículos e infraestruturas usando tecnologias V2V e V2X.

Quando as unidades de controle foram introduzidas, elas eram responsáveis ​​por controlar diferentes atuadores em um motor de combustão interna. Por essa razão, foi chamada de Unidade de Controle do Motor. Com o tempo, o termo UCE passou a prevalecer à medida que evoluía para um sistema capaz de controlar o trem de força, a transmissão, os freios, os assentos e tudo o mais.

Eletrônica automotiva: Cadillac a Tesla

Os números falam mais alto que as palavras. E este gráfico faz toda a justiça à influência da eletrônica no setor automotivo. Ele também oferece insights sobre a jornada da eletrônica automotiva. O que vemos aqui é um gráfico da contribuição do custo do UCE automotivo ao custo total do carro, entre 1950 e 2030. Pelo gráfico, é claro e evidente que a presença de dispositivos eletrônicos nos carros não cresceu da noite para o dia.

Foi necessário três décadas de inovações tecnológicas, pesquisa e desenvolvimento persistente de produtos automotivos, juntamente com outros fatores importantes, para que finalmente a eletrônica chegasse a 10% do custo total na década de 1980.

Para ser mais específico, a introdução da Unidade de Controle de Airbags e a demanda por carros com baixo consumo de combustível também contribuíram para o rápido crescimento da eletrônica durante 1970-1980.

1990-2010 pode ser considerado como o melhor período de crescimento para a eletrônica automotiva. Fabricantes como Toyota, Ford e Honda introduziram nesse período automóveis com GPS, multimídia, sistemas de diagnóstico avançado, sensor de ré e câmeras e sistemas de assistência ao motorista.

Com tecnologias avançadas, como os carros autônomos baseados em sensores LiDAR, o carro invisível da Land Rover e o carro flutuante da Toyota, prevê-se que, em 2030, a eletrônica automotiva contribuirá com 50% do custo total do carro. É fazer deduzir que a eletrônica automotiva está levando uma vida de sonhos nos últimos anos. E do jeito que essa história se desenrola, tudo parece na iminência de acontecer não só para trazer uma melhor experiência de direção, mas também para que as estradas do mundo possam ser mais seguras.

Fontes:

https://spectrum.ieee.org/

https://www.embitel.com

Algo Prático: Um Provador Virtual para o Varejo de Confecções

Hoje vou me despir [trocadilho intencional] da pretensão intelectual- acadêmica para enfocar um assunto prático sobre desenvolvimento de sistemas.

Eu tenho grande interesse no mercado de confecções e moda, em geral. Talvez pelo fato de ter uma clientela no setor, além de amigos e familiares envolvidos no negócio. Nosso estúdio de software já teve a oportunidade de criar inovações importantes para nossos clientes do setor de confecções, sempre com foco na interação e responsividade. Por essa razão, achei que seria interessante falar neste post sobre o sistema Revery AI. Queremos nos colocar como fornecedores dessa classe de tecnologia para o mercado brasileiro, empregando nossa expertise em manipulação de imagens, sistemas de aprendizado de máquina (AI) e soluções 3D.

Imagem: iStock

O aumento repentino das compras online por conta da pandemia de Covid-19 impôs desafios significativos aos varejistas de confecções. A incapacidade física de experimentar e visualizar as roupas tornou as compras menos interativas, contribuindo para baixas taxas de conversão e altas taxas de devolução, em comparação com as compras tradicionais. Os provadores virtuais como o que discutimos aqui tornam-se alternativas viáveis, nestes tempos infecciosos, para recriar, em certa medida, a experiência perdida de provar roupas pessoalmente. Existem muitas empresas desenvolvendo um provador virtual [inclusive a nossa]. O grande problema para sua implementação é a escalabilidade.

Os sites de comércio eletrônico de confecções têm milhares, senão milhões de items em estoque – que chamaremos de Unidade(s) de Manutenção de Estoque (UME). Atualmente, o fluxo de trabalho para edição de conteúdo dos sites que vendem para esse segmento geralmente requer trabalho gráfico personalizado em software como o Photoshop e/ou software modelador em 3D, que são caros e requerem mão-de-obra especializada. Em contraste, o Revery AI aproveita a pesquisa de aprendizado de máquina [Machine Learning] para automatizar todo esse processo, resultando no primeiro provador virtual escalável que pode ser facilmente integrado a qualquer grande plataforma de e-commerce com milhões de UMEs.

Aprendizado de Máquina

Em vez de uma produção gráfica elaborada, em 3D, o sistema trabalha com imagens básicas. O objetivo é produzir visualizações precisas e realistas de roupas vestindo pessoas. Uma solução comum [e ingênua] para atualizar o conteúdo do site com novos items seria simplesmente copiar e colar a peça no modelo. Mas isso apresenta dois problemas.

1) Se as poses e maneirismos do modelo-roupa forem incompatíveis, o copiar-colar não funcionará.

2) Mesmo com poses ideais, copiar e colar não leva em consideração as interações peça-peça, peça-peça-modelo e também ignora a iluminação, as sombras, etc.

Este sistema usa o aprendizado de máquina profundo [deep learning] para superar esses problemas. Para o problema 1), o Revery AI usa uma série de distorções, para deformar a imagem da roupa em uma forma aproximada à do corpo fazendo a pose apropriada. Isso difere das abordagens comuns de baixa tecnologia, que normalmente usam apenas uma única e limitada deformação/transformação de imagem.

Para o problema 2), o sistema se baseia em um gerador de imagem que recebe as entradas relevantes (a imagem do modelo, imagem da roupa, pose, etc.) e retorna uma imagem realista de uma figura humana vestindo a roupa. O sistema produz melhorias significativas no tamanho, ajuste e caimento, em comparação com as técnicas costumeiras de baixa tecnologia, permitindo criar imagens realistas de qualquer modelo usando qualquer combinação de roupas. Para os interessados em detalhes técnicos adicionais, este link leva ao artigo original da pesquisa no site de pré-impressões Arxiv >> https://arxiv.org/abs/2003.10817

Tela do Revery AI. O usuário seleciona a peça à direita e o software a renderiza no modelo virtual à esquerda. Note que o software faz os ajustes e transformações na peça para se adaptar realisticamente ao modelo. A peça foi fotografada normalmente em superfície plana.

A abordagem de exibição de produtos e venda online adotada pelo Revery AI torna a integração com os varejistas muito mais fácil, porque requer apenas uma única imagem da peça de roupa em um fundo de cor uniforme. Todo o resto é integrado e resolvido pelo software. A equipe do Revery processa em torno de um milhão de imagens por semana. Em seguida, trabalha com o varejista para criar um ‘widget’ que possa ser facilmente integrado ao site da loja. A simplicidade desta solução significa que os clientes podem ter um provador virtual montado em poucos dias.

O sistema já se integra com sucesso a vários varejistas de alto perfil no e-commerce de moda. Pesquisas com os clientes mostram que o provador virtual melhorou o engajamento médio dos usuários em 500% e, mais importante, proporcionou um aumento na taxa de conversão da venda também de 500%. Além disso, os resultados mostram aumentos no valor médio dos pedidos e diminuições nas taxas de devolução. Essa solução também atende vários casos de uso que vão além do provador virtual. Como a geração e manipulação de imagens está no centro do negócio, os clientes também têm interesse em usar o sistema para gerar imagens de sessões de fotos “in store”, para economizar nas despesas com os vários tipos de serviços fotográficos que utilizam.

Embora a experimentação virtual baseada em imagens seja um campo de pesquisa ativo na academia, a transição da pesquisa para o produto não é trivial. Gerar imagens realistas e precisas de pessoas e roupas em alta fidelidade é mais difícil do que parece. Quaisquer imprecisões são simplesmente inaceitáveis ​​para os clientes. A start-up demorou um ano para obter resultados satisfatórios.

Neste ponto, percebemos que esse exercício aparentemente acadêmico pode realmente ser uma ferramenta que usuários reais desejam usar. É uma grande inovação, capaz de trazer movimento para esse mercado tão significativo para a economia brasileira, especialmente neste momento de crescimento das compras online.

Nosso estúdio [Vox Leone] se mantém sempre atualizado sobre essa linha de pesquisa, que acompanhamos de perto há quase duas décadas. Se você quiser saber mais sobre o sistema, ou experimentar a tecnologia em seu site ou plataforma, entre em contato. Esta é uma das nossas linhas de trabalho favoritas.

Uma demonstração ao vivo pode ser vista e experimentada [em inglês] neste link: https://revery.ai/demo.html