Tempo de Revisitar o Método Científico

Como se eu estivesse a lançar ao mar uma mensagem em uma garrafa, em um esforço patético, desesperado, para salvar um pedaço precioso do conhecimento humano da sanha dos bárbaros. Assim me sinto em 2021 ao teclar esta peça.

Imagem: Pexels

Estupefato [e, francamente, um tanto abalado na cidadania] depois de testemunhar o [e sobreviver ao] assalto à razão perpetrado nos últimos quase dois anos pelo governo e parte dos brasileiros, me ponho a divagar sobre o que explicaria tamanho desprezo dos patrícios à lógica [além da ética] e à razão, durante a desditosa pandemia.

Eu pessoalmente suspeito que o motivo seja um item [ou mais] da lista abaixo:

  • A maioria das pessoas não conhece a ciência, e mesmo quando sabem “sobre” a ciência, muitas vezes têm a impressão errada dela.
  • Eles usam a palavra “coronavírus” como se houvesse apenas uma variante. Não estão cientes que um vírus que pode sofrer mutações facilmente.
  • Eles não conhecem o sistema de “revisão pelos pares”, e têm medo de que os cientistas estejam mentindo para eles.
  • Eles dizem a si mesmos que é o Sol que está tornando a Terra mais quente, “porque isso é óbvio”.
  • Eles não querem conhecer a ciência, porque sabem que isso significa ler, estudar, e todas as dificuldades envolvidas em aprender qualquer coisa nova. Mas não gostam da implicação de que as pessoas educadas “sabem mais do que eles” sobre qualquer coisa.
  • Eles não querem aceitar a ciência, porque são profundamente supersticiosos e/ou porque eles têm fé em algo que eles acham que a ciência contradiz.

Quaisquer que sejam as inclinações deste nosso fantástico povo, eu tento resgatar um pouco da sanidade perdida, senão para benefício do ambiente geral, pelo menos para mim mesmo. Como uma litania, textos como este se repetem pela internet afora aos milhares [embora raramente em português]. Mas, não importando quantas vezes já tenha sido repetido, o tema ganha aqui hoje a minha muito necessária versão pessoal.

O que é o método científico?

O método científico é um processo de investigação usado para explorar observações e responder perguntas. Isso não significa que todos os cientistas sigam exatamente o mesmo processo. Algumas áreas da ciência podem ser testadas mais facilmente do que outras. Por exemplo, os cientistas que estudam a evolução das estrelas ou a fisiologia dos dinossauros não podem acelerar a vida de uma estrela em um milhão de anos ou fazer exames médicos nos dinossauros para testar suas hipóteses.

Quando a experimentação direta não é possível, os cientistas adaptam o método científico, dentro dos limites da lógica. Essa plasticidade permite quase tantas versões do método científico quanto existem cientistas. Mas mesmo quando modificado, o objetivo do método permanece o mesmo: descobrir relações de causa e efeito fazendo perguntas, reunindo e examinando cuidadosamente as evidências e verificando se todas as informações disponíveis podem ser combinadas em uma resposta lógica.

Quem inventou o método científico?

O método científico não foi inventado por nenhuma pessoa, mas é o resultado de séculos de debate sobre a melhor forma de descobrir como o mundo natural funciona. O antigo filósofo grego Aristóteles foi um dos primeiros a promover a noção de que a observação e o raciocínio lógico são os instrumentos mais adequados para desvendar o funcionamento da natureza. O matemático árabe Hasan Ibn al-Haytham é frequentemente citado como a primeira pessoa a escrever sobre a importância da experimentação. Assim, temos, através do legado desses filósofos, os princípios científicos basilares da observação, do raciocínio lógico e da experimentação.

Desde então, um grande número de filósofos/cientistas escreveu sobre como a ciência deveria idealmente ser conduzida. Entre eles os eminentes Roger Bacon, Tomás de Aquino, Galileu Galilei, Francis Bacon, René Descartes, Isaac Newton, John Hume e John Stuart Mill. Os cientistas hoje continuam a evoluir e refinar o método científico à medida que exploram novas técnicas e novas áreas da ciência.

Os cientistas realmente usam o método científico?

Os cientistas sempre usam o método científico, mas nem sempre exatamente conforme estabelecido nas etapas ensinadas em sala de aula. Assim como um chef pode fazer algumas alterações em uma receita para se adaptar aos ingredientes disponíveis, um cientista igualmente pode adaptar o método científico alternando etapas, saltando para frente e para trás entre as etapas ou repetindo um subconjunto das etapas – porque ele ou ela está lidando com as condições imperfeitas do mundo real.

Mas é importante salientar que os cientistas sempre se esforçam para manter os princípios básicos do método científico usando observações, experimentos e dados, para confirmar ou rejeitar explicações de como um fenômeno funciona.

O método científico: etapas e exemplos

Mesmo que o método científico se apresente como uma série progressiva de etapas, é preciso ter em mente que novas informações ou pensamentos sobre o problema em foco podem obrigar o pesquisador a recuar e repetir as etapas a qualquer momento durante o processo. Um processo como o método científico que envolve backup e repetição é chamado de processo iterativo.

Esteja você desenvolvendo um projeto de feira de ciências, uma atividade científica em sala de aula, uma pesquisa independente ou qualquer outra investigação científica prática, a compreensão das etapas do método científico o ajudará a focar sua pergunta e trabalhar usando as observações e os dados objetivos, para responder à hipótese da maneira mais rigorosa possível.

Fluxograma do método científico

O Método Científico começa com uma pergunta. Uma pesquisa de base é então conduzida para tentar responder a essa pergunta. Se você deseja encontrar evidências para uma resposta à questão, você elabora uma hipótese e testa essa hipótese em um experimento. Se o experimento funcionar e os dados forem analisados, você pode provar ou refutar sua hipótese. Se sua hipótese for refutada, você pode voltar com as novas informações obtidas e criar uma nova hipótese para reiniciar o processo científico. – Diagrama: Vox Leone

Etapas do Método Científico

  1. Fazer uma pergunta

O método científico começa quando o pesquisador [que pode ser qualquer pessoa que busque a verdade, independente de sua escolaridade] faz uma pergunta sobre algo que observa:

Ex: Será que a Cloroquina funciona contra a COVID-19?

  1. Pesquisa de base

Em vez de começar do zero, o cientista rigoroso elabora um plano para responder à sua pergunta, e usa bibliotecas, pesquisas em campo e na Internet para se aprofundar no conhecimento do domínio em estudo.

  1. Elaborar uma hipótese

Uma hipótese é um palpite sobre como as coisas funcionam. É uma tentativa de responder à pergunta original com uma afirmação que pode ser testada. A hipótese deve ser declarada junto com a previsão resultante:

Ex: Se Alice tomar Cloroquina ela não vai se infectar com COVID-19.

  1. Testar a hipótese fazendo um experimento

O experimento então testa se a previsão é precisa e, portanto, se a hipótese é suportada ou não. O experimento científico obedece a um método próprio, para garantir condições controladas – para que seja um teste justo. Em um teste justo o pesquisador certifica-se de alterar apenas um fator de cada vez, mantendo todas as outras condições iguais.

É normal um estudo repetir os experimentos várias vezes para ter certeza de que os primeiros resultados não foram acidentais.

Ex: Tratar um grupo de 100 pacientes com Cloroquina e um outro grupo de controle de 100 pacientes com um medicamento inócuo [placebo].

  1. Análise dos dados e conclusão

Uma vez que o experimento esteja completo, o pesquisador coleta suas medições e as analisa para ver se elas confirmam a hipótese ou não.

Ex: de 100 pacientes tratados com Cloroquina, 90 foram infectados com COVID-19. O número de infectados foi igual no grupo de controle, que tomou placebo. Conclui-se que a hipótese de que a Cloroquina evita a infecção por COVID-19 é FALSA.

Em suas atividades diárias os cientistas profissionais rotineiramente concluem – às vezes com decepção – que suas previsões não foram precisas e suas hipóteses não foram confirmadas. Mesmo decepcionados eles comunicarão os resultados negativos de seu experimento. Em seguida, voltarão a elaborar uma nova hipótese com base nas novas informações que aprenderam durante o experimento. Isso inicia uma nova iteração do processo do método científico.

  1. Comunicação dos resultados

Para concluir o estudo o pesquisador comunicará seus resultados a outras pessoas em um relatório final. Cientistas profissionais em geral publicam seu relatório final em uma revista científica ou apresentam seus resultados em um pôster ou em uma palestra em um encontro científico.

Em suma, a verdade científica revelada pelo método é a correspondência com a realidade objetiva. As hipóteses podem ou não corresponder à realidade. Quando uma hipótese corresponde à realidade, ela é confirmada como verdadeira. Quando uma hipótese descreve uma realidade diferente do que ela propõe, essa hipótese é falsa. A maneira como descobrimos se uma dada crença é verdadeira ou falsa é através do uso das evidências empíricas e lógicas requeridas pelo método científico.


Referências:

Karl Popper: Conjectures and Refutations
https://www.academia.edu/38681885/Karl_Popper_Conjectures_and_Refutations

What Is Empirical Testing?
http://www.strevens.org/research/episteme/Empirica.pdf

Democracy of Incomplete Victories: State, Civil Society, and the Scientific Method
https://philpapers.org/archive/KASDOI.pdf

O Futuro da AI é Luminoso (e analógico)

Para concluir a Rápida Introdução à ‘Inteligência Artificial’, publico o post complementar, para apresentar o inovador chip ótico [ainda sem nome comercial] da start-up Lightmatter, contendo o chamado interferômetro Mach-Zehnderque, que promete elevar a computação de sistemas de aprendizagem de máquinas a um novo patamar.

Imagem: iStock

O aprendizado de máquina profundo, ou seja, redes neurais artificiais com muitas camadas ocultas, sempre nos fascina com soluções inovadoras para problemas do mundo real, cada vez em mais áreas, incluindo processamento de linguagem natural, detecção de fraude, reconhecimento de imagem e direção autônoma. As redes neurais ficam melhores a cada dia.

Mas esses avanços têm um preço enorme nos recursos de computação e no consumo de energia. Portanto, não é de se admirar que engenheiros e cientistas da computação estejam fazendo grandes esforços para descobrir maneiras de treinar e operar redes neurais profundas com mais eficiência.

Uma nova e ambiciosa estratégia que está fazendo o ‘début’ este ano é executar a computação de redes neurais usando fótons em vez de elétrons. A Lightmatter começará a comercializar no final deste ano seu chip acelerador de rede neural que calcula com luz. Será um refinamento do protótipo do chip Mars que a empresa exibiu em agosto passado.

O protótipo MARS, instalado em uma placa

Embora o desenvolvimento de um acelerador ótico comercial para aprendizado profundo seja uma conquista notável, a ideia geral de ‘computação com luz’ não é nova. Os engenheiros empregavam regularmente essa tática nas décadas de 1960 e 1970, quando os computadores digitais eletrônicos ainda não tinham capacidade para realizar cálculos complexos. Assim, os dados eram processados no domínio analógico, usando luz.

Em virtude dos ganhos da Lei de Moore na eletrônica digital, a computação óptica nunca realmente pegou, apesar da ascensão da luz [fibras óticas] como veículo para comunicação de dados. Mas tudo isso pode estar prestes a mudar: a Lei de Moore, que durante décadas proporcionou aumentos exponenciais na capacidade dos chips eletrônicos, mostra sinais de estar chegando ao fim, ao mesmo tempo em que as demandas da computação de aprendizado profundo estão explodindo.

Não há muitas escolhas para lidar com esse problema. Pesquisadores de aprendizagem profunda podem até desenvolver algoritmos mais eficientes, mas é difícil prever se esses ganhos serão suficientes. Essa é a razão da Lightmatter estar empenhada em “desenvolver uma nova tecnologia de computação que não dependa do transistor”.

Fundamentos

O componente fundamental no chip Lightmatter é um interferômetro Mach-Zehnder. Esse dispositivo ótico foi inventado em conjunto por Ludwig Mach e Ludwig Zehnder na década de 1890. Mas só recentemente esses dispositivos óticos foram miniaturizados a ponto de um grande número deles poder ser integrado em um chip e usado para realizar as multiplicações de matrizes envolvidas nos cálculos de rede neural.

O interferômetro Mach-Zehnder é um dispositivo usado para determinar as variações relativas de deslocamento de fase entre dois feixes colimados derivados da divisão da luz de uma única fonte. É um dispositivo particularmente simples para demonstrar interferência por divisão de amplitude. Um feixe de luz é primeiro dividido em duas partes por um divisor de feixe e, em seguida, recombinado por um segundo divisor de feixe. Dependendo da fase relativa adquirida pelo feixe ao longo dos dois caminhos, o segundo divisor de feixe refletirá o feixe com eficiência entre 0 e 100%. – Gráfico: Vox Leone – Uso Permitido

Esses feitos só se tornaram possíveis nos últimos anos devido ao amadurecimento do ecossistema de manufatura de fotônica integrada, necessário para fazer chips fotônicos para comunicações.

O processamento de sinais analógicos transportados pela luz reduz os custos de energia e aumenta a velocidade dos cálculos, mas a precisão pode não corresponder ao que é possível no domínio digital. O sistema é 8-bits-equivalente. Isso por enquanto mantém o chip restrito a cálculos de inferência de rede neural – aqueles que são realizados depois que a rede foi treinada.

Os desenvolvedores do sistema esperam que sua tecnologia possa um dia ser aplicada também ao treinamento de redes neurais. O treinamento exige mais precisão do que o processador ótico pode fornecer nesta etapa.

A Lightmatter não está sozinha em busca da luz para cálculos de redes neurais. Outras startups que trabalham nesta linha são Fathom Computing, LightIntelligence, LightOn, Luminous e Optalysis.

A Luminous espera desenvolver sistemas práticos em algum momento entre 2022 e 2025. Portanto, ainda teremos que esperar alguns anos para ver como essa abordagem vai evoluir. Mas muitos estão entusiasmados com as perspectivas, incluindo Bill Gates, um dos maiores investidores da empresa.

Uma coisa é clara: os recursos de computação dedicados aos sistemas de inteligência artificial não podem continuar a crescer sustentavelmente na taxa atual, dobrando a cada três ou quatro meses. Os engenheiros estão ansiosos para utilizar a fotônica integrada para enfrentar esse desafio de construir uma nova classe de máquinas de computação drasticamente diferentes daquelas baseadas nos chips eletrônicos convencionais, que agora se tornam viáveis para fabricação. São dispositivos que no passado recente só podiam ser imaginados.

Uma (muito) Rápida Introdução à ‘Inteligência Artificial’

O poder de computação ao alcance das pessoas começou a crescer rapidamente, aos trancos e barrancos, na virada do milênio, quando as unidades de processamento gráfico (GPUs) começaram a ser aproveitadas para cálculos não gráficos, uma tendência que se tornou cada vez mais difundida na última década. Mas as demandas da computação de “Aprendizado Profundo” [Deep Learning] têm aumentado ainda mais rápido. Essa dinâmica estimulou os engenheiros a desenvolver aceleradores de hardware voltados especificamente para o aprendizado profundo [o que se conhece popularmente como ‘Inteligência Artificial’], sendo a Unidade de Processamento de Tensor (TPU) do Google um excelente exemplo.

Ainda não temos uma Teoria da Mente, que possa nos dar uma base para a construção de uma verdadeira inteligência senciente. Aqui a distinção entre as disciplinas que formam o campo da Inteligência Artificial

Aqui, descreverei resumidamente o processo geral do aprendizado de máquina, introduzindo uma abordagem muito diferente para este problema – o uso de processadores óticos para realizar a computação de uma rede neural com fótons em vez de elétrons, que será objeto do próximo post. Para entender como a ótica pode impulsionar este campo, precisamos saber um pouco sobre como os computadores executam cálculos de redes neurais.

Visão geral

Quase invariavelmente, os neurônios artificiais são ‘construídos’ [na verdade eles são virtuais] usando um software especial executado em algum tipo de computador eletrônico digital.

Esse software fornece a um determinado neurônio da rede várias entradas e uma saída. O estado de cada neurônio depende da soma ponderada de suas entradas, à qual uma função não linear, chamada função de ativação, é aplicada. O resultado, a saída desse neurônio, torna-se então uma entrada para vários outros neurônios, em um processo em cascata.

As camadas de neurônios interagem entre si. Cada círculo representa um neurônio, em uma visão muito esquemática. À esquerda (em amarelo) a camada de entrada. Ao centro, em azul e verde, as camadas ocultas, que refinam os dados, aplicando pesos variados a cada neurônio. À direita, em vermelho, a camada de saída, com o resultado final.

Por questões de eficiência computacional, esses neurônios são agrupados em camadas, com neurônios conectados apenas a neurônios em camadas adjacentes. A vantagem de organizar as coisas dessa maneira, ao invés de permitir conexões entre quaisquer dois neurônios, é que isso permite que certos truques matemáticos de álgebra linear sejam usados ​​para acelerar os cálculos.

Embora os cálculos de álgebra linear não sejam toda a história, eles são a parte mais exigente do aprendizado profundo em termos de computação, principalmente à medida que o tamanho das redes aumenta. Isso é verdadeiro para ambas as fases do aprendizado de máquina:

  • O treinamento – processo de determinar quais pesos aplicar às entradas de cada neurônio.
  • A inferência – processo deflagrado quando a rede neural está fornecendo os resultados desejados.
Concepção do processo de treinamento de máquina, dos dados brutos, à esquerda, ao modelo completo.

Matrizes

O que são esses misteriosos cálculos de álgebra linear? Na verdade eles não são tão complicados. Eles envolvem operações com matrizes, que são apenas arranjos retangulares de números – planilhas, se preferir, menos os cabeçalhos de coluna descritivos que você encontra em um arquivo Excel típico.

É bom que as coisas sejam assim, porque o hardware de um computador moderno é otimizado exatamente para operações com matriz, que sempre foram o pão com manteiga da computação de alto desempenho – muito antes de o aprendizado de máquina se tornar popular. Os cálculos matriciais relevantes para o aprendizado profundo se resumem essencialmente a um grande número de operações de multiplicação e acumulação, em que pares de números são multiplicados entre si e seus produtos somados.

Ao longo dos anos, o aprendizado profundo foi exigindo um número cada vez maior dessas operações de multiplicação e acumulação. Considere LeNet, uma rede neural pioneira, projetada para fazer classificação de imagens. Em 1998, demonstrou superar o desempenho de outras técnicas de máquina para reconhecer letras e numerais manuscritos. Mas em 2012 o AlexNet, uma rede neural que processava cerca de 1.600 vezes mais operações de multiplicação e acumulação do que o LeNet, foi capaz de reconhecer milhares de diferentes tipos de objetos em imagens.

Gráfico tridimensional ilustrando o processo de inferência, partindo de dados brutos dispersos (embaixo à direita) até o refinamento final (após muitas iterações de inferência), onde o resultado (ou predição) é obtido.

Aliviar a pegada de CO2

Avançar do sucesso inicial do LeNet para o AlexNet exigiu quase 11 duplicações do desempenho de computação. Durante os 14 anos que se passaram, a lei de Moore ditava grande parte desse aumento. O desafio tem sido manter essa tendência agora que a lei de Moore dá sinais de que está perdendo força. A solução de sempre é simplesmente injetar mais recursos – tempo, dinheiro e energia – no problema.

Como resultado, o treinamento das grandes redes neurais tem deixado uma pegada ambiental significativa. Um estudo de 2019 descobriu, por exemplo, que o treinamento de um determinado tipo de rede neural profunda para o processamento de linguagem natural emite cinco vezes mais CO2 do que um automóvel durante toda a sua vida útil.

Os aprimoramentos nos computadores eletrônicos digitais com certeza permitiram que o aprendizado profundo florescesse. Mas isso não significa que a única maneira de realizar cálculos de redes neurais seja necessariamente através dessas máquinas. Décadas atrás, quando os computadores digitais ainda eram relativamente primitivos, os engenheiros lidavam com cálculos difíceis como esses usando computadores analógicos.

À medida que a eletrônica digital evoluiu, esses computadores analógicos foram sendo deixados de lado. Mas pode ser hora de seguir essa estratégia mais uma vez, em particular nestes tempos em que cálculos analógicos podem ser feitos oticamente de forma natural.

No próximo post vou trazer o mais recente desenvolvimento em fotônica aplicada ao aprendizado de máquina – em uma arquitetura analógica! Estamos, sem dúvida, vivendo tempos interessantes neste campo promissor.

Fonte de pesquisa: spectrum.ieee.org

Sexta de Leão: Da Origem e Evolução do Maravilhoso Ânus

No início não havia nada. As extremidades traseiras de nossos ancestrais animais que nadavam nos mares centenas de milhões de anos atrás estavam em branco, lisas, relegando a entrada e saída de todos os alimentos a um único buraco multiuso. Ecos evolutivos dessas formas de vida ainda existem em corais, anêmonas-do-mar, águas-vivas e uma legião de vermes marinhos cujo trato digestivo assume a forma de um saco.

Anêmona do Mar – Imagem: iStock

Esses animais são muito estritos com suas refeições, alimentando-se de uma bola de cada vez e, em seguida, expulsando os restos pelo mesmo orifício. As entranhas dessas criaturas funcionam como estacionamentos, sujeitas a rígidas cotas de vagas que restringem o fluxo do tráfego.

O surgimento de uma porta dos fundos transformou esses estacionamentos em rodovias – as “entranhas” lineares que dominam o desenho dos corpos dos animais hoje. De repente, os animais podiam se dar ao luxo de engolir várias refeições sem a necessidade de se preocupar com o descarte entre elas; surgiram tratos digestivos alongados e regionalizados, dividindo-se em câmaras que podiam extrair diferentes nutrientes e hospedar suas próprias comunidades de micróbios.

A compartimentação tornou mais fácil para os animais aproveitarem melhor suas refeições. Com o alongamento e abertura do final do intestino, muitas criaturas cresceram em formas corporais cada vez maiores e começaram a se mover de novas maneiras (Seriam necessários vários outros éons para que as nádegas verdadeiras – os acessórios carnudos e gordurosos que flanqueiam o ânus de alguns animais – como os humanos, evoluíssem).

Como a porta dos fundos foi aberta

Não é muito claro como a porta dos fundos foi escavada. Tecidos macios, sem ossos, não são exatamente amigáveis ao registro fóssil, tornando difícil provar qualquer teoria. Uma das hipóteses mais antigas sustenta que o ânus e a boca se originaram da mesma abertura solitária, que se alongou, cedeu no centro e se partiu em duas. O ânus recém-formado então se moveu lentamente para a parte posterior do animal. Claus Nielsen, biólogo evolutivo do Museu de História Natural da Dinamarca, é um fã dessa teoria; ela é razoavelmente parcimoniosa e evolutivamente equitativa: neste cenário, tecnicamente nem a boca nem o ânus surgiram primeiro; eles surgiram como gêmeos univitelíneos.

Outros, como Andreas Hejnol, defendem uma ideia diferente, em que a boca formalmente precede o ânus, que surge espontaneamente na outra extremidade do corpo. “É um avanço secundário”, disse Hejnol. “Primeiro o intestino se forma, e então faz uma conexão com o mundo exterior.” Abrir um buraco extra no corpo não é tão difícil: alguns vermes conseguiram esse feito evolutivo dezenas de vezes.

Hejnol e seus colegas ainda estão reunindo apoio para sua hipótese, mas afirmam que já há alguns argumentos contra a ideia de divisão de buracos: os animais não expressam os mesmos genes em torno da boca e do ânus, o que vai contra a noção de que as duas aberturas são cortadas do mesmo tecido evolutivo.

Se essa hipótese se provar correta, porém, não encerrará necessariamente o caso da origem evolutiva do ânus. Muitos estudiosos acham que o ânus foi uma inovação tão útil que os animais o desenvolveram independentemente pelo menos meia dúzia de vezes, talvez muitas mais, não necessariamente da mesma maneira. Essa linha de tempo tem ainda outras ramificações: algumas criaturas perderam sua abertura anal – e algumas podem ter adquirido as delas ainda mais para trás na história.

Ctenóforos e a Cloaca

Uma das maiores pregas na narrativa do ânus liso assume a forma da comb-jelly [gênero Ctenófora] – um animal gelatinoso que vagamente se assemelha a um capacete de Darth Vader translúcido. Acredita-se que a espécie tenha pelo menos 700 milhões de anos de idade. Já em 1800, os cientistas se intrigavam com a parte de trás das ctenophoras e se perguntavam se elas estavam excretando fezes a partir do que viam como um conjunto de poros de aparência estranha. Mais de um século se passou antes que seus atos de defecação fossem finalmente capturados pelas câmeras, pelo biólogo William Browne, da Universidade de Miami, e seus colegas, que filmaram uma dessas criaturas amorfas fazendo um grande monte em um laboratório. Se ctnóforas estavam fazendo cocô, aquele cocô devia estar saindo de algum tipo de buraco traseiro. Talvez, alguns disseram, a história do ânus fosse muito mais profunda no tempo do que muitos pensavam.

Comb-Jelly, uma ctenofora – Imagem: iStock

Nos meses após a equipe de Browne publicar suas descobertas, os cientistas discutiram repetidamente sobre sua importância. Alguns saudaram a descoberta como revolucionária. Mas outros, Hejnol entre eles, argumentaram que o embaraçoso vídeo afinal não significava tanta mudança dogmática assim. Provavelmente as ctenóforas evoluíram seus ânus independentemente de outros animais e chegaram a um desenho semelhante por acaso; não há como dizer quando exatamente isso pode ter ocorrido. Tal cenário deixaria a cronologia de nosso próprio ânus intacta – por ter emergido de uma linha diferente de criaturas, em um ponto separado no tempo.

Alguns dos back-ends mais intrigantes são os análogos multitarefas do ânus chamados cloaca, que mescla as partes terminais dos tratos digestivo, urinário e reprodutivo em uma única abertura – essencialmente um foyer de evacuação para fezes, urina, ovos e espermatozóides. Pode ser até que eles representem a ponte evolutiva entre os tratos reprodutivo e digestivo que levou a alguns dos primeiros ânus.

Mesmo assim, as cloacas trazem riscos: todos os resíduos digestivos ficam praticamente em contato direto com a genitália; basicamente uma infecção maligna esperando para acontecer. Qualquer rebento vivo que passe pelo trato reprodutivo será ameaçado pela proximidade de patógenos transmitidos por cocô. Talvez seja por isso que os ânus humanos se rebelaram e se aventuraram por conta própria.

Seja qual for a razão por trás disso, a mutação que acabou com a cloaca tornou os ânus humanos “completamente entediantes”. No que toca os orifícios de saída dos animais, os nossos são totalmente padrão, capazes de pouco mais do que expulsar resíduos do intestino, sem maiores frescuras.

Gluteus Maximus

A única qualidade redentora do monótono orifício posterior dos humanos é a característica que desenvolvemos para amortecê-lo: nossas nádegas infames, as mais volumosas documentadas até agora, graças à nossa tendência bizarra de andar por aí em nossas duas pernas de primatas. Esse padrão de locomoção remodelou a pelve, que por sua vez reorientou nossos músculos. O glúteo máximo – o músculo robusto que impulsiona nossa habilidade de correr e escalar – inchou em sincronia e se cobriu com uma camada aconchegante de gordura que alguns cientistas acham que também sirva como reserva de energia. Ânus à parte, nossas nádegas são a verdadeira inovação.

A evolução explodiu o traseiro humano fora de proporção; nossas normas culturais rapidamente seguiram o exemplo. Nós contemplamos os traseiros uns dos outros com luxúria, às vezes nojo e/ou fascinação culpada. Nós os tatuamos, nós os esculpimos; nós os sexualizamos. Nós fazemos sambas, raps e funks sobre eles, com abandono. Os traseiros, em troca, tornam para nós muito mais fácil correr – mas muito mais difícil manter o ânus limpo.

Peixe-pérola – Imagem: iStock

Talvez isso seja parte da razão pela qual os humanos têm tanta vergonha de seus traseiros. Nós até optamos por “bunda” como um eufemismo para ânus em uma conversa casual. As nádegas não são o ânus, mas o cobrem, física e talvez figurativamente. Elas obscurecem a visão, e portanto a percepção de que, desde o início, nossa extremidade digestiva sempre foi uma maravilha. Ela abriu o caminho evolutivo de nossos ancestrais e tornou nossa própria existência possível.

Nosso ânus é uma ovelha vestida com uma roupa de lobo fabulosa, e simplesmente não conseguimos lidar com isso [I’m so sexy it hurts!]. Talvez seja a hora de sermos sensatos fazer como o peixe-pérola, que vive confortável ​​com o que tem entre as bochechas.


Post Scriptum:

Este texto é baseado em um trabalho original de Katherine J. Wu, publicado na revista americana The Atlantic, sob o título “The Body’s Most Embarrassing Organ Is an Evolutionary Marvel” [“O Órgão Mais Embaraçoso do Corpo É uma Maravilha Evolutiva”]. É um texto delicioso. Wu consegue abordar um tema científico [e filosoficamente espinhoso – A Teoria da Evolução!] apresentando-o de forma leve, cheia de trocadilhos e tiradas de duplo sentido. Aposto que você leu com um sorriso nos lábios. Se o fez, meu objetivo foi atingido. Eu não podia privar o povo brasileiro e lusófono deste meu achado literário. Tenho trabalhado nele desde que foi publicado, em maio. Francamente eu esperava que, no país do ‘bum-bum’, algum jornal da grande mídia o publicasse. Parece que me enganei. Unilateralmente eu o adaptei [em tamanho reduzido] para a cadência brasileira e lusófona e estou a publicá-lo como se Creative Commons fosse. Meus motivos são razoáveis:

  1. Os povos brasileiro, angolano, moçambicano, e em grande medida também o português, precisam [quase todos desesperadamente] de literatura científica, e neste período histórico o povo brasileiro precisa também de leveza. É muito bom quando a ciência encontra a leveza. Não há veículo melhor para comunicar ciência ao povo brasileiro do que a espirituosidade.
  2. Meu site não tem (ainda) fins lucrativos – embora os custos de operação não sejam desprezíveis. Ademais, meu próprio conteúdo é distribuído sob licença Creative Commons. Meu interesse primário genuíno é a divulgação da ciência e da tecnologia da informação [mas é claro que sei que isso também faz muito bem ao meu CV].

Acho que posso ser perdoado.

Lucidez Terminal: a Súbita Melhora Antes da Morte

Este blog não está indo bem, apesar de todos os meus esforços. Ele completa quatro meses em 4 de julho e ainda não encontrou sua audiência: os geeks, nerds e público geral interessado em tecnologia e ciência. Eu sabia que seria uma jornada difícil [talvez não haja geeks na Butocúndia!], mas não antecipei tanta rejeição.

Imagem: iStock

Pelo que vejo, mesmo grande parte dos nobres seguidores não visitam o site. Nem os amigos que eu considero próximos. Nem ninguém, além do núcleo duro de meus(minhas) valiosos(as) e valorosos(as) seguidores(as). O Brasil é um país deficiente em ciência e polimento cultural. Eu devia saber que a expectativa de sucesso para um empreendimento como este blog é próxima de zero.

Curiosamente, tecnologia e ciência são nichos vibrantes na blogosfera em inglês, e eu acho [achava?] que tenho [tinha?] condições de ocupar este nicho em língua portuguesa. Mas este é o Brasil da Terra Plana, da cloroquina e do “tratamento precoce” para doenças virais. Não vejo perspectivas de melhora para o país. Estamos em uma corrida “cuesta abajo” para o fundo do poço. O povo brasileiro, povo de poucas luzes, parece definitivamente preso nas tortuosas catacumbas mentais das redes sociais e dos grupos de ódio. Sei que tudo isso vai terminar em desastre para o país [talvez o desastre já esteja em curso]. Mas eu me acostumei a ser uma Cassandra, e também sei que ninguém me dará ouvidos. Sigamos.

De qualquer forma, a rejeição faz [em mim – talvez eu seja um narcisista] um sentimento de derrota que se infiltra na alma, e acaba levando o pensamento a limites radicais. Me peguei remoendo pulsões de morte na semana passada. Saí para pesquisar minha ‘malaise’, e, no meio de tantas leituras, encontrei um tema fascinante, sobre um fenômeno que muitos já devem ter registrado em algum momento de suas vidas. Me surpreendi ao ver que o assunto chega a ser uma linha de investigação científica [não no Brasil, of course].

Quebrando a disciplina do blog [afinal eu mando aqui e estou precisando exorcizar esses pensamentos], e fingindo que este tema é “ciência” [de fato é ciência], compartilho com vocês, a seguir, o que encontrei sobre a Lucidez Terminal.

Talvez você já tenha ouvido falar do fenômeno [ou testemunhado em sua experiência de vida] em que uma pessoa moribunda, que estava confusa, exausta, alternando períodos de consciência-inconsciência, de repente recobra a clareza mental e se aviva, por um certo período de tempo. O que seria isso? Uma ocorrência médica real ou um mito, lenda urbana? Muitos médicos e enfermeiras de cuidados paliativos afirmam que isso de fato acontece e que as famílias deveriam ser informadas sobre essa possibilidade. Esse suposto período de surpreendente clareza mental tem implicações importantes para a paz de espírito do paciente e da família.

O que é Lucidez Terminal?

Lucidez terminal é o termo médico que se aplica a um período de maior clareza mental e atividade durante o processo de morte.1 Pode durar minutos, horas e até dias. É comumente observado como ocorrendo de uma semana a um dia antes da morte, mas já foi documentado ocorrendo no último mês de vida.2 Para alguns autores, alucinações muitas vezes acompanham a lucidez terminal.3 [no entanto, a associação com episódios alucinatórios é controversa em pelo menos duas frentes].

Imagem: iStock

A Lucidez Terminal é Real?

Não há uma explicação médica aceita universalmente para a lucidez terminal e poucas explicações modernas são oferecidas.2 Embora existam alguns relatos de casos acadêmicos e séries de casos, 3 muitos dos relatórios disponíveis para os pesquisadores ficam aquém dos requisitos éticos e científicos habituais. Por outro lado, deve-se reconhecer que a maioria dos projetos para estudos de qualidade sobre o assunto não seriam permitidos, em razão de a lucidez terminal ocorrer por apenas alguns minutos, horas ou poucos dias. Seria antiético usar parte desse precioso tempo para conduzir um estudo.

A lucidez terminal é reconhecida na literatura médica e remonta à Grécia antiga.4 No século 19, a literatura médica afirmava que um período de alerta inexplicável era um sinal de que o enfermo tinha menos de uma semana de vida.5

Quem experimenta a lucidez terminal?

As discussões sobre a lucidez terminal parecem mais comuns no contexto da doença de Alzheimer e da demência. Isso não é por acaso; se for descoberta sua verdadeira natureza e os mecanismos subjacentes, tratamentos para a doença de Alzheimer e a demência também poderiam ser descobertos. Mas o fato é que a lucidez terminal foi descrita em uma ampla gama de condições médicas. Foi documentado que ocorre em pessoas com:

  • Alzheimer
  • Demências
  • Esquizofrenia
  • Transtornos de personalidade
  • Meningite
  • Infarto
  • Tumores cerebrais

Em estudos bem mais antigos, essa lista incluía a raiva e infecções. Em um estudo contemporâneo, a Dra. Sandy MacLeod explorou a interação direta com 100 pessoas moribundas e foi capaz de registrar casos de lucidez terminal. Ela concluiu que os casos estudados não foram capazes de permitir a identificação de preditores do fenômeno. A lucidez terminal é, portanto, imprevisível.

Quão comum é a lucidez terminal?

Uma revisão da literatura anterior, incluindo todos os relatos de ocorrência (observação médica e relatos familiares) estimou que a lucidez terminal ocorre para cerca de quatro em cada dez pessoas que enfrentam um processo de morte prolongado.6 No estudo da Dra. MacLeod, cem pessoas foram observadas diretamente em seu último mês de vida. Ela foi capaz de observar seis casos.3 Isso colocaria a prevalência em torno de 6% dos casos. Alguns autores sustentam que a lucidez terminal tem baixa prevalência na literatura médica e científica atual. Eles ainda levantam a conjectura de que o fenômeno poderia ter sido mais comum em tempos passados e que o uso regular de medicamentos diversos nos cuidados modernos pode mascarar o efeito.2,5

Como a lucidez terminal afeta as famílias?

Os relatos pessoais frequentemente dão conta de famílias que interpretam a lucidez terminal como a recuperação do paciente. Isso pode fazer com que uma morte poucos dias depois pareça uma perda ainda maior.2 É por isso que alguns profissionais de cuidados paliativos defendem que seria positiva a educação das famílias sobre a lucidez terminal, a despeito das evidências científicas limitadas. Se as famílias tiverem a consciência de que que um período de atividade e clareza mental pode sinalizar a conclusão do processo de morte, é mais provável que elas comecem a encarar a lucidez terminal como o que ela realmente é: um presente da natureza; uma última chance para colocar os assuntos em ordem.

Quanto a este blog e sua rejeição percebida, os especialistas em marketing online me tranquilizam dizendo que o tempo de maturação para esse tipo de empreendimento vai de seis meses a dois anos. Portanto, aparentemente ainda há esperança para mim [e meus negócios na Internet]. Mas não vejo esperança para o povo brasileiro. Sempre preguiçoso, cheio de manhas, sem uma bússola moral discernível, iletrado, infantilizado, irresponsável, supersticioso, fraco de caráter, amante de superficialidades, avesso à cultura e à iluminação, vítima facílima de tiranetes e enganadores [+ 46 defeitos], esta sociedade contraiu uma doença histórica fatal e está moribunda. O ano de 2022 poderá ser o momento de lucidez terminal do povo brasileiro. Meu conselho grátis: se você ainda é jovem, FUJA AGORA!

Referências [sem frescuras porque já estou cansado da ABNT]:

[1] https://digital.library.unt.edu/ark:/67531/metadc461761/
[2] https://doaj.org/article/dd6a9d84b3db4b40bd9a919ac147501b
[3] https://reference.medscape.com/medline/abstract/19939314
[4] https://pubmed.ncbi.nlm.nih.gov/21764150/
[5] Macleod S. The psychiatry of palliative medicine: the dying mind. Radcliffe Publishing; 2011.
[6] https://journals.lww.com/jonmd/Abstract/2009/12000/Terminal_Lucidity_in_Patients_With_Chronic.12.aspx

Estamos Vivendo em Uma Realidade Simulada?

Dezenas de posts e artigos parecidos com este abundam na Internet brasileira. Mas a qualidade é, em geral, duvidosa para dizer o mínimo. Muito do material disponível é entremeado de pseudo-ciência e verborragia da Nova Era. Meu blog nasceu para ajudar no combate à superstição e ao pensamento mágico. Ele não estaria completo sem uma versão caseira dessa discussão, feita à minha maneira. De qualquer forma, o debate sobre esse tópico não avançou muito desde 2003, e todos, no fim, ainda falam praticamente a mesma coisa. Fica como meu registro particular.

Imagem: iStock

Estamos vivendo em uma simulação? Embora tenha havido uma boa quantidade de reflexões secundárias e propostas mal elaboradas em torno da hipótese, há na verdade um grupo significativo de respeitáveis ​​filósofos e físicos contemporâneos que estão considerando seriamente a ideia e suas implicações.

O argumento como o conhecemos hoje apareceu pela primeira vez em um artigo do filósofo sueco Nick Bostrom, em 2003, que se posicionou tanto a favor quanto contra a proposição de um universo simulado e então explorou uma série de consequências que resultam da proposição. Os pontos principais aparecem no início do argumento, no qual Bostrom afirma que pelo menos uma das seguintes premissas é verdadeira:

  • É muito provável que a espécie humana extinga-se antes de atingir um estágio “pós-humano”.
  • É extremamente improvável que qualquer civilização pós-humana execute um número significativo de simulações de sua história evolutiva (ou variações dela).
  • Quase certamente estamos vivendo em uma simulação de computador.

Bostrom chama isso de trilema. Estaremos revisitando esses pontos à medida que exploramos os argumentos.

O Trilema de Bostrom

Bostrom é indeciso sobre a validade da hipótese da simulação, embora seja o propositor original e um dos seus principais defensores. Ele acredita que há uma chance significativa de que um dia haja entidades pós-humanas, talvez nossos descendentes, capazes de criar uma simulação de seus ancestrais – implicando que isso já pode ter acontecido e somos nós a simulação.

Bostrom aceita o argumento, mas rejeita a hipótese da simulação. Ele afirma:

“Pessoalmente, atribuo menos de 50 por cento de probabilidade à hipótese de simulação – algo em torno de 20 por cento, talvez. No entanto, esta estimativa é uma opinião pessoal subjetiva e não faz parte do argumento da simulação. Meu raciocínio é que não temos evidências fortes a favor ou contra qualquer um dos três disjuntos (1) a (3). Portanto faz sentido atribuir a cada um deles uma probabilidade significativa. “

Ele prossegue dizendo que embora alguns filósofos aceitem o argumento da simulação, as razões deles para isso diferem de várias maneiras. Bostrom é rápido em apontar que esta não é uma variante do famoso experimento mental do cérebro-em-uma-cuba de Descartes.

… o argumento da simulação é fundamentalmente diferente desses argumentos filosóficos tradicionais … O propósito do argumento da simulação é diferente: não é estabelecer um problema cético como um desafio às teorias epistemológicas e ao senso comum [como fez Descartes], mas sim argumentar que temos razões empíricas para acreditar que uma certa afirmação disjuntiva sobre o mundo é verdadeira.

Seu argumento da simulação depende de capacidades tecnológicas hipotéticas e de seu emprego na criação de um universo – e um mundo – perfeitamente simulado, que incluiria nossas mentes e as experiências do que consideramos “realidade”.

Descobrimos as Leis da Simulação?

Em uma discussão abrangente e elucidativa, alguns anos atrás, Max Tegmark, cosmologista do MIT, apresentou alguns argumentos sobre a natureza da simulação, comparando-a a um videogame.

Se eu fosse um personagem de um jogo de computador, eu também acabaria descobrindo em algum momento que as regras a que eu estivesse submetido pareceriam completamente rígidas e matemáticas. Isso refletiria o código de computador em que o jogo foi escrito.

O seu ponto é que as leis fundamentais da física acabarão nos concedendo a capacidade de criar computadores cada vez mais poderosos, muito além de nossa capacidade atual. Essas estruturas poderão ser do tamanho de sistemas solares, talvez até de galáxias. Com tanto poder de computação, poderíamos facilmente simular mentes – se de fato isso já não acontece.

Sob a suposição de que estamos em um sistema supercomplexo que roda em computadores do tamanho de uma galáxia, alguns detratores da hipótese argumentam que deveríamos, então, ser capazes de detectar algumas “falhas na Matriz”, como os riscos e manchas que vemos em um filme.

Bostrom é rápido em apontar que qualquer falha que viéssemos a encontrar poderia ser atribuída a perturbações de nossa mente. Isso inclui alucinações, ilusões e outros tipos de eventos psiquiátricos. Se qualquer tipo de falha ocorresse, o que é esperado em um sistema de computação, Bostrom acredita que os simuladores – vastamente inteligentes – seriam capazes de contornar o problema:

… ter a capacidade de impedir que as criaturas simuladas percebam anomalias na simulação. Isso poderia ser feito evitando por completo a ocorrência de anomalias, ou impedindo que as anomalias tivessem ramificações macroscópicas perceptíveis, ou ainda editando retrospectivamente os estados cerebrais dos observadores que testemunhassem algo suspeito. Se os simuladores não quiserem que saibamos que estamos sendo simulados, eles poderão facilmente nos impedir de descobrir.

Bostrom passa a considerar que ter essa capacidade de editar a realidade percebida não é uma coisa tão absurda, visto que nossos cérebros orgânicos já fazem isso: quando estamos no meio de um sonho fantástico, geralmente não percebemos que estamos sonhando e esse truque simples é realizado por nosso cérebro sem nenhuma ajuda tecnológica.

Testando Experimentalmente a Hipótese da Simulação

Imagem: iStock

Zohreh Davoudi, física da Universidade de Maryland, acredita que podemos testar empiricamente se estamos ou não em uma simulação.

“Se considerarmos que uma simulação subjacente do universo tem o mesmo problema de recursos computacionais finitos que nós temos, então as leis da física desse universo devem ser comprimidas em um conjunto finito de pontos dentro de um volume também finito. Daí então, fazemos experimentos e tentamos verificar se as assinaturas que detectamos nos revelam se estamos ou não inseridos em um espaço-tempo não contínuo.”

A evidência que provaria que estamos vivendo em uma simulação poderia vir de uma distribuição incomum de raios cósmicos atingindo a Terra, sugerindo que o espaço-tempo não é contínuo, mas sim feito de pontos discretos – embora o problema de provar que você está em simulação implique que qualquer evidência encontrada também pode ser simulada.

Davoudi traz à tona um antigo ponto teológico com uma premissa atualizada e moderna.

… O que é chamado de simulação são apenas parâmetros iniciais que você insere em um modelo e o universo, a natureza e as leis da física emergem naturalmente, como resultado. Você não tenta fazer parecer que algo está acontecendo. Você não interfere com o que você criou. Você apenas insere algo bem fundamental e deixa a coisa evoluir – exatamente como nosso universo.

Outros comentaristas observaram que essa conceitualização é semelhante ao teísmo, a ideia de que “deus” foi a causa primeira que colocou o universo em movimento, mas não interferiu nele depois. Da simplicidade dessas leis da física emergem processos complexos que parecem ter continuado a crescer e evoluir à medida que o universo envelhece.

Argumentos Contra a Hipótese da Simulação

A física teórica Sabine Hossenfelder, da Goethe University Frankfurt, está no grupo que acredita que a hipótese da simulação é simplesmente uma bobagem. Hossenfelder também tem problemas com a natureza do argumento e a maneira como a teoria é apresentada. Ela diz:

Proclamar que ‘o supremo programador fez’ não apenas não explica nada; isso nos remete de volta à era da mitologia. A hipótese da simulação me incomoda porque se intromete no terreno dos físicos. É uma afirmação ousada sobre as leis da natureza que, no entanto, não se submete ao que sabemos sobre as leis da natureza.

Hossenfelder acredita que há uma maneira trivial de dizer que o argumento da simulação está, sim, correto:

“Você poderia simplesmente interpretar as teorias atualmente aceitas como significando que nosso universo ‘calcula’ as leis da natureza. Logo, é tautologicamente verdade que vivemos em uma simulação de computador. É também uma afirmação totalmente sem consequência.”

Saindo do reino da lógica linguística e entrando na matemática e nos fundamentos da física, Hossenfelder continua a explicar que um universo quântico como o nosso não pode ser construído com bits clássicos. É também preciso levar em consideração a relatividade especial, que ninguém que tenha testado qualquer tipo de hipótese experimental foi capaz de contornar.

Impossível Distinguir um Universo Simulado

Lisa Randall, uma física teórica da Universidade de Harvard, se diz perplexa em saber o quanto este tópico é levado a sério. Sua lógica opera sob a premissa de que essa ideia nunca poderá ser testada cientificamente e é apenas uma mera armadilha linguística para os cientistas.

“Na verdade, estou muito interessada em saber por que tantas pessoas acham que essa é uma questão interessante”, diz ela sobre o assunto.

Sua previsão é que as chances de que o argumento esteja correto são efetivamente zero. Não há nenhuma evidência concebível de que estamos vivendo em uma simulação. Isso funciona em paralelo com o conceito ancestral de um deus criador. A única diferença é que, na simulação, um sistema computacional assume o lugar do antigo arquiteto, Jeová.

Para realmente distinguir uma simulação, é preciso detectar claramente uma quebra na nossa noção das leis da física ou em algumas das propriedades fundamentais subjacentes. Para simular o universo, você precisa do poder computacional do universo inteiro.

Conceito: Bijuteria Ativa Contra Contaminação

Hoje falo sobre uma ideia para uma classe de dispositivos que pretende evitar a contaminação da face [e daí mucosas] pelas mãos. Tendo em vista o processo kafkiano-bizantino ao qual um pedido de patente industrial é submetido nestes trópicos esquecidos por Deus (além dos recursos envolvidos), optei por usar este blog para transformar a ideia em “prior art”, de forma que ela, sendo pública, não possa mais ser patenteada por ninguém. Ela agora é open-source e pode ser implementada por quem assim desejar.

E se a bijuteria de uso diário pudesse ajudar na prevenção à contaminação da face pelas mãos? – Imagem`iStock

No início da pandemia de Covid houve uma grande corrida em busca de todos os métodos de prevenção imagináveis. Muitos achavam que a tecnologia digital viesse rapidamente ao socorro com suas maravilhas. Falou-se muito em variados tipos de sensores e atuadores que pudessem ajudar com o problema da exposição e contaminação, e algumas idéias chegaram a flutuar no espaço cognitivo global. A explosão da pandemia e a necessidade de tratar de temas mais prementes tiraram o foco da busca por soluções tecnológicas “duras” para concentrar os esforços nas vacinas.

Quanto à contaminação por Covid (assim como de outras doenças, como a gripe), os especialistas constantemente ressaltam que – para além da transmissão aérea – o grande ponto vulnerável no que se refere à fisicalidade da transmissão/contato é o ‘sistema’ face-mão. Levamos as mãos à face inúmeras vezes durante o dia. Levamos as mãos aos olhos, nariz e boca. Ao ouvido e ao topo da cabeça. Quase nunca percebemos. É um ato de segunda natureza, que executamos através do sistema límbico, não envolvendo a consciência no processo.

Seria então interessante se pudéssemos, diante de uma ameaça tão conspícua, imprevisível e traiçoeira como a Covid, nos abster de muita atividade descontrolada entre a face e a mão. Poderíamos usar a tecnologia para ajudar nessa tarefa, uma vez que nosso equipamento inato de controle mental e atenção é tão sujeito a falhas?

Entra minha ideia

Após considerar a questão por um tempo, percebi que a solução poderia ser implementada com o uso da lei de Lorentz, que descreve a interação entre campos magnéticos. Portanto, esse problema particular tem uma solução, e uma solução relativamente barata: um detector de metais que vamos elevar à glória, tornando-o um item de moda.

Caso de uso: alertar o indivíduo quando sua mão começa a se movimentar em direção ao rosto.

Ação pretendida: emitir um sinal – tátil ou sonoro – que possa fazer o usuário interromper o gesto e focar sua atenção nas ações corporais sendo executadas.

É facil perceber que a mão precisa atravessar o nível da base do pescoço para tocar a face. Portanto, se pudermos detectar a mão cruzando a linha da base do pescoço – ou, melhor ainda, detectar o início do movimento ascendente em direção à face, podemos emitir um discreto alerta – tátil ou sonoro – com antecedência de vários décimos de segundo, para quebrar a ação inconsciente do usuário.

Implementação

Um colar ou gargantilha, contendo a unidade de carga útil (chip sensor de campos magnéticos, bateria, processador, transmissor) atuando em conjunto com anéis ornamentais de compostos ferromagnéticos [talvez hematita ferrosa? magnetita? Deixo aos engenheiros de materiais decidir], que funcionarão passivamente nas mãos do usuário.

Funcionamento

Porque usar análogo à hematita: um anel de hematita ferrosa, por exemplo, tem duas vantagens:

Os vetores correspondentes à densidade de força magnética que o chip-sensor (em laranja, acondicionado dentro do pingente do colar) mede enquanto o campo magnético do anel se move relativamente a ele. Essa correlação de forças pode ser usada por um processador como limiar para ativação de disparo de um alerta.- Imagem por Maschen – Own work, CC0

1. É um adorno esteticamente agradável, conhecido e usado pelas diversas culturas humanas por séculos. O conjunto colar-anel pode ser integrado de várias maneiras, deixando amplo espaço de criação para designers.

2. A vantagem principal que determina a escolha do material: Os anéis de hematita [ou análogo] enriquecida, por possuirem propriedades ferromagnéticas, podem ter seu movimento [i.e., o deslocamento de seu campo magnético] detectado pelo chip-sensor embutido no pingente do colar ou gargantilha. A mudança nos parâmetros do campo magnético (Lei de Lorentz), provocada pelo deslocamento do anel – medida rápida e precisamente pelo chip-sensor – causará o disparo de um alerta sonoro ou tátil. O alerta pretende quebrar o automatismo do movimento do usuário, tornando consciente o gesto físico, idealmente fazendo com que o usuário interrompa, cancele o movimento, ou pense conscientemente sobre o estado das mãos, antes de prosseguir com o toque da face.

Para Concluir

Claro que esse é um esboço muito cru do conceito. Muitos parâmetros não são considerados e terão que ser descobertos em campo. Suspeito que talvez não se aplique universalmente, por ser uma peça ornamental, ou por outras questões whatever. Contudo ele descreve todos os elementos essenciais necessários. Cabe aos designers e aos profissionais de marketing fazer acontecer.

Essa é a típica atividade ‘hacker’. O termo – barbaramente incompreendido em várias línguas – se refere às pessoas que gostavam de desmontar (e depois montar) rádios, relógios, motores (e criar geringonças) na adolescência. Será que as pessoas ainda gostam? Este é um blog para pessoas com recursos intelectuais e hackers autênticos. Deixo então os detalhes da implementação para esses leitores imaginarem. Se alguém construir um, por favor mostre pra gente. Se alguém detectou alguma impropriedade na ideia, peço que nos oriente nos comentários.

Uma Nova Luz: Vacina Inoculada por Adesivo

Assistindo estarrecido à marcha da Covid, em um país que aparentemente desistiu de tudo, eis que entra no meu radar um novo estudo clínico vacinal, publicado em pré-print no site BioRxiv, no último dia 31/05. O trabalho dá conta de uma nova e promissora maneira de inocular o imunizante, via adesivo sobre a pele. Lembrando que este é um blog dedicado à ciência e à tecnologia, traduzimos abaixo o Resumo, com um link para o trabalho original. Antes, porém, algumas considerações.

Este adesivo tem 1 cm de diâmetro. Imagem apenas para ilustração – iStock

Ao longo de dezesseis meses [em minha contabilidade], o inventário de rumores relacionados ao contágio conseguiu transcender fronteiras. Criativas e fúteis, essas histórias se multiplicam à medida que a pandemia se recusa a ceder. Embora nos primeiros dias a maioria das conversas girassem em torno de indagações sobre potência do vírus e de como tratar o surto, o problema lentamente evoluiu para o negacionismo catastrófico, e inacraditavelmente casual, que observamos. A aparente casualidade vai contra a análise dos fatos, visto que a consciência sobre a doença é imensa e os brasileiros que viveram os tempos difíceis desde o ano passado estão muito cientes de seus efeitos fatais.

A humanidade em muitos momentos da história deixou o medo se transformar em pânico ou negação, obliterando todos os vestígios de racionalidade. O feedback em torno do gerenciamento e da responsabilidade sobre a atual pandemia também parece irracional. Assim como a teoria da cura pelo CO2 proposta por um motorista de Nova Delhi, mais teorias desse tipo abundam nos botecos, mercados e feiras do Brasil, de Manaus a Porto Alegre, que vão desde a ingestão de grandes quantidades de álcool, vermífugos e anti-malariais, até a interrupção do consumo de certas frutas e legumes [como também aumento no consumo de outros], além de apelos à superstição. A lista é interminável, e cada país, estado, cidade e localidade acrescenta seu próprio “tour de force” a essas histórias.

O desafio para as pessoas que trabalham na linha de frente é filtrar os rumores e transmitir verdades básicas sobre a pandemia e suas causas. No entanto, à medida que vemos mais complacência no horizonte, fica como um exercício para estados e municípios tentar lidar com o medo e o cansaço subjacentes às comunidades que sofrem. Para compor o problema, existe a infeliz disseminação do estigma da doença; uma doença incomum (mas não incontrolável).

A necessidade do momento é pressionar agressivamente por uma campanha de esclarecimento que envolva todas as partes interessadas [we, the people], no rádio, televisão e em tantos canais criativos quanto possível. Uma miríade de outras pequenas atividades de comunicação, como pôsteres, adesivos, banners, pinturas de parede, murais, teatro de rua, músicas, quadros, anúncios em locais de culto, também seria bem vinda,

Conforme aprendemos com esta crise, é oportuno lembrar que os registros da literatura têm sido companheiros constantes da humanidade em períodos de incerteza. E os registros informam que no passado, quando uma pandemia atingia a humanidade, não havia muito que pudesse ser feito como o tanto que podemos fazer agora, e que desgraçadamente nos recusamos a fazer como povo.

A única medida efetiva nos tempos idos era o que hoje se conhece como distanciamento social e a quarentena dos enfermos que, segundo Procópio, o principal historiador bizantino, eram feitos voluntariamente pelos indivíduos. Na era atual, só nos resta lutar contra os golpes e as flechadas da fortuna adversa, já que as luzes da razão [e do bom senso] se apagaram para grande parte da humanidade [a influência das redes sociais foi instrumental para o estabelecimento dessa indústria anti-ciência que apenas começa a mostrar sua cara. Falaremos mais sobre isso neste blog].

Temos que nos empenhar para estar um passo à frente, promover o distanciamento social, usar máscaras e garantir a higiene, coisas que não eram possíveis para todos nos tempos antigos.

O Papel da Mídia

A mídia também deve ter consciencia de sua responsabilidade pública ao reportar sobre a Covid. Em vez de jornalismo e reportagem responsável, grande parte da imprensa tem reportado vazamentos, especulações e insinuações com grande velocidade e sem verificação de fatos. As agendas individuais de cada meio de comunicação mudaram das páginas editoriais para as de notícias, levando à confusão de fatos e opiniões.

Infelizmente, a mídia (nem falemos do governo) está relatando as mortes apenas em termos de números áridos, em oposição ao impacto real da doença no país. Já perdemos quase 500.000 brasileiros, cada um deles uma pessoa importante e única. Diga-nos seus nomes, mostre-nos seus rostos, conte-nos algo sobre eles e use seu desaparecimento como inspiração para não despediçar outro cidadão útil e querido. Precisamos sentir a perda; não contar um número sem significado.

* * *

Proteção Completa por Vacina de Espículas de SARS-CoV-2 Inoculada por Adesivo de Pele

Resumo

O SARS-CoV-2 infectou mais de 160 milhões de pessoas, resultou em mais de 3,3 milhões de mortes, e ainda coloca muitos desafios na distribuição de vacinas. Neste estudo, usamos um adesivo de micro-matriz de alta densidade para aplicar uma vacina contendo subunidades da espícula do
SARS-CoV-2 diretamente na pele.

Mostramos que a vacina, revestindo o adesivo a seco, é termoestável, e a entrega das espículas via HD-MAP induziu maiores respostas imunológicas em celulas e anticorpos, com soro capaz de neutralizar potentemente partículas isoladas clinicamente relevantes, incluindo das linhagens B.1.1.7 e B .1.35.

Finalmente, uma única dose de espículas administrada por HD-MAP forneceu proteção completa contra o desafio letal do vírus, demonstrando que a administração de uma vacina SARS-CoV-2 por HD-MAP é superior à vacinação tradicional com agulha e seringa e tem potencial para provocar um grande impacto na pandemia de COVID-19 em curso.

Link para o trabalho original

Vive Teus Anos Como Te Apraz (Mas Não Pede Mais)

Não é o assunto mais animado, e nem mesmo totalmente apropriado per minhas próprias diretrizes para o site. Mas é um estudo científico recente (25/05), de uma publicação respeitável, em uma esfera que interessa aos trans-humanistas – que compõem um sub-grupo expressivo entre os tecnologistas – além dos youtubers evangelistas da juventude eterna. A postar apenas para um registro rápido. De passagem, é interessante tentar contrapor filosoficamente nossas pequenas veleidades suburbanas a esses fatos impiedosos que a Segunda Lei da Termodinâmica nos joga no caminho. Sugiro como exercício mental [ou algo de ‘mindfulness’, como dizem no YouTube’].

(*) Há também um pouco de acomodação de minha parte em usar esse (pre)texto conveniente em uma semana em que, no que tange a tecnologia da informação, nada realmente blogworthy aparece no meu radar.

iStock

* * *

A Análise Longitudinal dos Marcadores Sanguíneos Revela Perda Progressiva de Resiliência e Prediz o Limite de Vida Humana

Resumo

Investigamos as propriedades dinâmicas das flutuações de estado do organismo ao longo das trajetórias individuais de envelhecimento armazenadas em um grande banco de dados longitudinal de medições de hemograma completo de um laboratório de diagnóstico. Para simplificar a análise, usamos uma estimativa log-linear da mortalidade a partir das variáveis ​​do hemograma completo como uma única medida quantitativa do processo de envelhecimento – doravante denominado indicador dinâmico do estado do organismo (DOSI).

Observamos que o aumento da distribuição do DOSI na população – dependente da idade – pode ser explicado por uma perda progressiva da resiliência fisiológica medida pelo tempo de autocorrelação do DOSI.

A extrapolação dessa tendência sugeriu que tanto o tempo de recuperação do DOSI como a variância divergiriam simultaneamente em um ponto crítico entre 120-150 anos de idade, correspondendo a uma perda completa da resiliência.

A observação foi imediatamente confirmada pela análise independente das propriedades de correlação das flutuações dos níveis de atividade física intradia coletadas por dispositivos vestíveis (wearables).

Concluímos que a criticalidade que resulta no fim da vida é uma propriedade biológica intrínseca de um organismo, que não depende de fatores de estresse e significa um limite fundamental ou absoluto da expectativa de vida humana.

Link para o trabalho na íntegra, em Nature.com

Do Petróleo ao Lítio: Implicações Geopolíticas da Revolução do Carro Elétrico

O papel do petróleo na formação da geopolítica global é bem compreendido. Desde que o petróleo se tornou essencial para o transporte mundial – e, portanto, para o funcionamento eficaz da economia mundial – ele foi visto, por razões óbvias, como um recurso “estratégico”. Como as maiores concentrações de petróleo estavam localizadas no Oriente Médio, uma área historicamente distante dos principais centros de atividade industrial da Europa e da América do Norte e regularmente sujeita a convulsões políticas, as principais nações importadoras há muito buscavam exercer algum controle sobre a produção e exportação de petróleo da região.

Isso levou a um imperialismo de recursos de alta ordem, começando após a Primeira Guerra Mundial, quando a Grã-Bretanha e outras potências europeias disputavam o controle colonial das áreas produtoras de petróleo na região do Golfo Pérsico. Ela continuou após a Segunda Guerra Mundial, quando os Estados Unidos entraram na briga em grande estilo.

Para os Estados Unidos, garantir o acesso ao petróleo do Oriente Médio tornou-se uma prioridade estratégica após os “choques do petróleo” de 1973 e 1979 – o primeiro causado por um embargo árabe do petróleo, que foi uma represália ao apoio de Washington a Israel na Guerra de outubro daquele ano; a segunda por uma interrupção do abastecimento causada pela Revolução Islâmica no Irã. Em resposta às filas intermináveis ​​nos postos de gasolina americanos e às recessões subsequentes, sucessivos presidentes se comprometeram a proteger as importações de petróleo por “todos os meios necessários”, incluindo o uso da força armada. Essa mesma postura levou o presidente George H.W. Bush a travar a primeira Guerra do Golfo contra o Iraque de Saddam Hussein em 1991 e seu filho a repetir a intervenção em 2003.

Motor elétrico moderno. Visto em corte.

No presente os Estados Unidos não são mais tão dependentes do petróleo do Oriente Médio, considerando como os depósitos domésticos de xisto e outras rochas sedimentares estão sendo explorados pela tecnologia de fraturamento hidráulico. Ainda assim, a conexão entre o uso do petróleo e o conflito geopolítico não desapareceu.

A maioria dos analistas acredita que o petróleo continuará a fornecer uma parte importante da energia global nas próximas décadas, e isso certamente gerará lutas políticas e militares sobre os suprimentos restantes. Portanto, eis a questão do momento: uma explosão no uso de carros elétricos pode mudar esse cenário?

A participação de veículos elétricos (VE) no mercado está crescendo rapidamente e deve chegar a 15% das vendas mundiais até 2030. As principais montadoras estão investindo pesadamente nesse segmento, prevendo um aumento na demanda. Havia cerca de 370 modelos de VE disponíveis para venda em todo o mundo em 2020 – um aumento de 40% em relação a 2019 – e as principais montadoras falavam em planos de disponibilizar 450 modelos adicionais até 2022. Além disso, a General Motors anunciou sua intenção de eliminar completamente a produção de veículos convencionais a gasolina e diesel até 2035, enquanto o CEO da Volvo indicou que a empresa só venderia veículos convencionais até 2030.

É razoável supor que essa mudança vai continuar a ganhar mais e mais impulso, trazendo profundas consequências para o comércio global de recursos naturais. De acordo com a IEA, um carro elétrico típico requer seis vezes mais insumos minerais do que um veículo convencional. Isso inclui o cobre para a fiação elétrica mais o cobalto, grafite, lítio e níquel necessários para garantir o desempenho da bateria, a longevidade e a densidade de energia (a produção de energia por unidade de peso). Além disso, os elementos chamados de “terras raras” serão essenciais para os vários magnetos permanentes que são parte dos motores elétricos.

Uso de terras raras em um carro elétrico.

O lítio, o componente principal das baterias de íon de lítio usadas na maioria dos VEs, é o metal mais leve conhecido. Embora esteja presente em depósitos de argila e compostos de minério, raramente é encontrado em concentrações facilmente lavráveis, embora também possa ser extraído da salobra em áreas como o Salar de Uyuni na Bolívia, a maior planície de sal do mundo. Atualmente, aproximadamente 58% do lítio mundial vem da Austrália; outros 20% do Chile, 11% da China, 6% da Argentina e porcentagens menores de outros lugares. Uma empresa norte-americana, a Lithium Americas, pretende iniciar a extração de quantidades significativas de lítio de um depósito de argila no norte de Nevada, mas está encontrando severa resistência de fazendeiros locais e povos nativos, que temem a contaminação de seus mananciais.

O cobalto é outro componente importante das baterias de íon de lítio. Ele raramente é encontrado em depósitos únicos e é mais frequentemente obtido como um subproduto da mineração de cobre e níquel. Hoje, é quase inteiramente produzido graças à mineração de cobre na violenta e caótica República Democrática do Congo, principalmente na área que é conhecida como o “cinturão do cobre”, na província de Katanga, uma região que antes buscava se separar do resto do país e ainda abriga impulsos separatistas.

Elementos de terras raras (ETR) englobam um grupo de 17 substâncias metálicas espalhadas pela superfície da Terra, mas dificilmente encontradas em concentrações lavráveis. Entre esses elementos, vários são essenciais para futuras soluções no campo da energia sustentável, incluindo disprósio, lantânio, neodímio e térbio. Quando usados ​​em ligas com outros minerais, eles ajudam a perpetuar a magnetização de motores elétricos sob condições de alta temperatura, um requisito fundamental para veículos elétricos e turbinas eólicas. Atualmente, aproximadamente 70% dos ETRs vêm da China, talvez 12% da Austrália e 8% dos EUA.

Um simples olhar de soslaio para a localização geográfica dessas concentrações nos sugere que a transição para a energia verde, prevista pelo presidente Biden e outros líderes mundiais, pode encontrar graves problemas geopolíticos, não muito diferentes daqueles gerados no passado pela dependência do petróleo. Para começar, a nação militarmente mais poderosa do planeta, os Estados Unidos, têm em suas reservas domésticas apenas pequenas quantidades de ETRs, assim como de outros minerais críticos como níquel e zinco, necessários para tecnologias verdes avançadas.

Enquanto Austrália e Brasil, aliados do Ocidente, despontam como importantes fornecedores de alguns desses minerais, a China, crescentemente vista como um adversário estratégico, é crucial na questão dos ETRs, e o Congo, uma das nações do planeta mais atormentadas por conflitos, é o principal produtor de cobalto. Portanto, nem por um segundo imaginemos que a transição para um futuro de energia renovável será fácil ou sem conflitos.

Fonte: TomDispatch.com