Ômicron: a Vacina que não Soubemos Fazer?

A medida que a Ômicron avança, eu começo a ver argumentos surpreendentes (e um pouco perturbadores) sobre como proceder daqui em diante em face da… epidemia?

Imagem: Pexels

O fluxo de informação na genética é muito mais complexo do que pode parecer em uma análise superficial, um ponto ilustrado de forma travessa por um pequeno factóide: pesquisadores descobriram que, cortando a cabeça e a cauda de um verme e aplicando uma corrente elétrica – o que interrompe o fluxo de informações no crescimento celular – você pode obter um verme com cabeça em ambas as extremidades. Se você cortar esse novo verme ao meio, você terá dois novos vermes de duas cabeças, mesmo que tenham exatamente o mesmo DNA do verme original de uma cabeça.

Tudo isso demonstra que há algo mais do que o DNA se escondendo nas leis da genética. É a chamada epigenética. Na biologia, a epigenética é o estudo das mudanças hereditárias do fenótipo que não envolvem alterações na sequência de DNA.

A evolução leva tempo, mas é brutal em sua seletividade. O indivíduo de uma espécie, seja qual for, dos humanos aos vírus, sempre surge como um “ponto ideal” entre variáveis independentes e caóticas. Tanto a otimização excessiva quanto a sub-otimização são prejudiciais a esses sistemas compostos de partes menores, embora cada parte tenha otimizações diferentes e pareça surgir de fundamentos muito básicos através do caminho da “complexidade”.

Como sabemos, a maioria dos sistemas biológicos podem, acima de um certo nível de complexidade, copiar a si mesmos. Qualquer erro nesse processo de cópia – se não for corrigido – vai resultar em uma variante genética. Se essa mudança aleatória causar um aumento marginal na longevidade ou na capacidade de reprodução do indivíduo, ela será favorecida e passada adiante. Daí a noção de “evolução” ser fundamental para o que acontece nas mutações genéticas.

O resultado é sempre uma especialização que dá vantagem ao organismo que, por isso, acaba se tornando predominante. Até que a mutação se torne menos vantajosa ou outra variante ganhe uma vantagem diferente.

Podemos ver isso em ação em “tempo real” atualmente com as variantes do SarsCov: a Delta foi substituída pela Ômicron, que por sua vez está sendo substituída por outra variante da Ômicron. No final do atual processo, portanto, presume-se que um sistema simbiótico eficaz se desenvolverá e o SarsCov2 se tornará, como os outros vírus Corona que infectam humanos [como o resfriado comum], um oportunista de fundo.

Os jovens vão contaminar todo o mundo

Então, o resumo de tudo é que, vendo o desenrolar dos fatos, em minha situação eu tenho pouca escolha. Vou me infectar, assim como todos os outros que não vivem em uma bolha isolada.

Na verdade, minhas escolhas se limitam a:

  • 1. Continuar empurrando a pedra ladeira acima – que no fim vai acabar rolando de volta.
  • 2. Facilitar o contágio inevitável – relativamente benigno para uma pessoa totalmente vacinada.

Tão pouca escolha se torna uma escolha real. Os itens 1 e 2 se traduzem da seguinte forma:

  • 1. Viver em uma bolha que eventualmente irá estourar, sabendo que a cada dia que passa minha imunidade está diminuindo. Então, quanto mais eu evitar, pior será nos meses à frente. Poderá ainda haver uma variante consideravelmente mais patogênica.
  • 2. Aceitar o inevitável, enquanto eu ainda tenho alguma proteção vacinal – e a variante atual é relativamente benigna para uma pessoa com esquema vacinal completo.

A Dinamarca suspendeu todas as restrições com base no que parece ser uma evidência científica sensata. Somam-se a isso profissionais de saúde com expertise na área dizendo, a “Ômicron é a vacina que não pudemos fazer ou distribuir”.

Você tem que perguntar o que isso realmente significa, não apenas em um nível social, mas individual.

Sem escolha

Nenhuma ação que as pessoas tomem é isenta de riscos – mesmo ficar na cama tem riscos significativos para a saúde. Assim, surge a questão não apenas do “risco comparado”, mas também do “risco nominal”.

No momento tenho alguma imunidade da vacina, mas isso está diminuindo. Essa imunidade pode não estar presente em algumas semanas, quando uma nova variante inevitavelmente surgir.

A auto-contaminação é um risco calculado que eu não assumiria em nenhuma outra circunstância. Mas está claro que os políticos querem qualquer desculpa para “abrir tudo de cambulhada”. Então a minha escolha foi removida, já há algum tempo.

Eu serei infectado, não porque eu deseje/queira, mas porque minha escolha foi tirada de mim. Evitar todos que possam estar infectados é impraticável, então em algum momento eu – provavelmente – ficarei infectado e sintomático – mas espero que não no nível que exija internação hospitalar.

Imitando o fraseado do pérfido Bolsonaro, no tocante (argh!) à patogenicidade, ela está no nível mais baixo em dois anos.

A próxima variante será menos patogênica? Eu não tenho ideia. Mas é mais provável ser mais para cima do que para baixo do que está sendo dito. Vou deixar os outros lutarem com essa questão.

O que eu sei é que minha imunidade, como a de todo mundo, está em contagem regressiva…

Tempo de Revisitar o Método Científico

Como se eu estivesse a lançar ao mar uma mensagem em uma garrafa, em um esforço patético, desesperado, para salvar um pedaço precioso do conhecimento humano da sanha dos bárbaros. Assim me sinto em 2021 ao teclar esta peça.

Imagem: Pexels

Estupefato [e, francamente, um tanto abalado na cidadania] depois de testemunhar o [e sobreviver ao] assalto à razão perpetrado nos últimos quase dois anos pelo governo e parte dos brasileiros, me ponho a divagar sobre o que explicaria tamanho desprezo dos patrícios à lógica [além da ética] e à razão, durante a desditosa pandemia.

Eu pessoalmente suspeito que o motivo seja um item [ou mais] da lista abaixo:

  • A maioria das pessoas não conhece a ciência, e mesmo quando sabem “sobre” a ciência, muitas vezes têm a impressão errada dela.
  • Eles usam a palavra “coronavírus” como se houvesse apenas uma variante. Não estão cientes que um vírus que pode sofrer mutações facilmente.
  • Eles não conhecem o sistema de “revisão pelos pares”, e têm medo de que os cientistas estejam mentindo para eles.
  • Eles dizem a si mesmos que é o Sol que está tornando a Terra mais quente, “porque isso é óbvio”.
  • Eles não querem conhecer a ciência, porque sabem que isso significa ler, estudar, e todas as dificuldades envolvidas em aprender qualquer coisa nova. Mas não gostam da implicação de que as pessoas educadas “sabem mais do que eles” sobre qualquer coisa.
  • Eles não querem aceitar a ciência, porque são profundamente supersticiosos e/ou porque eles têm fé em algo que eles acham que a ciência contradiz.

Quaisquer que sejam as inclinações deste nosso fantástico povo, eu tento resgatar um pouco da sanidade perdida, senão para benefício do ambiente geral, pelo menos para mim mesmo. Como uma litania, textos como este se repetem pela internet afora aos milhares [embora raramente em português]. Mas, não importando quantas vezes já tenha sido repetido, o tema ganha aqui hoje a minha muito necessária versão pessoal.

O que é o método científico?

O método científico é um processo de investigação usado para explorar observações e responder perguntas. Isso não significa que todos os cientistas sigam exatamente o mesmo processo. Algumas áreas da ciência podem ser testadas mais facilmente do que outras. Por exemplo, os cientistas que estudam a evolução das estrelas ou a fisiologia dos dinossauros não podem acelerar a vida de uma estrela em um milhão de anos ou fazer exames médicos nos dinossauros para testar suas hipóteses.

Quando a experimentação direta não é possível, os cientistas adaptam o método científico, dentro dos limites da lógica. Essa plasticidade permite quase tantas versões do método científico quanto existem cientistas. Mas mesmo quando modificado, o objetivo do método permanece o mesmo: descobrir relações de causa e efeito fazendo perguntas, reunindo e examinando cuidadosamente as evidências e verificando se todas as informações disponíveis podem ser combinadas em uma resposta lógica.

Quem inventou o método científico?

O método científico não foi inventado por nenhuma pessoa, mas é o resultado de séculos de debate sobre a melhor forma de descobrir como o mundo natural funciona. O antigo filósofo grego Aristóteles foi um dos primeiros a promover a noção de que a observação e o raciocínio lógico são os instrumentos mais adequados para desvendar o funcionamento da natureza. O matemático árabe Hasan Ibn al-Haytham é frequentemente citado como a primeira pessoa a escrever sobre a importância da experimentação. Assim, temos, através do legado desses filósofos, os princípios científicos basilares da observação, do raciocínio lógico e da experimentação.

Desde então, um grande número de filósofos/cientistas escreveu sobre como a ciência deveria idealmente ser conduzida. Entre eles os eminentes Roger Bacon, Tomás de Aquino, Galileu Galilei, Francis Bacon, René Descartes, Isaac Newton, John Hume e John Stuart Mill. Os cientistas hoje continuam a evoluir e refinar o método científico à medida que exploram novas técnicas e novas áreas da ciência.

Os cientistas realmente usam o método científico?

Os cientistas sempre usam o método científico, mas nem sempre exatamente conforme estabelecido nas etapas ensinadas em sala de aula. Assim como um chef pode fazer algumas alterações em uma receita para se adaptar aos ingredientes disponíveis, um cientista igualmente pode adaptar o método científico alternando etapas, saltando para frente e para trás entre as etapas ou repetindo um subconjunto das etapas – porque ele ou ela está lidando com as condições imperfeitas do mundo real.

Mas é importante salientar que os cientistas sempre se esforçam para manter os princípios básicos do método científico usando observações, experimentos e dados, para confirmar ou rejeitar explicações de como um fenômeno funciona.

O método científico: etapas e exemplos

Mesmo que o método científico se apresente como uma série progressiva de etapas, é preciso ter em mente que novas informações ou pensamentos sobre o problema em foco podem obrigar o pesquisador a recuar e repetir as etapas a qualquer momento durante o processo. Um processo como o método científico que envolve backup e repetição é chamado de processo iterativo.

Esteja você desenvolvendo um projeto de feira de ciências, uma atividade científica em sala de aula, uma pesquisa independente ou qualquer outra investigação científica prática, a compreensão das etapas do método científico o ajudará a focar sua pergunta e trabalhar usando as observações e os dados objetivos, para responder à hipótese da maneira mais rigorosa possível.

Fluxograma do método científico

O Método Científico começa com uma pergunta. Uma pesquisa de base é então conduzida para tentar responder a essa pergunta. Se você deseja encontrar evidências para uma resposta à questão, você elabora uma hipótese e testa essa hipótese em um experimento. Se o experimento funcionar e os dados forem analisados, você pode provar ou refutar sua hipótese. Se sua hipótese for refutada, você pode voltar com as novas informações obtidas e criar uma nova hipótese para reiniciar o processo científico. – Diagrama: Vox Leone

Etapas do Método Científico

  1. Fazer uma pergunta

O método científico começa quando o pesquisador [que pode ser qualquer pessoa que busque a verdade, independente de sua escolaridade] faz uma pergunta sobre algo que observa:

Ex: Será que a Cloroquina funciona contra a COVID-19?

  1. Pesquisa de base

Em vez de começar do zero, o cientista rigoroso elabora um plano para responder à sua pergunta, e usa bibliotecas, pesquisas em campo e na Internet para se aprofundar no conhecimento do domínio em estudo.

  1. Elaborar uma hipótese

Uma hipótese é um palpite sobre como as coisas funcionam. É uma tentativa de responder à pergunta original com uma afirmação que pode ser testada. A hipótese deve ser declarada junto com a previsão resultante:

Ex: Se Alice tomar Cloroquina ela não vai se infectar com COVID-19.

  1. Testar a hipótese fazendo um experimento

O experimento então testa se a previsão é precisa e, portanto, se a hipótese é suportada ou não. O experimento científico obedece a um método próprio, para garantir condições controladas – para que seja um teste justo. Em um teste justo o pesquisador certifica-se de alterar apenas um fator de cada vez, mantendo todas as outras condições iguais.

É normal um estudo repetir os experimentos várias vezes para ter certeza de que os primeiros resultados não foram acidentais.

Ex: Tratar um grupo de 100 pacientes com Cloroquina e um outro grupo de controle de 100 pacientes com um medicamento inócuo [placebo].

  1. Análise dos dados e conclusão

Uma vez que o experimento esteja completo, o pesquisador coleta suas medições e as analisa para ver se elas confirmam a hipótese ou não.

Ex: de 100 pacientes tratados com Cloroquina, 90 foram infectados com COVID-19. O número de infectados foi igual no grupo de controle, que tomou placebo. Conclui-se que a hipótese de que a Cloroquina evita a infecção por COVID-19 é FALSA.

Em suas atividades diárias os cientistas profissionais rotineiramente concluem – às vezes com decepção – que suas previsões não foram precisas e suas hipóteses não foram confirmadas. Mesmo decepcionados eles comunicarão os resultados negativos de seu experimento. Em seguida, voltarão a elaborar uma nova hipótese com base nas novas informações que aprenderam durante o experimento. Isso inicia uma nova iteração do processo do método científico.

  1. Comunicação dos resultados

Para concluir o estudo o pesquisador comunicará seus resultados a outras pessoas em um relatório final. Cientistas profissionais em geral publicam seu relatório final em uma revista científica ou apresentam seus resultados em um pôster ou em uma palestra em um encontro científico.

Em suma, a verdade científica revelada pelo método é a correspondência com a realidade objetiva. As hipóteses podem ou não corresponder à realidade. Quando uma hipótese corresponde à realidade, ela é confirmada como verdadeira. Quando uma hipótese descreve uma realidade diferente do que ela propõe, essa hipótese é falsa. A maneira como descobrimos se uma dada crença é verdadeira ou falsa é através do uso das evidências empíricas e lógicas requeridas pelo método científico.


Referências:

Karl Popper: Conjectures and Refutations
https://www.academia.edu/38681885/Karl_Popper_Conjectures_and_Refutations

What Is Empirical Testing?
http://www.strevens.org/research/episteme/Empirica.pdf

Democracy of Incomplete Victories: State, Civil Society, and the Scientific Method
https://philpapers.org/archive/KASDOI.pdf

O Futuro da AI é Luminoso (e analógico)

Para concluir a Rápida Introdução à ‘Inteligência Artificial’, publico o post complementar, para apresentar o inovador chip ótico [ainda sem nome comercial] da start-up Lightmatter, contendo o chamado interferômetro Mach-Zehnderque, que promete elevar a computação de sistemas de aprendizagem de máquinas a um novo patamar.

Imagem: iStock

O aprendizado de máquina profundo, ou seja, redes neurais artificiais com muitas camadas ocultas, sempre nos fascina com soluções inovadoras para problemas do mundo real, cada vez em mais áreas, incluindo processamento de linguagem natural, detecção de fraude, reconhecimento de imagem e direção autônoma. As redes neurais ficam melhores a cada dia.

Mas esses avanços têm um preço enorme nos recursos de computação e no consumo de energia. Portanto, não é de se admirar que engenheiros e cientistas da computação estejam fazendo grandes esforços para descobrir maneiras de treinar e operar redes neurais profundas com mais eficiência.

Uma nova e ambiciosa estratégia que está fazendo o ‘début’ este ano é executar a computação de redes neurais usando fótons em vez de elétrons. A Lightmatter começará a comercializar no final deste ano seu chip acelerador de rede neural que calcula com luz. Será um refinamento do protótipo do chip Mars que a empresa exibiu em agosto passado.

O protótipo MARS, instalado em uma placa

Embora o desenvolvimento de um acelerador ótico comercial para aprendizado profundo seja uma conquista notável, a ideia geral de ‘computação com luz’ não é nova. Os engenheiros empregavam regularmente essa tática nas décadas de 1960 e 1970, quando os computadores digitais eletrônicos ainda não tinham capacidade para realizar cálculos complexos. Assim, os dados eram processados no domínio analógico, usando luz.

Em virtude dos ganhos da Lei de Moore na eletrônica digital, a computação óptica nunca realmente pegou, apesar da ascensão da luz [fibras óticas] como veículo para comunicação de dados. Mas tudo isso pode estar prestes a mudar: a Lei de Moore, que durante décadas proporcionou aumentos exponenciais na capacidade dos chips eletrônicos, mostra sinais de estar chegando ao fim, ao mesmo tempo em que as demandas da computação de aprendizado profundo estão explodindo.

Não há muitas escolhas para lidar com esse problema. Pesquisadores de aprendizagem profunda podem até desenvolver algoritmos mais eficientes, mas é difícil prever se esses ganhos serão suficientes. Essa é a razão da Lightmatter estar empenhada em “desenvolver uma nova tecnologia de computação que não dependa do transistor”.

Fundamentos

O componente fundamental no chip Lightmatter é um interferômetro Mach-Zehnder. Esse dispositivo ótico foi inventado em conjunto por Ludwig Mach e Ludwig Zehnder na década de 1890. Mas só recentemente esses dispositivos óticos foram miniaturizados a ponto de um grande número deles poder ser integrado em um chip e usado para realizar as multiplicações de matrizes envolvidas nos cálculos de rede neural.

O interferômetro Mach-Zehnder é um dispositivo usado para determinar as variações relativas de deslocamento de fase entre dois feixes colimados derivados da divisão da luz de uma única fonte. É um dispositivo particularmente simples para demonstrar interferência por divisão de amplitude. Um feixe de luz é primeiro dividido em duas partes por um divisor de feixe e, em seguida, recombinado por um segundo divisor de feixe. Dependendo da fase relativa adquirida pelo feixe ao longo dos dois caminhos, o segundo divisor de feixe refletirá o feixe com eficiência entre 0 e 100%. – Gráfico: Vox Leone – Uso Permitido

Esses feitos só se tornaram possíveis nos últimos anos devido ao amadurecimento do ecossistema de manufatura de fotônica integrada, necessário para fazer chips fotônicos para comunicações.

O processamento de sinais analógicos transportados pela luz reduz os custos de energia e aumenta a velocidade dos cálculos, mas a precisão pode não corresponder ao que é possível no domínio digital. O sistema é 8-bits-equivalente. Isso por enquanto mantém o chip restrito a cálculos de inferência de rede neural – aqueles que são realizados depois que a rede foi treinada.

Os desenvolvedores do sistema esperam que sua tecnologia possa um dia ser aplicada também ao treinamento de redes neurais. O treinamento exige mais precisão do que o processador ótico pode fornecer nesta etapa.

A Lightmatter não está sozinha em busca da luz para cálculos de redes neurais. Outras startups que trabalham nesta linha são Fathom Computing, LightIntelligence, LightOn, Luminous e Optalysis.

A Luminous espera desenvolver sistemas práticos em algum momento entre 2022 e 2025. Portanto, ainda teremos que esperar alguns anos para ver como essa abordagem vai evoluir. Mas muitos estão entusiasmados com as perspectivas, incluindo Bill Gates, um dos maiores investidores da empresa.

Uma coisa é clara: os recursos de computação dedicados aos sistemas de inteligência artificial não podem continuar a crescer sustentavelmente na taxa atual, dobrando a cada três ou quatro meses. Os engenheiros estão ansiosos para utilizar a fotônica integrada para enfrentar esse desafio de construir uma nova classe de máquinas de computação drasticamente diferentes daquelas baseadas nos chips eletrônicos convencionais, que agora se tornam viáveis para fabricação. São dispositivos que no passado recente só podiam ser imaginados.

Estamos Vivendo em Uma Realidade Simulada?

Dezenas de posts e artigos parecidos com este abundam na Internet brasileira. Mas a qualidade é, em geral, duvidosa para dizer o mínimo. Muito do material disponível é entremeado de pseudo-ciência e verborragia da Nova Era. Meu blog nasceu para ajudar no combate à superstição e ao pensamento mágico. Ele não estaria completo sem uma versão caseira dessa discussão, feita à minha maneira. De qualquer forma, o debate sobre esse tópico não avançou muito desde 2003, e todos, no fim, ainda falam praticamente a mesma coisa. Fica como meu registro particular.

Imagem: iStock

Estamos vivendo em uma simulação? Embora tenha havido uma boa quantidade de reflexões secundárias e propostas mal elaboradas em torno da hipótese, há na verdade um grupo significativo de respeitáveis ​​filósofos e físicos contemporâneos que estão considerando seriamente a ideia e suas implicações.

O argumento como o conhecemos hoje apareceu pela primeira vez em um artigo do filósofo sueco Nick Bostrom, em 2003, que se posicionou tanto a favor quanto contra a proposição de um universo simulado e então explorou uma série de consequências que resultam da proposição. Os pontos principais aparecem no início do argumento, no qual Bostrom afirma que pelo menos uma das seguintes premissas é verdadeira:

  • É muito provável que a espécie humana extinga-se antes de atingir um estágio “pós-humano”.
  • É extremamente improvável que qualquer civilização pós-humana execute um número significativo de simulações de sua história evolutiva (ou variações dela).
  • Quase certamente estamos vivendo em uma simulação de computador.

Bostrom chama isso de trilema. Estaremos revisitando esses pontos à medida que exploramos os argumentos.

O Trilema de Bostrom

Bostrom é indeciso sobre a validade da hipótese da simulação, embora seja o propositor original e um dos seus principais defensores. Ele acredita que há uma chance significativa de que um dia haja entidades pós-humanas, talvez nossos descendentes, capazes de criar uma simulação de seus ancestrais – implicando que isso já pode ter acontecido e somos nós a simulação.

Bostrom aceita o argumento, mas rejeita a hipótese da simulação. Ele afirma:

“Pessoalmente, atribuo menos de 50 por cento de probabilidade à hipótese de simulação – algo em torno de 20 por cento, talvez. No entanto, esta estimativa é uma opinião pessoal subjetiva e não faz parte do argumento da simulação. Meu raciocínio é que não temos evidências fortes a favor ou contra qualquer um dos três disjuntos (1) a (3). Portanto faz sentido atribuir a cada um deles uma probabilidade significativa. “

Ele prossegue dizendo que embora alguns filósofos aceitem o argumento da simulação, as razões deles para isso diferem de várias maneiras. Bostrom é rápido em apontar que esta não é uma variante do famoso experimento mental do cérebro-em-uma-cuba de Descartes.

… o argumento da simulação é fundamentalmente diferente desses argumentos filosóficos tradicionais … O propósito do argumento da simulação é diferente: não é estabelecer um problema cético como um desafio às teorias epistemológicas e ao senso comum [como fez Descartes], mas sim argumentar que temos razões empíricas para acreditar que uma certa afirmação disjuntiva sobre o mundo é verdadeira.

Seu argumento da simulação depende de capacidades tecnológicas hipotéticas e de seu emprego na criação de um universo – e um mundo – perfeitamente simulado, que incluiria nossas mentes e as experiências do que consideramos “realidade”.

Descobrimos as Leis da Simulação?

Em uma discussão abrangente e elucidativa, alguns anos atrás, Max Tegmark, cosmologista do MIT, apresentou alguns argumentos sobre a natureza da simulação, comparando-a a um videogame.

Se eu fosse um personagem de um jogo de computador, eu também acabaria descobrindo em algum momento que as regras a que eu estivesse submetido pareceriam completamente rígidas e matemáticas. Isso refletiria o código de computador em que o jogo foi escrito.

O seu ponto é que as leis fundamentais da física acabarão nos concedendo a capacidade de criar computadores cada vez mais poderosos, muito além de nossa capacidade atual. Essas estruturas poderão ser do tamanho de sistemas solares, talvez até de galáxias. Com tanto poder de computação, poderíamos facilmente simular mentes – se de fato isso já não acontece.

Sob a suposição de que estamos em um sistema supercomplexo que roda em computadores do tamanho de uma galáxia, alguns detratores da hipótese argumentam que deveríamos, então, ser capazes de detectar algumas “falhas na Matriz”, como os riscos e manchas que vemos em um filme.

Bostrom é rápido em apontar que qualquer falha que viéssemos a encontrar poderia ser atribuída a perturbações de nossa mente. Isso inclui alucinações, ilusões e outros tipos de eventos psiquiátricos. Se qualquer tipo de falha ocorresse, o que é esperado em um sistema de computação, Bostrom acredita que os simuladores – vastamente inteligentes – seriam capazes de contornar o problema:

… ter a capacidade de impedir que as criaturas simuladas percebam anomalias na simulação. Isso poderia ser feito evitando por completo a ocorrência de anomalias, ou impedindo que as anomalias tivessem ramificações macroscópicas perceptíveis, ou ainda editando retrospectivamente os estados cerebrais dos observadores que testemunhassem algo suspeito. Se os simuladores não quiserem que saibamos que estamos sendo simulados, eles poderão facilmente nos impedir de descobrir.

Bostrom passa a considerar que ter essa capacidade de editar a realidade percebida não é uma coisa tão absurda, visto que nossos cérebros orgânicos já fazem isso: quando estamos no meio de um sonho fantástico, geralmente não percebemos que estamos sonhando e esse truque simples é realizado por nosso cérebro sem nenhuma ajuda tecnológica.

Testando Experimentalmente a Hipótese da Simulação

Imagem: iStock

Zohreh Davoudi, física da Universidade de Maryland, acredita que podemos testar empiricamente se estamos ou não em uma simulação.

“Se considerarmos que uma simulação subjacente do universo tem o mesmo problema de recursos computacionais finitos que nós temos, então as leis da física desse universo devem ser comprimidas em um conjunto finito de pontos dentro de um volume também finito. Daí então, fazemos experimentos e tentamos verificar se as assinaturas que detectamos nos revelam se estamos ou não inseridos em um espaço-tempo não contínuo.”

A evidência que provaria que estamos vivendo em uma simulação poderia vir de uma distribuição incomum de raios cósmicos atingindo a Terra, sugerindo que o espaço-tempo não é contínuo, mas sim feito de pontos discretos – embora o problema de provar que você está em simulação implique que qualquer evidência encontrada também pode ser simulada.

Davoudi traz à tona um antigo ponto teológico com uma premissa atualizada e moderna.

… O que é chamado de simulação são apenas parâmetros iniciais que você insere em um modelo e o universo, a natureza e as leis da física emergem naturalmente, como resultado. Você não tenta fazer parecer que algo está acontecendo. Você não interfere com o que você criou. Você apenas insere algo bem fundamental e deixa a coisa evoluir – exatamente como nosso universo.

Outros comentaristas observaram que essa conceitualização é semelhante ao teísmo, a ideia de que “deus” foi a causa primeira que colocou o universo em movimento, mas não interferiu nele depois. Da simplicidade dessas leis da física emergem processos complexos que parecem ter continuado a crescer e evoluir à medida que o universo envelhece.

Argumentos Contra a Hipótese da Simulação

A física teórica Sabine Hossenfelder, da Goethe University Frankfurt, está no grupo que acredita que a hipótese da simulação é simplesmente uma bobagem. Hossenfelder também tem problemas com a natureza do argumento e a maneira como a teoria é apresentada. Ela diz:

Proclamar que ‘o supremo programador fez’ não apenas não explica nada; isso nos remete de volta à era da mitologia. A hipótese da simulação me incomoda porque se intromete no terreno dos físicos. É uma afirmação ousada sobre as leis da natureza que, no entanto, não se submete ao que sabemos sobre as leis da natureza.

Hossenfelder acredita que há uma maneira trivial de dizer que o argumento da simulação está, sim, correto:

“Você poderia simplesmente interpretar as teorias atualmente aceitas como significando que nosso universo ‘calcula’ as leis da natureza. Logo, é tautologicamente verdade que vivemos em uma simulação de computador. É também uma afirmação totalmente sem consequência.”

Saindo do reino da lógica linguística e entrando na matemática e nos fundamentos da física, Hossenfelder continua a explicar que um universo quântico como o nosso não pode ser construído com bits clássicos. É também preciso levar em consideração a relatividade especial, que ninguém que tenha testado qualquer tipo de hipótese experimental foi capaz de contornar.

Impossível Distinguir um Universo Simulado

Lisa Randall, uma física teórica da Universidade de Harvard, se diz perplexa em saber o quanto este tópico é levado a sério. Sua lógica opera sob a premissa de que essa ideia nunca poderá ser testada cientificamente e é apenas uma mera armadilha linguística para os cientistas.

“Na verdade, estou muito interessada em saber por que tantas pessoas acham que essa é uma questão interessante”, diz ela sobre o assunto.

Sua previsão é que as chances de que o argumento esteja correto são efetivamente zero. Não há nenhuma evidência concebível de que estamos vivendo em uma simulação. Isso funciona em paralelo com o conceito ancestral de um deus criador. A única diferença é que, na simulação, um sistema computacional assume o lugar do antigo arquiteto, Jeová.

Para realmente distinguir uma simulação, é preciso detectar claramente uma quebra na nossa noção das leis da física ou em algumas das propriedades fundamentais subjacentes. Para simular o universo, você precisa do poder computacional do universo inteiro.