Ômicron: a Vacina que não Soubemos Fazer?

A medida que a Ômicron avança, eu começo a ver argumentos surpreendentes (e um pouco perturbadores) sobre como proceder daqui em diante em face da… epidemia?

Imagem: Pexels

O fluxo de informação na genética é muito mais complexo do que pode parecer em uma análise superficial, um ponto ilustrado de forma travessa por um pequeno factóide: pesquisadores descobriram que, cortando a cabeça e a cauda de um verme e aplicando uma corrente elétrica – o que interrompe o fluxo de informações no crescimento celular – você pode obter um verme com cabeça em ambas as extremidades. Se você cortar esse novo verme ao meio, você terá dois novos vermes de duas cabeças, mesmo que tenham exatamente o mesmo DNA do verme original de uma cabeça.

Tudo isso demonstra que há algo mais do que o DNA se escondendo nas leis da genética. É a chamada epigenética. Na biologia, a epigenética é o estudo das mudanças hereditárias do fenótipo que não envolvem alterações na sequência de DNA.

A evolução leva tempo, mas é brutal em sua seletividade. O indivíduo de uma espécie, seja qual for, dos humanos aos vírus, sempre surge como um “ponto ideal” entre variáveis independentes e caóticas. Tanto a otimização excessiva quanto a sub-otimização são prejudiciais a esses sistemas compostos de partes menores, embora cada parte tenha otimizações diferentes e pareça surgir de fundamentos muito básicos através do caminho da “complexidade”.

Como sabemos, a maioria dos sistemas biológicos podem, acima de um certo nível de complexidade, copiar a si mesmos. Qualquer erro nesse processo de cópia – se não for corrigido – vai resultar em uma variante genética. Se essa mudança aleatória causar um aumento marginal na longevidade ou na capacidade de reprodução do indivíduo, ela será favorecida e passada adiante. Daí a noção de “evolução” ser fundamental para o que acontece nas mutações genéticas.

O resultado é sempre uma especialização que dá vantagem ao organismo que, por isso, acaba se tornando predominante. Até que a mutação se torne menos vantajosa ou outra variante ganhe uma vantagem diferente.

Podemos ver isso em ação em “tempo real” atualmente com as variantes do SarsCov: a Delta foi substituída pela Ômicron, que por sua vez está sendo substituída por outra variante da Ômicron. No final do atual processo, portanto, presume-se que um sistema simbiótico eficaz se desenvolverá e o SarsCov2 se tornará, como os outros vírus Corona que infectam humanos [como o resfriado comum], um oportunista de fundo.

Os jovens vão contaminar todo o mundo

Então, o resumo de tudo é que, vendo o desenrolar dos fatos, em minha situação eu tenho pouca escolha. Vou me infectar, assim como todos os outros que não vivem em uma bolha isolada.

Na verdade, minhas escolhas se limitam a:

  • 1. Continuar empurrando a pedra ladeira acima – que no fim vai acabar rolando de volta.
  • 2. Facilitar o contágio inevitável – relativamente benigno para uma pessoa totalmente vacinada.

Tão pouca escolha se torna uma escolha real. Os itens 1 e 2 se traduzem da seguinte forma:

  • 1. Viver em uma bolha que eventualmente irá estourar, sabendo que a cada dia que passa minha imunidade está diminuindo. Então, quanto mais eu evitar, pior será nos meses à frente. Poderá ainda haver uma variante consideravelmente mais patogênica.
  • 2. Aceitar o inevitável, enquanto eu ainda tenho alguma proteção vacinal – e a variante atual é relativamente benigna para uma pessoa com esquema vacinal completo.

A Dinamarca suspendeu todas as restrições com base no que parece ser uma evidência científica sensata. Somam-se a isso profissionais de saúde com expertise na área dizendo, a “Ômicron é a vacina que não pudemos fazer ou distribuir”.

Você tem que perguntar o que isso realmente significa, não apenas em um nível social, mas individual.

Sem escolha

Nenhuma ação que as pessoas tomem é isenta de riscos – mesmo ficar na cama tem riscos significativos para a saúde. Assim, surge a questão não apenas do “risco comparado”, mas também do “risco nominal”.

No momento tenho alguma imunidade da vacina, mas isso está diminuindo. Essa imunidade pode não estar presente em algumas semanas, quando uma nova variante inevitavelmente surgir.

A auto-contaminação é um risco calculado que eu não assumiria em nenhuma outra circunstância. Mas está claro que os políticos querem qualquer desculpa para “abrir tudo de cambulhada”. Então a minha escolha foi removida, já há algum tempo.

Eu serei infectado, não porque eu deseje/queira, mas porque minha escolha foi tirada de mim. Evitar todos que possam estar infectados é impraticável, então em algum momento eu – provavelmente – ficarei infectado e sintomático – mas espero que não no nível que exija internação hospitalar.

Imitando o fraseado do pérfido Bolsonaro, no tocante (argh!) à patogenicidade, ela está no nível mais baixo em dois anos.

A próxima variante será menos patogênica? Eu não tenho ideia. Mas é mais provável ser mais para cima do que para baixo do que está sendo dito. Vou deixar os outros lutarem com essa questão.

O que eu sei é que minha imunidade, como a de todo mundo, está em contagem regressiva…

Lagostas, polvos e caranguejos reconhecidos como seres sencientes pela lei britânica

Com as festas de fim de ano se aproximando, e considerando que a) sou também um defensor da causa animal, e b) que comportamento animal também é ciência, achei que seria positivo postar este conteúdo no sábado que antecede o Natal. É também uma amostra peculiar do extremo zelo civilizatório dos ingleses, em oposição à barbárie e a cegueira que parecem se apossar do espírito humano neste momento da história.

Imagem: Pexels

O governo do Reino Unido oficialmente incluiu crustáceos decápodes – incluindo caranguejos, lagostas e lagostins – e moluscos cefalópodes – incluindo polvos, lulas e chocos – em seu projeto de lei de bem-estar animal (senciência). Isso significa que eles agora são reconhecidos como “seres sencientes” no Reino Unido.

A mudança vem após uma revisão independente realizada por uma equipe liderada pelo Dr. Jonathan Birch, um professor associado do Departamento de Filosofia, Lógica e Método Científico da London School of Economics. Eles analisaram mais de 300 estudos e encontraram “fortes evidências científicas de que crustáceos decápodes e moluscos cefalópodes são sencientes”.

Senciência é um conceito subjetivo que vem sendo criticado há séculos, mas geralmente se refere à capacidade de perceber conscientemente sentimentos e sensações como a dor.

Os vertebrados (animais com espinha dorsal) já estão cobertos pelo projeto de lei, mas os polvos e outros animais invertebrados tinham dificuldade em serem incluídos na proposta devido à falta de espinha dorsal. O sistema nervoso central dos invertebrados é imensamente diferente do dos vertebrados – por exemplo, os polvos têm um cérebro em forma de donut na cabeça e oito outros “minicérebros” em cada tentáculo.

Os cefalópodes podem ser incrivelmente inteligentes, capazes de comportamentos extremamente complexos, incluindo dor potencialmente física e emocional. Também há algumas evidências sólidas de que alguns crustáceos sentem dor.

Ao abrigo da Lei

Os animais foram formalmente reconhecidos como seres sencientes na lei do Reino Unido, graças ao Projeto de Lei do Bem-Estar Animal (Sentience), primeiramente apresentado no parlamento em 13 de maio.

A nova lei exige que o governo considere a sensibilidade animal nas formulações de políticas, a serem coordenadas por um novo Comitê de Sensibilidade Animal composto por especialistas da área. Isso significa que qualquer nova legislação terá que considerar que os animais são capazes de experimentar sentimentos, incluindo dor, alegria e medo.

Ao lançar o projeto de lei o ministro do Bem-Estar Animal, Lord Goldsmith, disse: “O Reino Unido sempre liderou o caminho no bem-estar animal e, agora que deixamos a UE, estamos livres para buscar os mais altos padrões de bem-estar animal de todo o mundo.

“Reconhecer formalmente que os animais são sencientes e experimentam sentimentos, da mesma forma que os humanos, é apenas o primeiro passo em nosso Plano de Ação para o Bem-Estar Animal, que transformará ainda mais a vida dos animais neste país e fortalecerá nossa posição como líder global . ”

Profissionais veterinários e organizações de bem-estar animal há muito fazem campanha para que a sensibilidade animal seja consagrada na lei do Reino Unido e para que os ministros considerem o princípio da sensibilidade animal em futuras decisões políticas.

A nota oficial do governo

Emenda ao projeto de lei de bem-estar animal (senciência) após o relatório da LSE sobre senciência de decápodes e cefalópodes.

  • Caranguejos, polvos e lagostas devem ser reconhecidos como seres sencientes na tomada de decisões de políticas governamentais
  • Crustáceos decápodes e moluscos cefalópodes serão reconhecidos no âmbito do Projeto de Lei do Bem-Estar Animal (Senciência)
  • A emenda ao projeto de lei segue os resultados da pesquisa científica da London School of Economics and Political Science (LSE) sobre a senciência de decápodes e cefalópodes
  • As práticas existentes da indústria não serão afetadas e não haverá impacto direto na captura de moluscos ou nas cozinhas dos restaurantes

O escopo do Projeto de Lei do Bem-Estar Animal (Senciência) foi ampliado hoje para reconhecer lagostas, polvos e caranguejos e todos os outros crustáceos decápodes e moluscos cefalópodes como seres sencientes.

A mudança segue as conclusões de uma revisão independente comissionada pelo governo pela Escola de Economia e Ciência Política (LSE) de Londres, que concluiu que há fortes evidências científicas de que crustáceos decápodes e moluscos cefalópodes são sencientes.

O projeto de lei de bem-estar animal (ver link acima) já reconhece todos os animais com espinha dorsal (vertebrados) como seres sencientes. No entanto, ao contrário de alguns outros invertebrados (animais sem espinha dorsal), os crustáceos e cefalópodes decápodes têm sistemas nervosos centrais complexos, que é uma das principais marcas da senciência.

O anúncio de hoje não afetará nenhuma legislação existente ou práticas da indústria, como a pesca. Não haverá impacto direto na pesca de moluscos ou na indústria de restaurantes. O objetivo é garantir que o bem-estar animal seja bem considerado em futuras tomadas de decisão.

O Ministro do Bem-Estar Animal, Lord Zac Goldsmith, disse:

O projeto de lei sobre o bem-estar animal fornece uma garantia crucial de que o bem-estar animal seja corretamente considerado no desenvolvimento de novas leis. A ciência agora está clara que decápodes e cefalópodes podem sentir dor e, portanto, é justo que eles sejam abrangidos por esta peça vital de legislação.

O projeto, quando se tornar lei, criará um Comitê de Senciência Animal formado por especialistas da área. Eles serão capazes de emitir relatórios sobre o quanto as decisões do governo levaram em consideração o bem-estar dos animais sencientes, com os Ministros sendo obrigados a responder ao Parlamento.

* * *

Por meu turno, eu gostaria que isso tivesse sido anunciado depois do meu muito aguardado recesso de fim de ano, desta feita à beira-mar. Já que os polvos e lagostas estão incluídos nessa legislação, comerei minhas lagostas com o coração pesado e degustarei minha a paella valenciana entre lágrimas sentidas. Com muito respeito, como sempre.

Tempo de Revisitar o Método Científico

Como se eu estivesse a lançar ao mar uma mensagem em uma garrafa, em um esforço patético, desesperado, para salvar um pedaço precioso do conhecimento humano da sanha dos bárbaros. Assim me sinto em 2021 ao teclar esta peça.

Imagem: Pexels

Estupefato [e, francamente, um tanto abalado na cidadania] depois de testemunhar o [e sobreviver ao] assalto à razão perpetrado nos últimos quase dois anos pelo governo e parte dos brasileiros, me ponho a divagar sobre o que explicaria tamanho desprezo dos patrícios à lógica [além da ética] e à razão, durante a desditosa pandemia.

Eu pessoalmente suspeito que o motivo seja um item [ou mais] da lista abaixo:

  • A maioria das pessoas não conhece a ciência, e mesmo quando sabem “sobre” a ciência, muitas vezes têm a impressão errada dela.
  • Eles usam a palavra “coronavírus” como se houvesse apenas uma variante. Não estão cientes que um vírus que pode sofrer mutações facilmente.
  • Eles não conhecem o sistema de “revisão pelos pares”, e têm medo de que os cientistas estejam mentindo para eles.
  • Eles dizem a si mesmos que é o Sol que está tornando a Terra mais quente, “porque isso é óbvio”.
  • Eles não querem conhecer a ciência, porque sabem que isso significa ler, estudar, e todas as dificuldades envolvidas em aprender qualquer coisa nova. Mas não gostam da implicação de que as pessoas educadas “sabem mais do que eles” sobre qualquer coisa.
  • Eles não querem aceitar a ciência, porque são profundamente supersticiosos e/ou porque eles têm fé em algo que eles acham que a ciência contradiz.

Quaisquer que sejam as inclinações deste nosso fantástico povo, eu tento resgatar um pouco da sanidade perdida, senão para benefício do ambiente geral, pelo menos para mim mesmo. Como uma litania, textos como este se repetem pela internet afora aos milhares [embora raramente em português]. Mas, não importando quantas vezes já tenha sido repetido, o tema ganha aqui hoje a minha muito necessária versão pessoal.

O que é o método científico?

O método científico é um processo de investigação usado para explorar observações e responder perguntas. Isso não significa que todos os cientistas sigam exatamente o mesmo processo. Algumas áreas da ciência podem ser testadas mais facilmente do que outras. Por exemplo, os cientistas que estudam a evolução das estrelas ou a fisiologia dos dinossauros não podem acelerar a vida de uma estrela em um milhão de anos ou fazer exames médicos nos dinossauros para testar suas hipóteses.

Quando a experimentação direta não é possível, os cientistas adaptam o método científico, dentro dos limites da lógica. Essa plasticidade permite quase tantas versões do método científico quanto existem cientistas. Mas mesmo quando modificado, o objetivo do método permanece o mesmo: descobrir relações de causa e efeito fazendo perguntas, reunindo e examinando cuidadosamente as evidências e verificando se todas as informações disponíveis podem ser combinadas em uma resposta lógica.

Quem inventou o método científico?

O método científico não foi inventado por nenhuma pessoa, mas é o resultado de séculos de debate sobre a melhor forma de descobrir como o mundo natural funciona. O antigo filósofo grego Aristóteles foi um dos primeiros a promover a noção de que a observação e o raciocínio lógico são os instrumentos mais adequados para desvendar o funcionamento da natureza. O matemático árabe Hasan Ibn al-Haytham é frequentemente citado como a primeira pessoa a escrever sobre a importância da experimentação. Assim, temos, através do legado desses filósofos, os princípios científicos basilares da observação, do raciocínio lógico e da experimentação.

Desde então, um grande número de filósofos/cientistas escreveu sobre como a ciência deveria idealmente ser conduzida. Entre eles os eminentes Roger Bacon, Tomás de Aquino, Galileu Galilei, Francis Bacon, René Descartes, Isaac Newton, John Hume e John Stuart Mill. Os cientistas hoje continuam a evoluir e refinar o método científico à medida que exploram novas técnicas e novas áreas da ciência.

Os cientistas realmente usam o método científico?

Os cientistas sempre usam o método científico, mas nem sempre exatamente conforme estabelecido nas etapas ensinadas em sala de aula. Assim como um chef pode fazer algumas alterações em uma receita para se adaptar aos ingredientes disponíveis, um cientista igualmente pode adaptar o método científico alternando etapas, saltando para frente e para trás entre as etapas ou repetindo um subconjunto das etapas – porque ele ou ela está lidando com as condições imperfeitas do mundo real.

Mas é importante salientar que os cientistas sempre se esforçam para manter os princípios básicos do método científico usando observações, experimentos e dados, para confirmar ou rejeitar explicações de como um fenômeno funciona.

O método científico: etapas e exemplos

Mesmo que o método científico se apresente como uma série progressiva de etapas, é preciso ter em mente que novas informações ou pensamentos sobre o problema em foco podem obrigar o pesquisador a recuar e repetir as etapas a qualquer momento durante o processo. Um processo como o método científico que envolve backup e repetição é chamado de processo iterativo.

Esteja você desenvolvendo um projeto de feira de ciências, uma atividade científica em sala de aula, uma pesquisa independente ou qualquer outra investigação científica prática, a compreensão das etapas do método científico o ajudará a focar sua pergunta e trabalhar usando as observações e os dados objetivos, para responder à hipótese da maneira mais rigorosa possível.

Fluxograma do método científico

O Método Científico começa com uma pergunta. Uma pesquisa de base é então conduzida para tentar responder a essa pergunta. Se você deseja encontrar evidências para uma resposta à questão, você elabora uma hipótese e testa essa hipótese em um experimento. Se o experimento funcionar e os dados forem analisados, você pode provar ou refutar sua hipótese. Se sua hipótese for refutada, você pode voltar com as novas informações obtidas e criar uma nova hipótese para reiniciar o processo científico. – Diagrama: Vox Leone

Etapas do Método Científico

  1. Fazer uma pergunta

O método científico começa quando o pesquisador [que pode ser qualquer pessoa que busque a verdade, independente de sua escolaridade] faz uma pergunta sobre algo que observa:

Ex: Será que a Cloroquina funciona contra a COVID-19?

  1. Pesquisa de base

Em vez de começar do zero, o cientista rigoroso elabora um plano para responder à sua pergunta, e usa bibliotecas, pesquisas em campo e na Internet para se aprofundar no conhecimento do domínio em estudo.

  1. Elaborar uma hipótese

Uma hipótese é um palpite sobre como as coisas funcionam. É uma tentativa de responder à pergunta original com uma afirmação que pode ser testada. A hipótese deve ser declarada junto com a previsão resultante:

Ex: Se Alice tomar Cloroquina ela não vai se infectar com COVID-19.

  1. Testar a hipótese fazendo um experimento

O experimento então testa se a previsão é precisa e, portanto, se a hipótese é suportada ou não. O experimento científico obedece a um método próprio, para garantir condições controladas – para que seja um teste justo. Em um teste justo o pesquisador certifica-se de alterar apenas um fator de cada vez, mantendo todas as outras condições iguais.

É normal um estudo repetir os experimentos várias vezes para ter certeza de que os primeiros resultados não foram acidentais.

Ex: Tratar um grupo de 100 pacientes com Cloroquina e um outro grupo de controle de 100 pacientes com um medicamento inócuo [placebo].

  1. Análise dos dados e conclusão

Uma vez que o experimento esteja completo, o pesquisador coleta suas medições e as analisa para ver se elas confirmam a hipótese ou não.

Ex: de 100 pacientes tratados com Cloroquina, 90 foram infectados com COVID-19. O número de infectados foi igual no grupo de controle, que tomou placebo. Conclui-se que a hipótese de que a Cloroquina evita a infecção por COVID-19 é FALSA.

Em suas atividades diárias os cientistas profissionais rotineiramente concluem – às vezes com decepção – que suas previsões não foram precisas e suas hipóteses não foram confirmadas. Mesmo decepcionados eles comunicarão os resultados negativos de seu experimento. Em seguida, voltarão a elaborar uma nova hipótese com base nas novas informações que aprenderam durante o experimento. Isso inicia uma nova iteração do processo do método científico.

  1. Comunicação dos resultados

Para concluir o estudo o pesquisador comunicará seus resultados a outras pessoas em um relatório final. Cientistas profissionais em geral publicam seu relatório final em uma revista científica ou apresentam seus resultados em um pôster ou em uma palestra em um encontro científico.

Em suma, a verdade científica revelada pelo método é a correspondência com a realidade objetiva. As hipóteses podem ou não corresponder à realidade. Quando uma hipótese corresponde à realidade, ela é confirmada como verdadeira. Quando uma hipótese descreve uma realidade diferente do que ela propõe, essa hipótese é falsa. A maneira como descobrimos se uma dada crença é verdadeira ou falsa é através do uso das evidências empíricas e lógicas requeridas pelo método científico.


Referências:

Karl Popper: Conjectures and Refutations
https://www.academia.edu/38681885/Karl_Popper_Conjectures_and_Refutations

What Is Empirical Testing?
http://www.strevens.org/research/episteme/Empirica.pdf

Democracy of Incomplete Victories: State, Civil Society, and the Scientific Method
https://philpapers.org/archive/KASDOI.pdf

O Futuro da AI é Luminoso (e analógico)

Para concluir a Rápida Introdução à ‘Inteligência Artificial’, publico o post complementar, para apresentar o inovador chip ótico [ainda sem nome comercial] da start-up Lightmatter, contendo o chamado interferômetro Mach-Zehnderque, que promete elevar a computação de sistemas de aprendizagem de máquinas a um novo patamar.

Imagem: iStock

O aprendizado de máquina profundo, ou seja, redes neurais artificiais com muitas camadas ocultas, sempre nos fascina com soluções inovadoras para problemas do mundo real, cada vez em mais áreas, incluindo processamento de linguagem natural, detecção de fraude, reconhecimento de imagem e direção autônoma. As redes neurais ficam melhores a cada dia.

Mas esses avanços têm um preço enorme nos recursos de computação e no consumo de energia. Portanto, não é de se admirar que engenheiros e cientistas da computação estejam fazendo grandes esforços para descobrir maneiras de treinar e operar redes neurais profundas com mais eficiência.

Uma nova e ambiciosa estratégia que está fazendo o ‘début’ este ano é executar a computação de redes neurais usando fótons em vez de elétrons. A Lightmatter começará a comercializar no final deste ano seu chip acelerador de rede neural que calcula com luz. Será um refinamento do protótipo do chip Mars que a empresa exibiu em agosto passado.

O protótipo MARS, instalado em uma placa

Embora o desenvolvimento de um acelerador ótico comercial para aprendizado profundo seja uma conquista notável, a ideia geral de ‘computação com luz’ não é nova. Os engenheiros empregavam regularmente essa tática nas décadas de 1960 e 1970, quando os computadores digitais eletrônicos ainda não tinham capacidade para realizar cálculos complexos. Assim, os dados eram processados no domínio analógico, usando luz.

Em virtude dos ganhos da Lei de Moore na eletrônica digital, a computação óptica nunca realmente pegou, apesar da ascensão da luz [fibras óticas] como veículo para comunicação de dados. Mas tudo isso pode estar prestes a mudar: a Lei de Moore, que durante décadas proporcionou aumentos exponenciais na capacidade dos chips eletrônicos, mostra sinais de estar chegando ao fim, ao mesmo tempo em que as demandas da computação de aprendizado profundo estão explodindo.

Não há muitas escolhas para lidar com esse problema. Pesquisadores de aprendizagem profunda podem até desenvolver algoritmos mais eficientes, mas é difícil prever se esses ganhos serão suficientes. Essa é a razão da Lightmatter estar empenhada em “desenvolver uma nova tecnologia de computação que não dependa do transistor”.

Fundamentos

O componente fundamental no chip Lightmatter é um interferômetro Mach-Zehnder. Esse dispositivo ótico foi inventado em conjunto por Ludwig Mach e Ludwig Zehnder na década de 1890. Mas só recentemente esses dispositivos óticos foram miniaturizados a ponto de um grande número deles poder ser integrado em um chip e usado para realizar as multiplicações de matrizes envolvidas nos cálculos de rede neural.

O interferômetro Mach-Zehnder é um dispositivo usado para determinar as variações relativas de deslocamento de fase entre dois feixes colimados derivados da divisão da luz de uma única fonte. É um dispositivo particularmente simples para demonstrar interferência por divisão de amplitude. Um feixe de luz é primeiro dividido em duas partes por um divisor de feixe e, em seguida, recombinado por um segundo divisor de feixe. Dependendo da fase relativa adquirida pelo feixe ao longo dos dois caminhos, o segundo divisor de feixe refletirá o feixe com eficiência entre 0 e 100%. – Gráfico: Vox Leone – Uso Permitido

Esses feitos só se tornaram possíveis nos últimos anos devido ao amadurecimento do ecossistema de manufatura de fotônica integrada, necessário para fazer chips fotônicos para comunicações.

O processamento de sinais analógicos transportados pela luz reduz os custos de energia e aumenta a velocidade dos cálculos, mas a precisão pode não corresponder ao que é possível no domínio digital. O sistema é 8-bits-equivalente. Isso por enquanto mantém o chip restrito a cálculos de inferência de rede neural – aqueles que são realizados depois que a rede foi treinada.

Os desenvolvedores do sistema esperam que sua tecnologia possa um dia ser aplicada também ao treinamento de redes neurais. O treinamento exige mais precisão do que o processador ótico pode fornecer nesta etapa.

A Lightmatter não está sozinha em busca da luz para cálculos de redes neurais. Outras startups que trabalham nesta linha são Fathom Computing, LightIntelligence, LightOn, Luminous e Optalysis.

A Luminous espera desenvolver sistemas práticos em algum momento entre 2022 e 2025. Portanto, ainda teremos que esperar alguns anos para ver como essa abordagem vai evoluir. Mas muitos estão entusiasmados com as perspectivas, incluindo Bill Gates, um dos maiores investidores da empresa.

Uma coisa é clara: os recursos de computação dedicados aos sistemas de inteligência artificial não podem continuar a crescer sustentavelmente na taxa atual, dobrando a cada três ou quatro meses. Os engenheiros estão ansiosos para utilizar a fotônica integrada para enfrentar esse desafio de construir uma nova classe de máquinas de computação drasticamente diferentes daquelas baseadas nos chips eletrônicos convencionais, que agora se tornam viáveis para fabricação. São dispositivos que no passado recente só podiam ser imaginados.

Uma (muito) Rápida Introdução à ‘Inteligência Artificial’

O poder de computação ao alcance das pessoas começou a crescer rapidamente, aos trancos e barrancos, na virada do milênio, quando as unidades de processamento gráfico (GPUs) começaram a ser aproveitadas para cálculos não gráficos, uma tendência que se tornou cada vez mais difundida na última década. Mas as demandas da computação de “Aprendizado Profundo” [Deep Learning] têm aumentado ainda mais rápido. Essa dinâmica estimulou os engenheiros a desenvolver aceleradores de hardware voltados especificamente para o aprendizado profundo [o que se conhece popularmente como ‘Inteligência Artificial’], sendo a Unidade de Processamento de Tensor (TPU) do Google um excelente exemplo.

Ainda não temos uma Teoria da Mente, que possa nos dar uma base para a construção de uma verdadeira inteligência senciente. Aqui a distinção entre as disciplinas que formam o campo da Inteligência Artificial

Aqui, descreverei resumidamente o processo geral do aprendizado de máquina, introduzindo uma abordagem muito diferente para este problema – o uso de processadores óticos para realizar a computação de uma rede neural com fótons em vez de elétrons, que será objeto do próximo post. Para entender como a ótica pode impulsionar este campo, precisamos saber um pouco sobre como os computadores executam cálculos de redes neurais.

Visão geral

Quase invariavelmente, os neurônios artificiais são ‘construídos’ [na verdade eles são virtuais] usando um software especial executado em algum tipo de computador eletrônico digital.

Esse software fornece a um determinado neurônio da rede várias entradas e uma saída. O estado de cada neurônio depende da soma ponderada de suas entradas, à qual uma função não linear, chamada função de ativação, é aplicada. O resultado, a saída desse neurônio, torna-se então uma entrada para vários outros neurônios, em um processo em cascata.

As camadas de neurônios interagem entre si. Cada círculo representa um neurônio, em uma visão muito esquemática. À esquerda (em amarelo) a camada de entrada. Ao centro, em azul e verde, as camadas ocultas, que refinam os dados, aplicando pesos variados a cada neurônio. À direita, em vermelho, a camada de saída, com o resultado final.

Por questões de eficiência computacional, esses neurônios são agrupados em camadas, com neurônios conectados apenas a neurônios em camadas adjacentes. A vantagem de organizar as coisas dessa maneira, ao invés de permitir conexões entre quaisquer dois neurônios, é que isso permite que certos truques matemáticos de álgebra linear sejam usados ​​para acelerar os cálculos.

Embora os cálculos de álgebra linear não sejam toda a história, eles são a parte mais exigente do aprendizado profundo em termos de computação, principalmente à medida que o tamanho das redes aumenta. Isso é verdadeiro para ambas as fases do aprendizado de máquina:

  • O treinamento – processo de determinar quais pesos aplicar às entradas de cada neurônio.
  • A inferência – processo deflagrado quando a rede neural está fornecendo os resultados desejados.
Concepção do processo de treinamento de máquina, dos dados brutos, à esquerda, ao modelo completo.

Matrizes

O que são esses misteriosos cálculos de álgebra linear? Na verdade eles não são tão complicados. Eles envolvem operações com matrizes, que são apenas arranjos retangulares de números – planilhas, se preferir, menos os cabeçalhos de coluna descritivos que você encontra em um arquivo Excel típico.

É bom que as coisas sejam assim, porque o hardware de um computador moderno é otimizado exatamente para operações com matriz, que sempre foram o pão com manteiga da computação de alto desempenho – muito antes de o aprendizado de máquina se tornar popular. Os cálculos matriciais relevantes para o aprendizado profundo se resumem essencialmente a um grande número de operações de multiplicação e acumulação, em que pares de números são multiplicados entre si e seus produtos somados.

Ao longo dos anos, o aprendizado profundo foi exigindo um número cada vez maior dessas operações de multiplicação e acumulação. Considere LeNet, uma rede neural pioneira, projetada para fazer classificação de imagens. Em 1998, demonstrou superar o desempenho de outras técnicas de máquina para reconhecer letras e numerais manuscritos. Mas em 2012 o AlexNet, uma rede neural que processava cerca de 1.600 vezes mais operações de multiplicação e acumulação do que o LeNet, foi capaz de reconhecer milhares de diferentes tipos de objetos em imagens.

Gráfico tridimensional ilustrando o processo de inferência, partindo de dados brutos dispersos (embaixo à direita) até o refinamento final (após muitas iterações de inferência), onde o resultado (ou predição) é obtido.

Aliviar a pegada de CO2

Avançar do sucesso inicial do LeNet para o AlexNet exigiu quase 11 duplicações do desempenho de computação. Durante os 14 anos que se passaram, a lei de Moore ditava grande parte desse aumento. O desafio tem sido manter essa tendência agora que a lei de Moore dá sinais de que está perdendo força. A solução de sempre é simplesmente injetar mais recursos – tempo, dinheiro e energia – no problema.

Como resultado, o treinamento das grandes redes neurais tem deixado uma pegada ambiental significativa. Um estudo de 2019 descobriu, por exemplo, que o treinamento de um determinado tipo de rede neural profunda para o processamento de linguagem natural emite cinco vezes mais CO2 do que um automóvel durante toda a sua vida útil.

Os aprimoramentos nos computadores eletrônicos digitais com certeza permitiram que o aprendizado profundo florescesse. Mas isso não significa que a única maneira de realizar cálculos de redes neurais seja necessariamente através dessas máquinas. Décadas atrás, quando os computadores digitais ainda eram relativamente primitivos, os engenheiros lidavam com cálculos difíceis como esses usando computadores analógicos.

À medida que a eletrônica digital evoluiu, esses computadores analógicos foram sendo deixados de lado. Mas pode ser hora de seguir essa estratégia mais uma vez, em particular nestes tempos em que cálculos analógicos podem ser feitos oticamente de forma natural.

No próximo post vou trazer o mais recente desenvolvimento em fotônica aplicada ao aprendizado de máquina – em uma arquitetura analógica! Estamos, sem dúvida, vivendo tempos interessantes neste campo promissor.

Fonte de pesquisa: spectrum.ieee.org