ChatGPT, o Grande Ceifador de Carreiras

Eu ainda não experimentei o aterrorizante ChatGPT, que dominou a pauta da mídia tecnológica nos últimos dias – e por um bom motivo.

Imagem: pexels.com

Tenho comentado sobre outros desenvolvimentos igualmente notáveis no campo da pesquisa de redes neurais, tentando acompanhar a sucessão de anúncios de implementações cada vez mais sofisticadas. Contudo, o ChaGPT supera qualquer tecnologia de inteligência artificial discutida aqui por uma ampla margem, com seu enorme potencial para desagregar a sociedade como a conhecemos.

Experimentos

Talvez do interesse de alguns leitores do blog. Um amigo que trabalha em um grupo de desenvolvedores de software excepcionalmente brilhantes e talentosos (chamarei de “Grupo”), me contou que passou algum tempo fazendo experimentos com o ChatGPT (chamarei de “Bot”).

Caso A

Eles pré-selecionaram um determinado grupo de candidatos a emprego em sua empresa com uma série de desafios de programação. Isso é procedimento padrão em empresas de tecnologia nos EUA, onde os experimentos aconteceram.

Bot passou nos testes com honras. Concluíram que a menos que haja um temporizador de digitação no sistema, não é possível distinguir os candidatos humanos dos bots.

Claro, alguém já deve ter um simulador de digitação humana para camuflar o copiar-colar do Bot.

Caso B

O empregador do Grupo tem uma equipe de desenvolvedores dedicada à manutenção de software legado, ou mesmo “morto”. O Grupo alimentou o Bot com módulos reais de algumas aplicações da empresa, configurando os prompts para certas ações literais (“modificar para…”) a serem executadas nos códigos de baixo desempenho.

O Bot executou atualizações do software e fez correções nas falhas.

Caso C

Alguém do Grupo solicitou ao Bot o código de uma função para realizar uma determinada computação. Embora a função necessária não seja muito complexa, ela requer um conhecimento altamente específico do domínio.

Depois de várias tentativas, o Grupo conseguiu que o Bot escrevesse a função correta, usando prompts apenas para orientação, sem revelar à máquina o necessário saber para escrever a função.


A opinião do meu amigo é que, para muitas tarefas básicas na codificação de software, pedir ao Bot para escrever uma função para um humano depois corrigi-la ou ampliá-la conforme necessário vai, em breve, fazer parte de qualquer processo eficiente de desenvolvimento de software — e será inevitavelmente incorporada ao fluxo de trabalho de praticamente todas as atividades do setor de serviços.

Separadamente, meu amigo gosta de escrever ficção. Ele deu ao Bot uma passagem, pedindo-lhe que a reescrevesse “no estilo de” vários autores publicados.

Depois de completada a tarefa, ele olhou para as versões e julgou que algumas das mudanças melhoraram o fluxo ou a expressividade do texto de uma forma que ele mesmo não havia considerado.

Ele descreve o Bot como “uma tecnologia altamente disruptiva”. “Se pensarmos que isso não vai mudar – ou até extinguir – nossas carreiras, podemos nos surpreender.”

Se você pode ler isto, você é a Resistência

De agora em diante, temos que tratar tudo o que vemos na Internet como potencial lixo de IA. A galeria de fotos de um artista? A resposta que parece perfeita no StackOverflow? Aquele artigo inspirador no jornal? Aquele videozinho viral? O livro na Amazon? Eles são todos lixo de IA em potencial. Lixo fascinante, mas lixo mesmo assim.

A invasão dos robôs começou há 15 anos, na maior parte despercebida. Estávamos esperando robôs assassinos, mas não percebemos que lentamente afogávamos em lixo midiático gerado por IA. Nunca lutaremos contra Exterminadores usando laser. Em vez disso, nos sujeitamos diariamente a algoritmos que nos tornam estúpidos o suficiente para lutar uns contra os outros.

Talvez seja a hora de entrar para a resistência; de ser e agir como seres humanos decentes. Desconectar. Ir para fora. Iniciar discussões humanas. Recusar a tomar como certo “o que foi postado na Internet”. Encontrar pessoas. Toque. Cheiro. Construir negócios locais. Fugir dos monopólios. Recusar-se a compartilhar por impulso. Parar de chamar perfis de desconhecidos “comunidade”. Juntar-se a web rings e à blogosfera humana – enquanto ainda se pode distinguir. Acho.

Como reconhecer verdadeiras comunidades humanas livres de interferências algorítmicas?

Não sei. Eu nem sei se sobrou alguma. Isso é assustador. Mas, enquanto pudermos desligar o plugue, podemos resistir. Desconectar!

O Fantasma na Máquina Inteligente

O mundo moderno usa o termo “robô” para se referir a dispositivos eletromecânicos que executam trabalhos anteriormente realizados por humanos; a origem do termo é a palavra checa robotnik.

Imagem: Pexels

Segundo o site etymonline.com robotnik significa, “pessoa mecânica”; também “pessoa cujo trabalho ou atividades são inteiramente mecânicos”, da tradução inglesa da peça “R.U.R.” de 1920 (“Robôs Universais da Rossum”) de Karel Capek (1890-1938); “trabalhador forçado”, de robota “trabalho forçado, serviço obrigatório, labuta”.

Há um certo consenso acadêmico de que a abolição do trabalho servil foi o que deu início à mecanização; que o principal efeito da emancipação do campesinato foi possibilitar a industrialização da lavoura: “Os grandes latifúndios, livres do servo ineficiente, poderiam ser conduzidos de forma mais econômica. Os arados a vapor da Hungria, uma característica marcante do final do século XIX na Europa continental, foram o resultado da emancipação camponesa”[0].

E essas inovações eram todas subprodutos do mesmo frenesi de criatividade. Em 1745 de Vaucanson inventou, entre outras coisas, o primeiro tear automatizado: um desenvolvimento que mais tarde desempenharia um papel crucial na mecanização das formas de trabalho que antes eram exclusivas de humanos.

Trabalho, trabalho e trabalho

E o que deveria nos preocupar é menos se as máquinas se tornarão sencientes, mas quais serão os efeitos de uma mecanização cada vez maior sobre os humanos.

Marx [é impossível falar de trabalho sem citar Marx, sorry] observa em O Capital (1867) que “A história não revela nenhuma tragédia mais horrível do que a extinção gradual dos tecelões artesanais ingleses”. No mesmo espírito, para termos um vislumbre do que os avanços na robótica humanoide prometem para nossas vidas, considere “Quinn“.

Quinn é um conceito [ainda primitivo] de um robô de atendimento ao cliente: em vez de pagar salários a vários humanos, um hoteleiro, por exemplo, pode instalar um Quinn nos balcões de toda sua cadeia, supervisionado por apenas um par de operadores remotos, capazes de intervir se uma consulta se tornar muito complexa para a máquina.

Mais abaixo na escala, as onipresentes máquinas de self-checkout são efetivamente dispositivos como o Quinn, só que mais insuspeitos, que transferem o fardo de fazer sentido para o cliente e a solução dos problemas operacionais para uma equipe de supervisores. E esse deslocamento da habilidade e da inteligência humana, por sua vez, reorganiza o trabalho humano para atender as prioridades da máquina.

Marx [sorry, again] descreveu a maneira como as linhas de montagem das fábricas obrigavam os trabalhadores humanos a adaptar seus movimentos, velocidade de trabalho e comportamento às demandas da máquina, em vez de empregar as ferramentas de trabalho de acordo com um padrão de movimento humano. O mesmo vale para todas as ondas de automação subsequentes, incluindo a atual.

O Turco Mecânico

Em 1770, a Imperatriz Habsburgo Maria Teresa e sua corte ficaram maravilhados com um verdadeiro prodígio da engenharia moderna: uma máquina humanoide capaz de derrotar um oponente humano no xadrez.

O dispositivo consistia em uma figura em tamanho natural, vestida no estilo “oriental” e sentada em frente a um tabuleiro de xadrez. Quando derrotou vários adversários na corte, foi uma sensação: amplamente conhecido como o “Turco Mecânico”, percorreu a França, a Grã-Bretanha e os Estados Unidos, durante os quais disputou muitos jogos, inclusive contra Napoleão e Benjamin Franklin.

O Turco Mecânico – Imagem: Domínio Público

O único problema: o Turco Mecânico era falso. Embora a complexidade da farsa fosse em si um feito de engenharia notável, a inteligência do jogo de xadrez era fornecida por um humano habilmente escondido dentro da “máquina”.

No século 21, o Turco Mecânico dá nome a uma plataforma online [“Mechanical Turk” ] cujo produto é tornar o trabalho repetitivo e monótono de rotulação de dados no treinamento de sistemas inteligentes acessível para qualquer pequeno negócio, através da terceirização da atividade para trabalhadores remotos, que recebem tão pouco quanto US$ 0,97 por hora. Cortesia da Amazon.

Encontramos muitos desses “fantasmas humanos na Máquina Inteligente”: por exemplo, os trabalhadores de atendimento da Amazon, ‘otimizados’ pela vigilância algorítmica até o ponto de ruptura (e fazendo xixi em garrafas, como se tornou notório); ou os moderadores de conteúdo das redes sociais, se virando na gig-economy e lutando com o trauma provocado pelas coisas horríveis com as quais eles lidam em seu trabalho.

E existem até mesmo humanos, escondidos na IA tão desconfortavelmente quanto o operador oculto do Turco Mecânico, cujo papel é compensar o deficit na “inteligência” muda das máquinas. Veja, por exemplo, as pessoas contratadas para se passar por chatbots em empresas que querem parecer ultrassofisticadas.

Quero falar com um humano

A convergência entre humano e máquina, por sua vez, torna a humanidade real um luxo. Assim como a tecelagem mecânica tornou os tecidos baratos, os tecidos feitos à mão agora são extremamente caros – assim como qualquer coisa criada à mão com habilidade artesanal genuína. Da mesma forma, como o setor de hospitalidade se automatizou e despersonalizou durante a epidemia da Covid, as viagens “sem contato” tornaram o contato humano um extra premium – porque o que as pessoas realmente querem é conversar com um humano. Um canal da indústria hoteleira descreve a assistência humana hoje como um diferencial, “a marca registrada de uma viagem de luxo”.

Portanto, não importa se existem autômatos capazes de reproduzir fielmente o aspecto humano. Os que são lançados na economia de escala não se preocupam em buscar a verossimilhança, e são estes os que estão a transformar mais radicalmente nossas vidas.

Enquanto nos maravilhamos (ou estremecemos) com os simulacros quase perfeitos que chegam quase a convencer [ver uncanny valley] e toleramos entorpecidos os que não convencem, cada avanço na robótica reordena outra onda de trabalho humano às prioridades da máquina. E cada vez que o fazem, outra faceta do calor humano, inteligência e habilidade torna-se um extra premium, para os poucos sortudos.

Penso, logo existo

E o que deveria nos preocupar é menos se as máquinas se tornarão sencientes, mas quais serão os efeitos de uma mecanização cada vez maior sobre os humanos.

O avô do argumento de que a senciência humana é gerada a partir de processos fundamentalmente diferentes dos algorítmicos, ou mesmo de qualquer física atualmente compreendida, é nosso mais eminente matemático/físico e vencedor do Prêmio Nobel, Sir Roger Penrose. Noto aqui que os contra-argumentos penrosianos exigem um mergulho nos teoremas da incompletude de Gödel e na natureza do Problema da Parada na computação.

E nesta área não há lugar melhor para se pesquisar do que nos livros sedutoramente bem escritos de Roger Penrose, ‘The Emperor’s New Mind’ e ‘Shadows of the Mind’. Em resumo, Penrose implica uma distinção entre consciência e inteligência. Ele afirma que a consciência não é algoritmicamente explicável — embora ele não se refira propriamente à ‘inteligência’ neste contexto.

Pessoalmente falando, pensei por décadas que a senciência humana sempre seria inatingível pela inteligência de máquina gerada por algoritmos, mas não tenho mais certezas a esse respeito. Não acho que tenhamos uma maneira real de distinguir entre a inteligência humana e a inteligência da máquina e, por extensão, não temos como afirmar que a inteligência da máquina não exibirá algumas características da senciência. .

Chomsky argumentou que os humanos nascem com um senso inerente às estruturas da linguagem. E se isso for verdade, que implicações isso tem para a capacidade das máquinas de replicar habilidades linguísticas? E como os humanos diferem das máquinas nesse aspecto? O maior problema que temos é aquele com o qual Wittgenstein também lutou – o uso e as limitações da linguagem. Como saberemos se estamos todos discutindo o mesmo assunto?


[0] – The Habsburg Monarchy 1809–1918 – AJP Taylor

‘Inteligência Artificial’ e o Futuro das Artes Digitais

Eu leio os jornais. Eu vejo o ritmo do ‘progresso’. Eu entendo como esses novos modelos de aprendizado de máquina funcionam em um nível técnico e estou impressionado com a rapidez com que eles estão se desenvolvendo.

artista-digital
Imagem: Pexels.com

Francamente, eu não espero que a arte digital feita por humanos (imagens, vídeos, filmes, música, texto) sobreviva mais uma década. O que espero é que pouca ou nenhuma arte digital seja vendida com lucro por artistas humanos daqui a dez anos, e a única razão pela qual não estendo esse raciocínio para mídias físicas como escultura ou arte de rua é que eu não sei se teremos robôs hábeis o suficiente para fazê-las – embora seja inevitável que robôs habilidosos surjam em algum momento, na duvidosa hipótese de que a civilização sobreviva.

As pessoas frequentemente vão buscar o exemplo da pintura e da fotografia para defender a ideia de que inteligência artificial (IA) não vai realmente acabar com o mercado de arte, mas eu simplesmente não vejo esse exemplo como válido. A fotografia e a pintura sobreviveram porque são fundamentalmente diferentes e podem ser facilmente distinguidas, desde que seus respectivos criadores optem por se diferenciar.

A arte da IA é diferente, porque seu propósito específico é replicar. Não importa o que os artistas humanos façam com a mídia digital, a IA sempre vai estar lá para engolir as mudanças de qualquer nova onda e aprender a replicá-las.

O advento da fotografia nunca teve a intenção de matar a indústria da pintura. Contrariamente, esses algoritmos de IA, gestados nas grandes corporações de tecnologia, têm como objetivo manifesto matar a indústria da imagem.

Sobre a Excelência na técnica

Leonardo da Vinci não apenas pegou um pincel, compôs a Mona Lisa e se proclamou mestre. Ele construiu suas habilidades como aprendiz em oficinas, fazendo obras acessórias, figuras de fundo e encomendas menores. É esse trabalho que cria a oportunidade para que obras-primas aconteçam. Se esse ambiente desaparecer, o topo da elite artística será afetado. Existe algo único no equilíbrio entre ser ousado o suficiente para se destacar da multidão, mas ao mesmo tempo acessível o suficiente para um apelo mais amplo.

No momento, os modelos de aprendizado de máquina ainda são fracos, mas já são fortes o suficiente para tirar 90% dos artistas digitais do mercado. Com o custo próximo de zero, as pessoas não vão mais reutilizar nada. Vão gerar algo novo para cada coisa que fizerem. Não tenho certeza se há algo que possa ser feito para evitar esse futuro. Penso que devemos começar reconhecer que muita coisa vai se perder nessa revolução. Também duvido que artifícios sociais como bolsas de estudo e programas de residência possam deter o avanço das máquinas simplesmente jogando dinheiro no problema.

Otimistas

Há um lado otimista nesta questão. Seus lugares-tenentes sustentam que não precisamos temer a arte da IA. Na verdade, os artistas podem até querer agradecer.

Segundo os otimistas, há muito tempo os artistas sentem uma espécie de tédio por causa da falta de um caminho claro para a inovação ou para criação de algo “novo” e inspirador. As coisas tornaram-se obsoletas e excessivamente mercantilizadas, com músicos, fotógrafos, pintores, etc. muitas vezes confessando que o que eles criam não passa de recauchutagem de ideias desgastadas – admito que qualquer artista ligado na cena vai mesmo dizer que não há mais muita arte inspiradora.

A IA essencialmente reorganiza motivos antigos de novas maneiras. É um dispositivo de permutação que mostra o estado da arte atual (na qual é baseado o treinamento dos modelos) aplicado a situações arbitrárias. Os artistas podem usá-lo como ferramenta para encontrar um espaço onde uma nova exploração seja possível e, finalmente, começar a criar arte inspiradora novamente.

este-cara-nao-existe
Imagem gerada no popular serviço Esta Pessoa Não Existe. É uma imagem criada com o uso de redes GAN – Generational Adversarial Network.

Os otimistas ainda consideram que o que está sendo banalizado agora é apenas a transformação das obras mesmas em espaços de ideias digitalmente definíveis: crie uma nova ideia em arte, dê a uma máquina representações suficientes e ela pode gerar infinitamente novos trabalhos dentro desse espaço.

A corrente otimista argumenta que certas coisas vão escapar à banalização. O que ainda não pode ser banalizado seria:

1) Novos espaços de ideias. A IA é incapaz de gerar algo que possa ser definido como um novo movimento artístico.

2) Novas mídias. Algo como Dall-E [ver nota no final] vai aparecer, mais cedo ou mais tarde, para gerar arquivos CAD. Contudo, há muitas expressões artísticas que não serão fisicamente reproduzíveis por um computador. As obras nessas mídias permanecerão valiosas ou até aumentarão de valor. E embora a IA possa gerar novas ideias nesses espaços, será necessário que haja pessoas que decidam se esforçar para executá-las.

3) Curadoria. Decidir quais ideias (geradas por IA ou não) merecem atenção.

Take final

Comecei a investigar este assunto na década passada, e as evidências me sugerem que começaremos a ver todas as atividades humanas enfrentando um declínio salarial anual de 6 a 12% a partir de agora. Uma máquina já pode fazer trabalho humano bem o suficiente para substituí-lo ou substituir mais de 90% das pessoas no trabalho que elas fazem, deixando o resto brigando por migalhas.

A parte criativa e sensível do seu trabalho, que uma máquina não pode fazer, pode parecer muito importante para você, mas o chefe do chefe do seu chefe provavelmente não se importa com isso, já que a mediocridade escalável é mais lucrativa do que qualquer “extra” que um humano possa oferecer.

Na verdade, a já envelhecida queixa das empresas de que “existe-trabalho-mas-ninguém-está-qualificado” é uma grande balela. Os mesmos executivos que dizem isso estão espremendo seus gerentes de linha, ao não deixá-los contratar auxílio e forçá-los ao trabalho cada vez mais pesado.

A tendência de longo prazo dos salários é de queda. Os mercados de trabalho não parecem mais se comportar como o da oferta e procura de bens. Nesse mercado as curvas não mais encontram equilíbrio. Elas divergem.

Não se trata apenas de AI Art, e outras macaquices digitais. Estamos muito provavelmente caminhando para um colapso salarial generalizado e de base ampla em todo o mundo, e esse tipo de situação provavelmente resultará em um conflito global entre pessoas e capital, no qual a) todo um sistema socioeconômico é derrubado, ou b) a humanidade é lançada na escravidão da qual é improvável que se recupere.


Nota: DALL·E é uma versão do GPT-3 [Generative Pre-trained Transformer – Transformador Generativo Pré- treinado] com bilhões de parâmetros, treinada para gerar imagens a partir de descrições de texto [ex: “ovelha a tocar piano em um navio”], usando um conjunto de dados de pares de texto-imagem. Ele tem um conjunto diversificado de recursos, incluindo a criação de versões antropomorfizadas de animais e objetos, combinando conceitos não relacionados de maneiras plausíveis, renderizando texto e aplicando transformações a imagens existentes.

Leitura recomendadada

https://arxiv.org/abs/2005.14165

https://openai.com/blog/dall-e/

O Futuro da AI é Luminoso (e analógico)

Para concluir a Rápida Introdução à ‘Inteligência Artificial’, publico o post complementar, para apresentar o inovador chip ótico [ainda sem nome comercial] da start-up Lightmatter, contendo o chamado interferômetro Mach-Zehnderque, que promete elevar a computação de sistemas de aprendizagem de máquinas a um novo patamar.

Imagem: iStock

O aprendizado de máquina profundo, ou seja, redes neurais artificiais com muitas camadas ocultas, sempre nos fascina com soluções inovadoras para problemas do mundo real, cada vez em mais áreas, incluindo processamento de linguagem natural, detecção de fraude, reconhecimento de imagem e direção autônoma. As redes neurais ficam melhores a cada dia.

Mas esses avanços têm um preço enorme nos recursos de computação e no consumo de energia. Portanto, não é de se admirar que engenheiros e cientistas da computação estejam fazendo grandes esforços para descobrir maneiras de treinar e operar redes neurais profundas com mais eficiência.

Uma nova e ambiciosa estratégia que está fazendo o ‘début’ este ano é executar a computação de redes neurais usando fótons em vez de elétrons. A Lightmatter começará a comercializar no final deste ano seu chip acelerador de rede neural que calcula com luz. Será um refinamento do protótipo do chip Mars que a empresa exibiu em agosto passado.

O protótipo MARS, instalado em uma placa

Embora o desenvolvimento de um acelerador ótico comercial para aprendizado profundo seja uma conquista notável, a ideia geral de ‘computação com luz’ não é nova. Os engenheiros empregavam regularmente essa tática nas décadas de 1960 e 1970, quando os computadores digitais eletrônicos ainda não tinham capacidade para realizar cálculos complexos. Assim, os dados eram processados no domínio analógico, usando luz.

Em virtude dos ganhos da Lei de Moore na eletrônica digital, a computação óptica nunca realmente pegou, apesar da ascensão da luz [fibras óticas] como veículo para comunicação de dados. Mas tudo isso pode estar prestes a mudar: a Lei de Moore, que durante décadas proporcionou aumentos exponenciais na capacidade dos chips eletrônicos, mostra sinais de estar chegando ao fim, ao mesmo tempo em que as demandas da computação de aprendizado profundo estão explodindo.

Não há muitas escolhas para lidar com esse problema. Pesquisadores de aprendizagem profunda podem até desenvolver algoritmos mais eficientes, mas é difícil prever se esses ganhos serão suficientes. Essa é a razão da Lightmatter estar empenhada em “desenvolver uma nova tecnologia de computação que não dependa do transistor”.

Fundamentos

O componente fundamental no chip Lightmatter é um interferômetro Mach-Zehnder. Esse dispositivo ótico foi inventado em conjunto por Ludwig Mach e Ludwig Zehnder na década de 1890. Mas só recentemente esses dispositivos óticos foram miniaturizados a ponto de um grande número deles poder ser integrado em um chip e usado para realizar as multiplicações de matrizes envolvidas nos cálculos de rede neural.

O interferômetro Mach-Zehnder é um dispositivo usado para determinar as variações relativas de deslocamento de fase entre dois feixes colimados derivados da divisão da luz de uma única fonte. É um dispositivo particularmente simples para demonstrar interferência por divisão de amplitude. Um feixe de luz é primeiro dividido em duas partes por um divisor de feixe e, em seguida, recombinado por um segundo divisor de feixe. Dependendo da fase relativa adquirida pelo feixe ao longo dos dois caminhos, o segundo divisor de feixe refletirá o feixe com eficiência entre 0 e 100%. – Gráfico: Vox Leone – Uso Permitido

Esses feitos só se tornaram possíveis nos últimos anos devido ao amadurecimento do ecossistema de manufatura de fotônica integrada, necessário para fazer chips fotônicos para comunicações.

O processamento de sinais analógicos transportados pela luz reduz os custos de energia e aumenta a velocidade dos cálculos, mas a precisão pode não corresponder ao que é possível no domínio digital. O sistema é 8-bits-equivalente. Isso por enquanto mantém o chip restrito a cálculos de inferência de rede neural – aqueles que são realizados depois que a rede foi treinada.

Os desenvolvedores do sistema esperam que sua tecnologia possa um dia ser aplicada também ao treinamento de redes neurais. O treinamento exige mais precisão do que o processador ótico pode fornecer nesta etapa.

A Lightmatter não está sozinha em busca da luz para cálculos de redes neurais. Outras startups que trabalham nesta linha são Fathom Computing, LightIntelligence, LightOn, Luminous e Optalysis.

A Luminous espera desenvolver sistemas práticos em algum momento entre 2022 e 2025. Portanto, ainda teremos que esperar alguns anos para ver como essa abordagem vai evoluir. Mas muitos estão entusiasmados com as perspectivas, incluindo Bill Gates, um dos maiores investidores da empresa.

Uma coisa é clara: os recursos de computação dedicados aos sistemas de inteligência artificial não podem continuar a crescer sustentavelmente na taxa atual, dobrando a cada três ou quatro meses. Os engenheiros estão ansiosos para utilizar a fotônica integrada para enfrentar esse desafio de construir uma nova classe de máquinas de computação drasticamente diferentes daquelas baseadas nos chips eletrônicos convencionais, que agora se tornam viáveis para fabricação. São dispositivos que no passado recente só podiam ser imaginados.

Uma (muito) Rápida Introdução à ‘Inteligência Artificial’

O poder de computação ao alcance das pessoas começou a crescer rapidamente, aos trancos e barrancos, na virada do milênio, quando as unidades de processamento gráfico (GPUs) começaram a ser aproveitadas para cálculos não gráficos, uma tendência que se tornou cada vez mais difundida na última década. Mas as demandas da computação de “Aprendizado Profundo” [Deep Learning] têm aumentado ainda mais rápido. Essa dinâmica estimulou os engenheiros a desenvolver aceleradores de hardware voltados especificamente para o aprendizado profundo [o que se conhece popularmente como ‘Inteligência Artificial’], sendo a Unidade de Processamento de Tensor (TPU) do Google um excelente exemplo.

Ainda não temos uma Teoria da Mente, que possa nos dar uma base para a construção de uma verdadeira inteligência senciente. Aqui a distinção entre as disciplinas que formam o campo da Inteligência Artificial

Aqui, descreverei resumidamente o processo geral do aprendizado de máquina, introduzindo uma abordagem muito diferente para este problema – o uso de processadores óticos para realizar a computação de uma rede neural com fótons em vez de elétrons, que será objeto do próximo post. Para entender como a ótica pode impulsionar este campo, precisamos saber um pouco sobre como os computadores executam cálculos de redes neurais.

Visão geral

Quase invariavelmente, os neurônios artificiais são ‘construídos’ [na verdade eles são virtuais] usando um software especial executado em algum tipo de computador eletrônico digital.

Esse software fornece a um determinado neurônio da rede várias entradas e uma saída. O estado de cada neurônio depende da soma ponderada de suas entradas, à qual uma função não linear, chamada função de ativação, é aplicada. O resultado, a saída desse neurônio, torna-se então uma entrada para vários outros neurônios, em um processo em cascata.

As camadas de neurônios interagem entre si. Cada círculo representa um neurônio, em uma visão muito esquemática. À esquerda (em amarelo) a camada de entrada. Ao centro, em azul e verde, as camadas ocultas, que refinam os dados, aplicando pesos variados a cada neurônio. À direita, em vermelho, a camada de saída, com o resultado final.

Por questões de eficiência computacional, esses neurônios são agrupados em camadas, com neurônios conectados apenas a neurônios em camadas adjacentes. A vantagem de organizar as coisas dessa maneira, ao invés de permitir conexões entre quaisquer dois neurônios, é que isso permite que certos truques matemáticos de álgebra linear sejam usados ​​para acelerar os cálculos.

Embora os cálculos de álgebra linear não sejam toda a história, eles são a parte mais exigente do aprendizado profundo em termos de computação, principalmente à medida que o tamanho das redes aumenta. Isso é verdadeiro para ambas as fases do aprendizado de máquina:

  • O treinamento – processo de determinar quais pesos aplicar às entradas de cada neurônio.
  • A inferência – processo deflagrado quando a rede neural está fornecendo os resultados desejados.
Concepção do processo de treinamento de máquina, dos dados brutos, à esquerda, ao modelo completo.

Matrizes

O que são esses misteriosos cálculos de álgebra linear? Na verdade eles não são tão complicados. Eles envolvem operações com matrizes, que são apenas arranjos retangulares de números – planilhas, se preferir, menos os cabeçalhos de coluna descritivos que você encontra em um arquivo Excel típico.

É bom que as coisas sejam assim, porque o hardware de um computador moderno é otimizado exatamente para operações com matriz, que sempre foram o pão com manteiga da computação de alto desempenho – muito antes de o aprendizado de máquina se tornar popular. Os cálculos matriciais relevantes para o aprendizado profundo se resumem essencialmente a um grande número de operações de multiplicação e acumulação, em que pares de números são multiplicados entre si e seus produtos somados.

Ao longo dos anos, o aprendizado profundo foi exigindo um número cada vez maior dessas operações de multiplicação e acumulação. Considere LeNet, uma rede neural pioneira, projetada para fazer classificação de imagens. Em 1998, demonstrou superar o desempenho de outras técnicas de máquina para reconhecer letras e numerais manuscritos. Mas em 2012 o AlexNet, uma rede neural que processava cerca de 1.600 vezes mais operações de multiplicação e acumulação do que o LeNet, foi capaz de reconhecer milhares de diferentes tipos de objetos em imagens.

Gráfico tridimensional ilustrando o processo de inferência, partindo de dados brutos dispersos (embaixo à direita) até o refinamento final (após muitas iterações de inferência), onde o resultado (ou predição) é obtido.

Aliviar a pegada de CO2

Avançar do sucesso inicial do LeNet para o AlexNet exigiu quase 11 duplicações do desempenho de computação. Durante os 14 anos que se passaram, a lei de Moore ditava grande parte desse aumento. O desafio tem sido manter essa tendência agora que a lei de Moore dá sinais de que está perdendo força. A solução de sempre é simplesmente injetar mais recursos – tempo, dinheiro e energia – no problema.

Como resultado, o treinamento das grandes redes neurais tem deixado uma pegada ambiental significativa. Um estudo de 2019 descobriu, por exemplo, que o treinamento de um determinado tipo de rede neural profunda para o processamento de linguagem natural emite cinco vezes mais CO2 do que um automóvel durante toda a sua vida útil.

Os aprimoramentos nos computadores eletrônicos digitais com certeza permitiram que o aprendizado profundo florescesse. Mas isso não significa que a única maneira de realizar cálculos de redes neurais seja necessariamente através dessas máquinas. Décadas atrás, quando os computadores digitais ainda eram relativamente primitivos, os engenheiros lidavam com cálculos difíceis como esses usando computadores analógicos.

À medida que a eletrônica digital evoluiu, esses computadores analógicos foram sendo deixados de lado. Mas pode ser hora de seguir essa estratégia mais uma vez, em particular nestes tempos em que cálculos analógicos podem ser feitos oticamente de forma natural.

No próximo post vou trazer o mais recente desenvolvimento em fotônica aplicada ao aprendizado de máquina – em uma arquitetura analógica! Estamos, sem dúvida, vivendo tempos interessantes neste campo promissor.

Fonte de pesquisa: spectrum.ieee.org