AI não é Páreo para as Sutilezas Humanas

Faço uma resenha crítica de um artigo muito pertinente publicado no MIT Press Reader , de autoria dos psicólogos Amos Tversky e Daniel Kahneman. O trabalho trata de dois grandes grupos de problemas e suas e implicações e correlações com o pensamento humano e com a inteligência de máquina.

As nuances humanas
Imagem: Pexels.com

A ênfase das abordagens computacionais da inteligência que nos acostumamos a ver no noticiário tem sido colocada em problemas formais e bem estruturados; problemas que têm um objetivo claro e um número definido de soluções possíveis. Esses problemas são os que podem ser, portanto, resolvidos por um algoritmo.

Mas nós, humanos, somos criativos, irracionais e inconsistentes. Concentrar-se nesses problemas bem estruturados às vezes pode ser enganoso e improdutivo – como o proverbial bêbado a procurar as chaves perdidas ao redor do poste, só porque ali é onde a luz brilha mais forte.

Os autores argumentam que existem dois grupos de problemas que são muito típicos da inteligência humana e merecem um olhar atento.

Um grupo contém os chamados problemas de insight. Os problemas de insight geralmente não podem ser resolvidos por um procedimento passo a passo, como um algoritmo, ou, quando podem, o processo se torna extremamente tedioso. Em vez disso, os problemas de insight exigem a reestruturação da própria abordagem do solucionador do problema.

Outro grupo são os problemas de procedimento [no artigo original é usada a expressão “problems of path” – problemas de caminho]. Em problemas de procedimento o solucionador tem disponível uma representação, que inclui um estado inicial, um estado objetivo e um conjunto de ferramentas ou operadores que podem ser aplicados para percorrer a representação. Em problemas de insight o solucionador não tem essas balizas.

Com problemas de procedimanto o solucionador geralmente pode avaliar quão próximo o estado atual do sistema está do estado objetivo. A maioria dos algoritmos de aprendizado de máquina depende desse tipo de avaliação.

Com problemas de insight, por outro lado, muitas vezes é difícil determinar se houve algum progresso até que o problema seja essencialmente resolvido. O que chamaríamos “efeito eureka” ou “momento aha!”, uma compreensão repentina de uma solução anteriormente incompreensível.

Insights são para humanos

De acordo com os autores, os problemas de insight podem ser representados de diversas maneiras. A maneira como você pensa sobre um problema, ou seja, como você representa o problema, pode ser fundamental para resolvê-lo.

Muito pouco se sabe sobre como resolvemos problemas de insight. Esses problemas são normalmente difíceis de estudar em laboratório com muita profundidade, porque as pessoas tễm uma dificuldade natural em descrever as etapas que percorrem para resolvê-los. A maior parte desses problemas pode ser resolvida com a obtenção de um ou dois insights secundários capazes de mudar a natureza do enfoque sobre eles.

Todos nós sabemos que as pessoas nem sempre se comportam da maneira estritamente sistemática necessária para o pensamento rigorosamente lógico. Esses desvios não são falhas ou erros no pensamento humano, mas características essenciais sem as quais provavelmente a inteligência não evoluiria.

Normalmente não parecemos prestar muita atenção às partes formais de um problema – especialmente quando fazemos escolhas arriscadas. Tversky e Kahneman descobriram que as pessoas fazem escolhas diferentes quando apresentadas às mesmas alternativas, dependendo de como essas alternativas sejam descritas.

Em alguns dos testes realizados, as pessoas preferiam o resultado certo ao incerto, quando o certo era enquadrado num tom positivo, e preferiam a alternativa incerta à certa, quando a certa era enquadrada num tom negativo. Com efeito, a estrutura ou tom das alternativas modulou a disposição dos participantes em aceitar o risco.

Nossas decisões, sejam elas corretas ou incorretas, sempre são produzidas pelos mesmos processos cognitivos. Ao contrário dos computadores, somos relativamente limitados no que podemos manter na memória ativa ao mesmo tempo.

Processos rápidos, processos lentos

Temos uma complexidade no nosso pensamento e processos intelectuais que nem sempre trabalha a nosso favor. Tiramos conclusões precipitadas. Somos mais facilmente persuadidos pelos argumentos que se adequam às nossas visões preconcebidas, ou que são apresentados num contexto ou noutro. Às vezes nos comportamos como computadores, mas na maioria das vezes somos desleixados e inconsistentes.

Daniel Kahneman descreve a mente humana como consistindo de dois sistemas, um que é rápido, relativamente impreciso e automático, e um outro que é lento, deliberado, e demora para chegar a uma conclusão mas, quando finalmente chega, é consistentemente mais preciso.

O primeiro sistema, diz ele, é ativado quando você vê a imagem de uma pessoa e percebe que ela está com raiva e provavelmente gritará. O segundo sistema é acionado quando você tenta resolver um problema de multiplicação como 17 × 32. O reconhecimento da raiva, em essência, surge em nossa mente sem nenhum esforço óbvio, mas o problema de matemática requer esforço deliberado e talvez a ajuda de lápis e papel (ou uma calculadora).

O que ele chama de segundo sistema está muito próximo do estado atual da inteligência artificial. Envolve esforços deliberados e sistemáticos que exigem o uso de invenções cognitivas.

O desenvolvimento dos sitemas computacionais inteligentes concentrou-se no tipo de trabalho realizado pelo sistema deliberado, embora o sistema automático ativado pelo reflexo possa ser tão ou mais importante. E pode ser mais desafiador de emular em um computador.

Mais fatos interessantes [em inglês] seguindo o link:

https://thereader.mitpress.mit.edu/ai-insight-problems-quirks-human-intelligence/

Drones

Ah, os drones…


Vejo muitos drones na Faria Lima,

vindos de Mauá ou Santo André,

vidrados nos smartphones,

passes de segurança do escritório

em volta do pescoço,

a falar monotonamente

sobre seguro de TI

– ou será outra coisa?

* * *

Aqui no meu contrato formal com os leitores eu os adverti que poderiam ocasionalmente estar à mercê dos meus poemas. Hoje a ameça se cumpre pela primeira vez (ou será a segunda?). Love. EBM.

Dez Ideias (não tão) Práticas para Romper Bolhas Culturais

… ao invés de apenas apontar dedos e procurar culpados. Este é um assunto muito extenso para ser abordado de forma eficaz aqui, mas alguns pontos principais podem ser discutidos:

Criança estourando bolhas de sabão.
Imagem: Pexels.com

1. É muito fácil ser derrotista ou fatalista. Não sou complacente com a seriedade do desafio de tirar a sociedade do marasmo, do beco sem saída filosófico em que nos metemos neste século – e, em particular, com a maneira como certas “ideias progressistas” foram incorporadas ao treinamento de professores e ao sistema educacional geral – mas existem paralelos históricos encorajadores quanto à possibilidade de rompimento de impasses culturais.

Na década de 1930, a década que assistiu ao fim da primeira fase do capitalismo, e com a qual alguns acadêmicos comparam nosso tempo, muitos estudantes e grupos jovens apoiaram o pacifismo ou o marxismo. Na década de 1960, seus sucessores abraçaram uma variedade de ideias políticas e sociais radicais. Em ambos os casos, seus pais ficaram horrorizados, mas o primeiro grupo veio a se tornar a “maior geração” e o segundo os liberais, embora auto-indulgentes, “boomers”. A sociedade ocidental historicamente progrediu ao enfrentar desafios e reagir de forma construtiva. É prematuro presumir que falharemos desta vez.

2. A reação à atual estagnação do pensamento ocidental parece estar ganhando força. A “janela de Overton” tem se expandido visivelmente. Pelos sinais ao redor, minha impressão é que nos últimos dezoito meses os maiores de 30 anos começaram acordar para o que está a acontecer. É menos claro para mim se houve tanto movimento entre os mais jovens.

3. Vejo como o desafio central a tarefa de persuadir a Geração Z – e especialmente os estudantes da Geração Z nas universidades de maior prestígio – a reconhecer as virtudes do debate aberto como verdade objetiva e ter a não conformidade à qualquer ideia majoritaria como trunfo.

4. Dito de outra forma, a questão central diz respeito aos meios, não aos fins. Muitas pessoas concordam com – ou pelo menos aceitam como legítimas – muitas das reclamações da Geração Z. O problema não é que os Wokes querem tolerância para trans, menos desigualdade econômica, justiça racial, mais ação sobre mudanças climáticas, etc, mas sim sua relutância em debater essas questões e suas tentativas de intimidar e deslegitimar qualquer dissidência, mesmo em questões de detalhe. Eles estão atacando os valores do Iluminismo, que conduziram a vida ocidental por duzentos anos. Em particular, eles estão tentando destruir a primazia do livre debate como caminho para boas decisões.

5. Esta não é apenas uma batalha de ideias em si. Alimenta-se de uma série de fatores estruturais também. O impacto da política de identidade, mídia social, negacionismo, polarização, bolhas culturais/ideológicas, etc, tem sido amplamente discutido. Eles fornecem o solo fértil sem o qual as sementes dos radicalismos progressista e conservador teriam murchado e não florescido. A sociedade ocidental precisa ajustar suas estruturas legais, políticas e tecnológicas.

6. O que mais beneficiaria o debate informado é a regulamentação das mídias sociais. Para além do impacto psicológico nos adolescentes, o próprio “status quo” dessas estruturas é inaceitável. Algoritmos que deliberadamente empurram indivíduos para cantos ideologicamente extremos da internet podem beneficiar os donos da redes sociais por meio do aumento do “engajamento” enfurecido e, portanto, da lucratividade, mas o impacto que isso tem na sociedade é muito pernicioso. Precisamos aceitar que a praça pública precisa de regras pactuadas e transparentes.

7. A maioria das pessoas responde com mais força a histórias do que a conceitos abstratos. Além de focar em exemplos individuais, como sucesso das mulheres trans em esportes femininos, etc., certas grandes contranarrativas históricas precisam ser desenvolvidas e impulsionadas, por exemplo as que descrevem como o “sistema ocidental”, o conjunto de instituições e valores que resgatou bilhões da pobreza e da tirania, pode ser implantado de forma benéfica em qualquer lugar – e poderia facilmente ter surgido no Oriente Médio ou na China como na Europa.

8. Pessoalmente, acredito que a situação econômica da Geração Z é um fator muito mais importante para explicar sua radicalização do que geralmente é aceito. Se suas perspectivas individuais fossem menos desanimadoras, suspeito que eles ficariam mais calmos em uma ampla gama de tópicos. Como conseguir isso é outra área de debate.

9. O ponto geral é que precisamos reafirmar os valores centrais do Iluminismo, mas também desenvolver novas ideias sobre como aplicá-los, dada a sociedade e a tecnologia atuais. É insuficiente defender a “liberdade de expressão”; também precisamos estabelecer novas regras sobre como certos discursos são privilegiados e outros discursos são desenfatizados na praça pública. A maioria concordaria que a censura a certos temas durante a Covid foi exagerada, mas exagerados também são os algoritmos que exacerbam a polarização e o extremismo.

10. Impulsionar uma agenda positiva é importante, mas importante também, a meu ver, é uma crítica implacável da teoria e prática do movimento progressista radical. Precisamos criticar a mentalidade que vê tudo como uma luta de poder entre categorias privilegiadas e as marginalizadas — infinitamente redefinidas.

Outros enfatizariam pontos diferentes. Um debate contínuo – em um espírito construtivo e amigável – sem dúvida levaria a conclusões mais ricas do que aquelas produzidas por qualquer indivíduo.

Rolling Stones, os Primeiros Streamers

Para os padrões de hoje não é grande coisa, mas no dia 18 de novembro de 1994 foi algo ENORME! Nesse dia, quando a internet ainda estava engatinhando, os Rolling Stones se tornaram a primeira banda a transmitir um de seus shows pela “rede mundial de computadores”.

A banda em um show não identificado – Imagem: Dallas Morning News (Fair Use)

Os Stones transmitiram pela web 20 minutos de sua apresentação no Cotton Bowl em Dallas (em sua turnê Voodoo Lounge) usando o sistema o Multicast BackBone [MBone]. Em universidades e laboratórios de pesquisa com conexões MBone, os fãs se aglomeraram em torno das telas dos computadores para assistir ao vídeo de varredura lenta. As críticas decididamente não foram entusiásticas devido à baixa qualidade da imagem.

Os Stones tocaram “Not Fade Away”, “Tumbling Dice”, “You Got Me Rocking”, “Shattered” e “Rocks Off”. No meio do set, Mick Jagger anunciou ao vivo para os fãs em Dallas e aqueles conectados virtualmente através do backbone multicast (MBone):

“Eu quero dar as boas-vindas a todos que subiram na internet esta noite e entraram no MBone. Espero que o site não caia”

Desde então, o mundo do streaming de vídeo sofreu muitas mudanças. Na década de 1990, enquanto a indústria lutava com desafios técnicos de tráfego de vídeo multicast, os protocolos de download HTTP e streaming com estado [stateful] começaram a ter protagonismo. Em 1996, Netscape, RealNetworks, Borland, NeXT e 36 outras empresas deram seu peso ao Real Time Streaming Protocol (RTSP).

Em 2002, a Macromedia lançou o Flash Communication Server MX 1.0 com suporte para o que se tornaria o protocolo mais amplamente adotado para streaming orientado a conexão, o Real Time Messaging Protocol (RTMP). E em 2005, o YouTube foi lançado, lembrando aos usuários da internet que, pelo menos para vídeos curtos, o download progressivo por HTTP ainda era uma opção muito viável.

Então, em 2008, a Microsoft introduziu o Smooth Streaming, uma abordagem híbrida para transmissão de vídeo que oferecia protocolos de streaming personalizados, aproveitando-se do protocolo HTTP e da infraestrutura de rede existente. Em agosto do mesmo ano, a Microsoft e a NBC usaram o Smooth Streaming para transmitir ao vivo cada minuto de cada evento dos Jogos Olímpicos de Pequim para mais de 50 milhões de telespectadores em todo o mundo. Em um único evento, o “Modern Streaming” provou que a Internet era capaz de produzir vídeos escalonáveis, confiáveis ​​e com qualidade de transmissão.

Nos anos que se seguiram, o Modern Streaming rapidamente ganhou impulso, com a Apple introduzindo o HTTP Live Streaming (HLS), a Adobe lançando o HTTP Dynamic Streaming (HDS) e as principais empresas de mídia e streaming colaborando no MPEG-DASH. As inovações em Smooth Streaming, HLS, HDS e DASH geraram um ressurgimento na transmissão de vídeo baseada em HTTP e hoje estão remodelando a forma como as empresas e universidades transmitem conteúdo de mídia em suas redes.


Descanse em paz, Charlie Watts, baterista de Jazz, Rock’n’roller e Gentleman. 1941-2021 – Imagem: Rolling Stones – divulgação

Uma (muito) Rápida Introdução à ‘Inteligência Artificial’

O poder de computação ao alcance das pessoas começou a crescer rapidamente, aos trancos e barrancos, na virada do milênio, quando as unidades de processamento gráfico (GPUs) começaram a ser aproveitadas para cálculos não gráficos, uma tendência que se tornou cada vez mais difundida na última década.

Ainda não temos uma Teoria da Mente, que possa nos dar uma base para a construção de uma verdadeira inteligência senciente. Aqui a distinção entre as disciplinas que formam o campo da Inteligência Artificial

Mas as demandas da computação de “Aprendizado Profundo” [Deep Learning] têm aumentado ainda mais rápido. Essa dinâmica estimulou os engenheiros a desenvolver aceleradores de hardware voltados especificamente para o aprendizado profundo [o que se conhece popularmente como ‘Inteligência Artificial’], sendo a Unidade de Processamento de Tensor (TPU) do Google um excelente exemplo.

Aqui, descreverei resumidamente o processo geral do aprendizado de máquina. Em meio a reportagens cataclísmicas anunciando o iminente desabamento do Céu, precisamos saber um pouco sobre como os computadores realmente executam cálculos de redes neurais.

Visão geral

Quase invariavelmente, os neurônios artificiais são ‘construídos’ [na verdade eles são virtuais] usando um software especial executado em algum tipo de computador eletrônico digital.

Esse software fornece a um determinado neurônio da rede várias entradas e uma saída. O estado de cada neurônio depende da soma ponderada de suas entradas, à qual uma função não linear, chamada função de ativação, é aplicada. O resultado, a saída desse neurônio, torna-se então uma entrada para vários outros neurônios, em um processo em cascata.

As camadas de neurônios interagem entre si. Cada círculo representa um neurônio, em uma visão muito esquemática. À esquerda (em amarelo) a camada de entrada. Ao centro, em azul e verde, as camadas ocultas, que refinam os dados, aplicando pesos variados a cada neurônio. À direita, em vermelho, a camada de saída, com o resultado final.

Por questões de eficiência computacional, esses neurônios são agrupados em camadas, com neurônios conectados apenas a neurônios em camadas adjacentes. A vantagem de organizar as coisas dessa maneira, ao invés de permitir conexões entre quaisquer dois neurônios, é que isso permite que certos truques matemáticos de álgebra linear sejam usados ​​para acelerar os cálculos.

Embora os cálculos de álgebra linear não sejam toda a história, eles são a parte mais exigente do aprendizado profundo em termos de computação, principalmente à medida que o tamanho das redes aumenta. Isso é verdadeiro para ambas as fases do aprendizado de máquina:

  • O treinamento – processo de determinar quais pesos aplicar às entradas de cada neurônio.
  • A inferência – processo deflagrado quando a rede neural está fornecendo os resultados desejados.
Concepção do processo de treinamento de máquina, dos dados brutos, à esquerda, ao modelo completo.

Matrizes

O que são esses misteriosos cálculos de álgebra linear? Na verdade eles não são tão complicados. Eles envolvem operações com matrizes, que são apenas arranjos retangulares de números – planilhas, se preferir, menos os cabeçalhos de coluna descritivos que você encontra em um arquivo Excel típico.

É bom que as coisas sejam assim, porque o hardware de um computador moderno é otimizado exatamente para operações com matriz, que sempre foram o pão com manteiga da computação de alto desempenho – muito antes de o aprendizado de máquina se tornar popular. Os cálculos matriciais relevantes para o aprendizado profundo se resumem essencialmente a um grande número de operações de multiplicação e acumulação, em que pares de números são multiplicados entre si e seus produtos somados.

Ao longo dos anos, o aprendizado profundo foi exigindo um número cada vez maior dessas operações de multiplicação e acumulação. Considere LeNet, uma rede neural pioneira, projetada para fazer classificação de imagens. Em 1998, demonstrou superar o desempenho de outras técnicas de máquina para reconhecer letras e numerais manuscritos. Mas em 2012 o AlexNet, uma rede neural que processava cerca de 1.600 vezes mais operações de multiplicação e acumulação do que o LeNet, foi capaz de reconhecer milhares de diferentes tipos de objetos em imagens.

Gráfico tridimensional ilustrando o processo de inferência, partindo de dados brutos dispersos (embaixo à direita) até o refinamento final (após muitas iterações de inferência), onde o resultado (ou predição) é obtido.

Aliviar a pegada de CO2

Avançar do sucesso inicial do LeNet para o AlexNet exigiu quase 11 duplicações do desempenho de computação. Durante os 14 anos que se passaram, a lei de Moore ditava grande parte desse aumento. O desafio tem sido manter essa tendência agora que a lei de Moore dá sinais de que está perdendo força. A solução de sempre é simplesmente injetar mais recursos – tempo, dinheiro e energia – no problema.

Como resultado, o treinamento das grandes redes neurais tem deixado uma pegada ambiental significativa. Um estudo de 2019 descobriu, por exemplo, que o treinamento de um determinado tipo de rede neural profunda para o processamento de linguagem natural emite cinco vezes mais CO2 do que um automóvel durante toda a sua vida útil.

Os aprimoramentos nos computadores eletrônicos digitais com certeza permitiram que o aprendizado profundo florescesse. Mas isso não significa que a única maneira de realizar cálculos de redes neurais seja necessariamente através dessas máquinas. Décadas atrás, quando os computadores digitais ainda eram relativamente primitivos, os engenheiros lidavam com cálculos difíceis como esses usando computadores analógicos.

À medida que a eletrônica digital evoluiu, esses computadores analógicos foram sendo deixados de lado. Mas pode ser hora voltar a essa estratégia mais uma vez, em particular nestes tempos em que cálculos analógicos podem ser feitos oticamente de forma natural.

Nos próximas postagens vou trazer os mais recentes desenvolvimentos em fotônica aplicada ao aprendizado de máquina – em uma arquitetura analógica! Estamos, sem dúvida, vivendo tempos interessantes neste campo promissor.

Fonte de pesquisa: spectrum.ieee.org