AI não é Páreo para as Sutilezas Humanas

Faço uma resenha crítica de um artigo muito pertinente publicado no MIT Press Reader , de autoria dos psicólogos Amos Tversky e Daniel Kahneman. O trabalho trata de dois grandes grupos de problemas e suas e implicações e correlações com o pensamento humano e com a inteligência de máquina.

As nuances humanas
Imagem: Pexels.com

A ênfase das abordagens computacionais da inteligência que nos acostumamos a ver no noticiário tem sido colocada em problemas formais e bem estruturados; problemas que têm um objetivo claro e um número definido de soluções possíveis. Esses problemas são os que podem ser, portanto, resolvidos por um algoritmo.

Mas nós, humanos, somos criativos, irracionais e inconsistentes. Concentrar-se nesses problemas bem estruturados às vezes pode ser enganoso e improdutivo – como o proverbial bêbado a procurar as chaves perdidas ao redor do poste, só porque ali é onde a luz brilha mais forte.

Os autores argumentam que existem dois grupos de problemas que são muito típicos da inteligência humana e merecem um olhar atento.

Um grupo contém os chamados problemas de insight. Os problemas de insight geralmente não podem ser resolvidos por um procedimento passo a passo, como um algoritmo, ou, quando podem, o processo se torna extremamente tedioso. Em vez disso, os problemas de insight exigem a reestruturação da própria abordagem do solucionador do problema.

Outro grupo são os problemas de procedimento [no artigo original é usada a expressão “problems of path” – problemas de caminho]. Em problemas de procedimento o solucionador tem disponível uma representação, que inclui um estado inicial, um estado objetivo e um conjunto de ferramentas ou operadores que podem ser aplicados para percorrer a representação. Em problemas de insight o solucionador não tem essas balizas.

Com problemas de procedimanto o solucionador geralmente pode avaliar quão próximo o estado atual do sistema está do estado objetivo. A maioria dos algoritmos de aprendizado de máquina depende desse tipo de avaliação.

Com problemas de insight, por outro lado, muitas vezes é difícil determinar se houve algum progresso até que o problema seja essencialmente resolvido. O que chamaríamos “efeito eureka” ou “momento aha!”, uma compreensão repentina de uma solução anteriormente incompreensível.

Insights são para humanos

De acordo com os autores, os problemas de insight podem ser representados de diversas maneiras. A maneira como você pensa sobre um problema, ou seja, como você representa o problema, pode ser fundamental para resolvê-lo.

Muito pouco se sabe sobre como resolvemos problemas de insight. Esses problemas são normalmente difíceis de estudar em laboratório com muita profundidade, porque as pessoas tễm uma dificuldade natural em descrever as etapas que percorrem para resolvê-los. A maior parte desses problemas pode ser resolvida com a obtenção de um ou dois insights secundários capazes de mudar a natureza do enfoque sobre eles.

Todos nós sabemos que as pessoas nem sempre se comportam da maneira estritamente sistemática necessária para o pensamento rigorosamente lógico. Esses desvios não são falhas ou erros no pensamento humano, mas características essenciais sem as quais provavelmente a inteligência não evoluiria.

Normalmente não parecemos prestar muita atenção às partes formais de um problema – especialmente quando fazemos escolhas arriscadas. Tversky e Kahneman descobriram que as pessoas fazem escolhas diferentes quando apresentadas às mesmas alternativas, dependendo de como essas alternativas sejam descritas.

Em alguns dos testes realizados, as pessoas preferiam o resultado certo ao incerto, quando o certo era enquadrado num tom positivo, e preferiam a alternativa incerta à certa, quando a certa era enquadrada num tom negativo. Com efeito, a estrutura ou tom das alternativas modulou a disposição dos participantes em aceitar o risco.

Nossas decisões, sejam elas corretas ou incorretas, sempre são produzidas pelos mesmos processos cognitivos. Ao contrário dos computadores, somos relativamente limitados no que podemos manter na memória ativa ao mesmo tempo.

Processos rápidos, processos lentos

Temos uma complexidade no nosso pensamento e processos intelectuais que nem sempre trabalha a nosso favor. Tiramos conclusões precipitadas. Somos mais facilmente persuadidos pelos argumentos que se adequam às nossas visões preconcebidas, ou que são apresentados num contexto ou noutro. Às vezes nos comportamos como computadores, mas na maioria das vezes somos desleixados e inconsistentes.

Daniel Kahneman descreve a mente humana como consistindo de dois sistemas, um que é rápido, relativamente impreciso e automático, e um outro que é lento, deliberado, e demora para chegar a uma conclusão mas, quando finalmente chega, é consistentemente mais preciso.

O primeiro sistema, diz ele, é ativado quando você vê a imagem de uma pessoa e percebe que ela está com raiva e provavelmente gritará. O segundo sistema é acionado quando você tenta resolver um problema de multiplicação como 17 × 32. O reconhecimento da raiva, em essência, surge em nossa mente sem nenhum esforço óbvio, mas o problema de matemática requer esforço deliberado e talvez a ajuda de lápis e papel (ou uma calculadora).

O que ele chama de segundo sistema está muito próximo do estado atual da inteligência artificial. Envolve esforços deliberados e sistemáticos que exigem o uso de invenções cognitivas.

O desenvolvimento dos sitemas computacionais inteligentes concentrou-se no tipo de trabalho realizado pelo sistema deliberado, embora o sistema automático ativado pelo reflexo possa ser tão ou mais importante. E pode ser mais desafiador de emular em um computador.

Mais fatos interessantes [em inglês] seguindo o link:

https://thereader.mitpress.mit.edu/ai-insight-problems-quirks-human-intelligence/

Uma (muito) Rápida Introdução à ‘Inteligência Artificial’

O poder de computação ao alcance das pessoas começou a crescer rapidamente, aos trancos e barrancos, na virada do milênio, quando as unidades de processamento gráfico (GPUs) começaram a ser aproveitadas para cálculos não gráficos, uma tendência que se tornou cada vez mais difundida na última década.

Ainda não temos uma Teoria da Mente, que possa nos dar uma base para a construção de uma verdadeira inteligência senciente. Aqui a distinção entre as disciplinas que formam o campo da Inteligência Artificial

Mas as demandas da computação de “Aprendizado Profundo” [Deep Learning] têm aumentado ainda mais rápido. Essa dinâmica estimulou os engenheiros a desenvolver aceleradores de hardware voltados especificamente para o aprendizado profundo [o que se conhece popularmente como ‘Inteligência Artificial’], sendo a Unidade de Processamento de Tensor (TPU) do Google um excelente exemplo.

Aqui, descreverei resumidamente o processo geral do aprendizado de máquina. Em meio a reportagens cataclísmicas anunciando o iminente desabamento do Céu, precisamos saber um pouco sobre como os computadores realmente executam cálculos de redes neurais.

Visão geral

Quase invariavelmente, os neurônios artificiais são ‘construídos’ [na verdade eles são virtuais] usando um software especial executado em algum tipo de computador eletrônico digital.

Esse software fornece a um determinado neurônio da rede várias entradas e uma saída. O estado de cada neurônio depende da soma ponderada de suas entradas, à qual uma função não linear, chamada função de ativação, é aplicada. O resultado, a saída desse neurônio, torna-se então uma entrada para vários outros neurônios, em um processo em cascata.

As camadas de neurônios interagem entre si. Cada círculo representa um neurônio, em uma visão muito esquemática. À esquerda (em amarelo) a camada de entrada. Ao centro, em azul e verde, as camadas ocultas, que refinam os dados, aplicando pesos variados a cada neurônio. À direita, em vermelho, a camada de saída, com o resultado final.

Por questões de eficiência computacional, esses neurônios são agrupados em camadas, com neurônios conectados apenas a neurônios em camadas adjacentes. A vantagem de organizar as coisas dessa maneira, ao invés de permitir conexões entre quaisquer dois neurônios, é que isso permite que certos truques matemáticos de álgebra linear sejam usados ​​para acelerar os cálculos.

Embora os cálculos de álgebra linear não sejam toda a história, eles são a parte mais exigente do aprendizado profundo em termos de computação, principalmente à medida que o tamanho das redes aumenta. Isso é verdadeiro para ambas as fases do aprendizado de máquina:

  • O treinamento – processo de determinar quais pesos aplicar às entradas de cada neurônio.
  • A inferência – processo deflagrado quando a rede neural está fornecendo os resultados desejados.
Concepção do processo de treinamento de máquina, dos dados brutos, à esquerda, ao modelo completo.

Matrizes

O que são esses misteriosos cálculos de álgebra linear? Na verdade eles não são tão complicados. Eles envolvem operações com matrizes, que são apenas arranjos retangulares de números – planilhas, se preferir, menos os cabeçalhos de coluna descritivos que você encontra em um arquivo Excel típico.

É bom que as coisas sejam assim, porque o hardware de um computador moderno é otimizado exatamente para operações com matriz, que sempre foram o pão com manteiga da computação de alto desempenho – muito antes de o aprendizado de máquina se tornar popular. Os cálculos matriciais relevantes para o aprendizado profundo se resumem essencialmente a um grande número de operações de multiplicação e acumulação, em que pares de números são multiplicados entre si e seus produtos somados.

Ao longo dos anos, o aprendizado profundo foi exigindo um número cada vez maior dessas operações de multiplicação e acumulação. Considere LeNet, uma rede neural pioneira, projetada para fazer classificação de imagens. Em 1998, demonstrou superar o desempenho de outras técnicas de máquina para reconhecer letras e numerais manuscritos. Mas em 2012 o AlexNet, uma rede neural que processava cerca de 1.600 vezes mais operações de multiplicação e acumulação do que o LeNet, foi capaz de reconhecer milhares de diferentes tipos de objetos em imagens.

Gráfico tridimensional ilustrando o processo de inferência, partindo de dados brutos dispersos (embaixo à direita) até o refinamento final (após muitas iterações de inferência), onde o resultado (ou predição) é obtido.

Aliviar a pegada de CO2

Avançar do sucesso inicial do LeNet para o AlexNet exigiu quase 11 duplicações do desempenho de computação. Durante os 14 anos que se passaram, a lei de Moore ditava grande parte desse aumento. O desafio tem sido manter essa tendência agora que a lei de Moore dá sinais de que está perdendo força. A solução de sempre é simplesmente injetar mais recursos – tempo, dinheiro e energia – no problema.

Como resultado, o treinamento das grandes redes neurais tem deixado uma pegada ambiental significativa. Um estudo de 2019 descobriu, por exemplo, que o treinamento de um determinado tipo de rede neural profunda para o processamento de linguagem natural emite cinco vezes mais CO2 do que um automóvel durante toda a sua vida útil.

Os aprimoramentos nos computadores eletrônicos digitais com certeza permitiram que o aprendizado profundo florescesse. Mas isso não significa que a única maneira de realizar cálculos de redes neurais seja necessariamente através dessas máquinas. Décadas atrás, quando os computadores digitais ainda eram relativamente primitivos, os engenheiros lidavam com cálculos difíceis como esses usando computadores analógicos.

À medida que a eletrônica digital evoluiu, esses computadores analógicos foram sendo deixados de lado. Mas pode ser hora voltar a essa estratégia mais uma vez, em particular nestes tempos em que cálculos analógicos podem ser feitos oticamente de forma natural.

Nos próximas postagens vou trazer os mais recentes desenvolvimentos em fotônica aplicada ao aprendizado de máquina – em uma arquitetura analógica! Estamos, sem dúvida, vivendo tempos interessantes neste campo promissor.

Fonte de pesquisa: spectrum.ieee.org

Relaxe, a Inteligência Artificial Não Vai Destruir o Mundo – Ainda

Um dos problemas mais significativos com a IA generativa é a confusão do aparente com o real, a aparência da verdade e a realidade de tudo isso.

IA emergindo
Imagem: pexels.com

A ideia que parece perpassar o ambiente corporativo hoje é que ser mais produtivo, seja o que for que isso implique, não precisa ser automaticamente produto da compreensão dos problemas ou da verdade. Os interesses que promovem a IA têm pouco ou nenhum desejo de encontrar ou distribuir a verdade. Canibalizar textos digitais sem considerar o que os torna verdadeiros é uma receita para a desintegração do conhecimento, não a produção ou reflexão dele.

Para cumprir sua promessa, a inteligência artificial precisa aprofundar a inteligência humana. Isso é certamente verdade… e isso certamente NÃO vai acontecer. Veja o que a internet fez com a mente humana. Reduziu a maioria das pessoas a viciados em cocaína eletrônica pixelizada, cujas habilidades de pensamento crítico, conhecimento de história, habilidades de linguagem e capacidade de atenção despencaram coletivamente.

Antes da internet, tínhamos milhares de jornais locais robustos relatando notícias locais, unindo comunidades e mentes locais como cola. Tudo isso desapareceu quase da noite para o dia, e agora ficamos com um punhado de conglomerados nacionais que compraram a maioria dessas instituições e as reduziram a esqueletos de seus antigos eus.

As ‘notícias’ que as pessoas consomem hoje vêm de algoritmos nas mídias sociais. Os jornais foram substituídos principalmente por junk news, que é perfeitamente semelhante à junk food e seus efeitos deletérios sobre os seres humanos.

A internet foi colonizada pelos piores instintos da humanidade e reduziu a mente humana a escombros do Facebook, Instagram, realidade alternativa, violência, conspiração e êxtase religioso… todos exemplos robustos de involução humana. A ação conjunta da ‘Inteligência Artificial’ e um grupo conhecido de atores humanos maus e gananciosos têm potencial para acelerar a involução humana e nos levar ao penhasco da destruição. Manter nossas habilidades de pensamento crítico humano é nossa única esperança… e pode não ser suficiente.

Derivativos

Os Grandes Modelos de Linguagem – GML [Large Language Models, LLM] podem ser entendidos como Títulos de Informação garantidos por hipotecas: um vasto número de fontes cortadas em pedaços e remontadas em composições convincentemente realistas que parecem, para todos os propósitos, funcionar por conta própria. Mas, como aprendemos na crise de 2008, os derivativos não são melhores do que aquilo de que são derivados, e essa verdade reduz muito a confiabilidade no que esse tipo de IA é capaz.

O problemas dos rótulos

Nada dessensibiliza mais uma pessoa quanto ao romantismo do Fim do Mundo provocado pela Skynet do que passar horas colocando quadradinhos ao redor de bois e vacas em imagens fotográficas. Na labuta da rotulação de dados – um penoso processo manual que está na base de todos os sistemas de inteligência artificial, você começa ver as entranhas do sistema: a inteligência artificial não funciona sem humanos na máquina. É notável que não seja dada maior atenção ao trabalho dos rotuladores, humanos reais, trabalhando na maioria das vezes fora dos limites da dignidade. Ao conhecer esse processo uma perspectiva mais clara do que está por baixo do capô aparece.

Vacas anotadas para visao de computador
Os ‘quadradinhos de rótulo’, colocados tediosamente por humanos, são essenciais na modalidade de AI chamada ‘visão de computador’. São os rótulos que ensinam ao computador, por meio de muitas repetições, o que é uma vaca. Imagem: Vox Leone

Em tempo: neste ponto chamo a atenção para a ferramenta que estou desenvolvendo para automatização das tarefas de rotulação de imagem [o nome da disciplina é ‘anotação’] para modelos de visão de computador, que disponibilizo em nosso github: Auto-Annotate-BR. Estou internacionalizando e adaptando a ferramenta. Creio que esse seja o primeiro trabalho do gênero em português. Dê uma olhada, e, se possível, me dê uma ajuda na divulgação e compartilhamento.

Não exatamente como previsto

Quanto à suposta emergência da Inteligencia Artificial Geral – IAG [Artificial General Inteligence – AGI] a partir das redes neurais da Microsoft, Meta e Google, o burburinho que está acontecendo com ChatGPT e similares não lembra em nada o que foi profetizado por Nick Bostrom, o grande papa da superinteligencia: a partir de uma centelha inicial a entidade inteligente cresceria exponencialmente como um Big Bang, tomando rapidamente todas as redes conectadas. Se o que vemos é a AGI ela é de um tipo ainda não descrito em qualquer cenário, certamente não o de Bostrom.

Replicar o cérebro humano

Como racionalista, me inclino a concordar com Max Tegmark que a consciência é independente do substrato físico, ou seja, ela não depende necessariamente do tecido mole do qual é feito nosso cérebro. Outras bases físicas [como o silício + metais] convenientemente trabalhadas podem também servir. Considero as redes neurais uma conquista intelectual impressionante. Me parece claro que AGI vai surgir das redes neurais, uma vez que ela assim o faz nas formas de vida que conhecemos.

Os sistemas de camadas em nossas redes neurais artificiais são uma analogia bastante apta do funcionamento real do cérebro. Pelas explorações realizadas até o momento via imageamento, sabemos que as conexões neurais humanas ocorrem em áreas especializadas do cérebro, não exatamente em camadas físicas organizadas, como em uma rede neural artificial, mas em topologias neurais arranjadas em 3d, nas mais diversas configurações.

Rede neural simplificada
Exemplo simplificado de rede neural. O peso da sinapse de saída para o neurônio de adição (+) deve ser calculado antes que o neurônio de multiplicação (*) possa calcular o peso de sua sinapse de saída. Mesmo redes neurais relativamente “simples” têm centenas de milhares de neurônios e sinapses; é bastante comum uma rede neural ter mais de um milhão de arestas. Em nosso cérebro os neurônios e sinapses são trilhões. Fonte:https://medium.com/tebs-lab/deep-neural-networks-as-computational-graphs-867fcaa56c9

Para se equiparar totalmente ao modelo humano, a AGI baseada em redes neurais vai necessitar receber, dinamicamente, informação de sensores de todos os tipos [para poder tomar amostras de pelos menos cinco grandes categorias de estímulos físicos, como nós]. Aqui também vemos um paralelo com a a inteligencia natural, pois nós também rotulamos a realidade, a partir das informações dos sentidos. Chamamos os rótulos que aprendemos de ‘conceitos’ [ML classes?]; expressamos nos rótulos nossa conceitualização do mundo, também obtida através de reforço.

As redes neurais parecem ser, de fato, o caminho para a AGI. Mas não estamos nem perto de conseguir essas coisas. Se queremos chegar ao nível das redes neurais que carregamos em nossas cabeças temos que aprender mais sobre o papel das outras estruturas cerebrais, como as células gliais, que sabidamente influem na ativação e moderação das sinapses do cérebro humano [que correspondem aos ‘pesos’ nas redes neurais artificiais].

Deixando a imaginação vagar sem amarras, é possível conjecturar que as redes neurais sejam estruturas fundamentais no universo, e que a consciência e a inteligencia emerjam de algumas configurações topológicas de processamento neural [incluindo as citadas células gliais e outras estruturas].

O inimigo é outro

As redes neurais, mesmo as relativamente primitivas redes atuais, baseadas em estatística e poder de computação, vão provocar uma drástica correção em vários setores da vida. Milhões perderão empregos e meios de subsistência. Contudo, cavaleiros do apocalipse mais poderosos [e com um timing melhor] são as redes sociais. Talvez a dissolução da sociedade civilizada por conta da ação insidiosa da mídia social já tenha começado e nos encontremos irremediavelmente além do horizonte de eventos.

ChatGPT: Nada de Novo sob o Sol?

As mortes de Jeff Beck e David Crosby nas últimas semanas (meses?) me enviaram para os buracos de minhoca do YouTube para me banhar em gênio musical.

Crosby, Young e Stills em Woodstock, 1969.
Na tomada, da esq., David Crosby, Neil Young e Stephen Stiils, em Woodstock – Imagem: ctfassets.net

Lágrimas realmente vieram aos meus olhos enquanto eu assistia Crosby, Stills, Nash & Young tocarem “Wooden Ships”, em Woodstock – não, não sou tão velho. Eu não teria conseguido esse acesso incrível a essas maravilhas nem mesmo 20 anos atrás. Estamos em uma era fascinante em que podemos evocar grandes momentos da história humana, explorar maravilhas da ciência para obter um vislumbre da nossa sublime existência, ou ainda mergulhar em maravilhas artísticas que antes de nós nem sabíamos que existiam.

Mas há problemas no paraíso. A “economia da atenção”, movida pelas mídias sociais e acoplada ao formidável complexo de vigilância instalado nas redes do mundo inteiro certamente já anulou grande parte de qualquer progresso humano que tenha sido possibilitado pela Internet a partir do começo do século. No meio da tormenta surgem novas Hidras de várias cabeças, na forma de redes neurais cada vez mais eficientes em parecer humanas.

A IA é problemática quando pensamos nela como uma continuação – ou substituição – de nós mesmos. Afinal, pode ela aumentar a quantidade de felicidade no mundo? Pode ela, como a aparência sugere, ser parceira da engenhosidade e do discernimento humanos, apesar dos piores impulsos de muitos de nós? As harmonias de CSN&Y ou os riffs de guitarra de Jeff Beck são breves momentos brilhantes que não podem ser replicados por nenhuma máquina – e as pessoas muitas vezes não parecem apreciar a maravilha de termos acesso a tanto.

Temer o desconhecido sempre foi uma obsessão humana constante. Podem as epifanias tecnológicas recentes transformarem a fantasia em uma realidade que nos inspire?

Talvez não haja nada de novo sob o sol

A IA agora pode fazer o que escritores menores sempre fizeram: recombinar clichês de maneiras suficientemente novas para parecer originais. Como os próprios clichês são criações dos humanos, então não podemos acusar a IA de ser totalmente desumana. Se a maioria dos humanos não consegue perceber a diferença entre o original e a cópia, isso também não é novidade; os especialistas continuam a discutir se ‘Shakespeare’ são várias pessoas – talvez para justificar as peças e poemas não tão bons. E aqueles que não conseguem perceber a diferença continuarão a desfrutar de ambos no mesmo grau.

No curto prazo, me preocupo menos com a IA tentando dominar o mundo no estilo Terminator do que com os pequenos crimes assistidos por IA. Imagine a IA conduzindo um esquema de catfishing na Internet; IA que pode imitar instantânea e perfeitamente todo o site de um comércio ou banco; ou IA que pode emular perfeitamente seu marido ligando para você porque ele esqueceu a senha do cartão de caixa eletrônico.

A IA é o cúmplice criminoso perfeito porque não tem consciência e não pode ser ameaçada de prisão ou humilhação pública. Em uma reviravolta irônica, posso imaginar uma sociedade onde paradoxalmente um grande segmento da população retorna a uma economia puramente monetária usando dinheiro físico porque qualquer coisa eletrônica se tornou muito difícil de proteger ou confiar.

Engraçado, como todo mundo eu experimentei o ChatGPT também pela primeira vez recentemente. Eu estava especialmente interessado em como isso faria conexões no meu campo de trabalho e na minha ciência. Por enquanto, devo dizer que falhou miseravelmente no teste. O resultado da interação é altamente dependente de como você expressa a entrada [o prompt]. Portanto, se seu prompt for sugestivo de alguma forma, a resposta tenderá a confirmar a sugestão. Eu poderia obter dois resultados radicalmente diferentes, simplesmente alterando uma única palavra na frase de entrada.

O ChatGPT não teve nenhum problema em me dizer duas descrições completamente contraditórias do mesmo fenômeno que diferiam em apenas uma palavra, ou seja, se eu expressei a entrada como positiva ou negativa. No entanto, reconheço que, de fato, surgiram algumas conexões interessantes que eu não havia considerado, e que me levaram a fazer mais pesquisas na literatura disponível. Posso ver que a deverá ser uma interessante ferramenta para geração de senhas seguras e memoráveis, por exemplo.

Resumindo, é um instrumento útil e poderoso, se você souber como e onde ele falha. Não acredite em nada do que ele diz, mas siga o “zum-zum” que ele cria e procure você mesma a literatura relevante e os fatos validados. Com certeza continuarei a usá-lo, com essas ressalvas em mente.

Para todos: não use o ChatGPT para obter aconselhamento médico. Isso provavelmente te matará, porque fazer isso é uma coisa boa. Tudo depende de como você faz sua pergunta.

Atenção ao final

Existem várias desvantagens ou ameaças potenciais associadas ao ChatGPT e outros Grandes Modelos de Linguagem como ele. Uma das principais preocupações é a possibilidade de esses modelos serem usados para fins maliciosos, como criar notícias falsas ou se passar por pessoas reais no mundo online. Além disso, como o ChatGPT é treinado em um grande conjunto de dados de texto recolhidos da Internet, ele pode conter vieses ou imprecisões presentes nos dados em que foi treinado.

Também existe a preocupação de que esses modelos possam ser usados para automatizar tarefas realizadas por humanos, levando potencialmente à perda de empregos. Outra preocupação é o consumo de energia necessário para treinar e executar esses modelos, o que pode ter um impacto ambiental significativo. Por fim, existe o risco de que o modelo perpetue ou amplifique preconceitos sociais ou leve à criação de IA maliciosa ou ataques cibernéticos auxiliados por IA. É importante observar que a pesquisa e o desenvolvimento desses modelos estão em pleno andamento e há esforços contínuos para mitigar esses riscos e desvantagens.


Os dois últimos parágrafos foram escritos pelo ChatGPT e o texto levou cerca de meio minuto para ser escrito.

Reflexões sobre ‘AI Art’ no Início de um Ano

O aparecimento de ferramentas muito sofisticadas de redes neurais no fim do ano passado, inaugurou uma crise existencial nas artes e na tecnologia. Proponho começar o ano do blog com esse assunto.

Quadros em uma parede
Imagem: Pexels

Estivemos atentos ao notável desfile de novas ferramentas de Inteligência Artificial apresentadas durante o ano passado.

As novas tecnologias de fato apresentam desafios aos artistas, o que sempre aconteceu. Mas não tenho certeza se o desafio da arte feita com inteligência artificial é tão diferente do desafio da arte feita por primatas ou elefantes. Ambos os casos revelam o problema subjacente de definir a arte em nosso tempo.

Historicamente e transculturalmente, a arte sempre teve muitas definições e serviu a muitas funções. Me parece necessário oferecer um contexto mais amplo para esta discussão, que até agora tem sido um tanto estreita e árida – mas isso é verdade para quase todas as discussões sobre arte em nosso tempo, não apenas para as deste assunto.

A noção atual de arte surgiu após o advento de duas novas tecnologias:

  • (a) fotografia,

que levantou questões sobre continuar a usar métodos mais antigos de imitar a natureza, e

  • b) fotografia reproduzida em massa (incluindo cinematografia),

que levantou questões sobre a singularidade – entendida como convergência de tecnologias – e da inovação como características definidora da arte. Mas é preciso observar que a arte é uma característica universal do gênero humano. Nem toda pessoa produz arte ou se interessa por ela, mas toda sociedade humana se preocupa com ela. Nem todas as sociedades, no entanto, definiram a arte da mesma forma ou atribuíram-lhe as mesmas funções.

O propósito da arte às vezes tem sido codificar simbolicamente e, assim, preservar o conhecimento prático, como quais plantas são comestíveis e quais não são. Ou para sinalizar o status e o poder de potentados. Ou para celebrar os ancestrais (como os totens da América do Norte). Ou, como objetos sacramentais, para mediar o sagrado. Ou para ajudar na meditação. Ou para promover a apreciação da beleza.

A arte segundo diversos povos

Ao contrário dos gregos, os egípcios não valorizavam nem a singularidade nem a inovação em si. Pelo contrário, valorizavam a fidelidade à tradição. Seus estilos artísticos mudaram, lentamente, mas não porque eles sentiram qualquer necessidade de experimentar ou melhorar paradigmas antigos.

Os chineses seguiram esse padrão. Eles também não valorizavam a inovação. Os artistas podiam pintar o mesmo ramo de bambu repetidamente, durante anos, antes de encontrar sua essência. Eles queriam que os artistas descobrissem o eterno Tao na natureza e o transmitissem em termos visuais.

Da mesma forma, os japoneses não restauravam seus templos. Em vez disso, eles continuavam a reconstruir essas estruturas – isto é, a reproduzir os protótipos exatamente da mesma maneira, de novo e de novo.

No Ocidente, os artistas medievais raramente assinavam suas próprias obras. Tampouco estabeleceram a iconografia – tarefa que a Igreja realizou por eles. Até hoje, os cristãos ortodoxos orientais recriam ícones antigos. Eles valorizam artistas que demonstram piedade pessoal acima da ambição pessoal.

No momento, como eu já disse, a arte é definida quase exclusivamente em conexão com a singularidade e a inovação. Os artistas não passam mais fome nos proverbiais sótãos na margem esquerda do Sena, mas tentam conquistar uma imagem pública de figuras de vanguarda na luta contra os “valores burgueses”.

Muitos artistas descrevem seu trabalho em conexão com a reforma ou revolução social e política. Outros artistas, seguindo a tendência contemporânea ao individualismo, usam seu trabalho para se expressar psicologicamente.

Outros tantos artistas usam linguagem científica para descrever seu trabalho, como se estivessem fazendo experimentos para aprender sobre a física da luz ou dos fenômenos ópticos. Nesse contexto, faz sentido questionar se uma obra de arte é original (com valor artístico e financeiro) ou cópia (com pouco ou nenhum valor).

Concluo

Um crescente número de pessoas ligadas à arte parece rejeitar qualquer linha dura de separação entre arte e mero artifício – me ocorre que alguns dos mais hábeis pintores de cavernas também poderiam considerar uma tela de tecido trapaça.

Na minha opinião, as tecnologias emergentes devem ser rotuladas como tal, para que possamos ver o que ela realmente tem ou não, e chegar mais perto de uma avaliação honesta assim que nossa indignação diminuir. Duvido que alguma inteligência artificial possa produzir algo que rivalize com as grandes e eternas obras de arte. Mas se chegar a tanto, que se mantenha-o rotulado como “Produzido por IA” [por favor].

A máquina mais sofisticada em existência não se pode comparar nem remotamente, no sentido verdadeiro, ao ser humano. Há uma diferença categórica. Uma inteligência projetada não cria verdadeiramente seu output, pelo menos não ainda. E se consideramos elementos como “musas”, “inspiração” e coisas do gênero, talvez os grandes artistas também não criem todas as suas obras espontaneamente.

Mas uma pessoa não se safaria levando o crédito pela beleza de uma paisagem selvagem. E um zircônio não pode reivindicar legalmente ser um diamante (mesmo que tenha personalidade). A distinção entre beleza natural, humana e a simulada por máquina permanece significativa – pelo menos por enquanto.

Parece improvável que isso mude completamente, mas se estamos indo em direção a uma completa indistinção entre homem e máquina, eu “exijo” que mantenhamos o controle e coloquemos carimbos de identificação em nossos Senhores Robôs.