Google Reloaded: Transformando Sistemas Diletantes em Especialistas

A emergência do Google em 1998 foi devida ao algoritmo PageRank, uma inovação assombrosa na época. Ele classificava a relevância dos resultados da pesquisa com base em seus links para outras páginas na web. Em cima do PageRank, o Google se tornou a porta de entrada para a internet, e Sergey Brin e Larry Page construíram uma das maiores empresas do mundo.

Agora, uma equipe de pesquisadores do Google publicou no site ArXiv, no último dia 5 de maio, uma proposta para um redesenho radical do sistema, que descarta a abordagem de classificação e a substitui por um único grande modelo de linguagem de Aprendizagem de Máquina, como o BERT ou GPT-3 – ou uma versão futura deles. A ideia é que, ao invés de buscar informações em uma vasta lista de páginas da web, os usuários façam perguntas e tenham um modelo de linguagem treinado que possa respondê-las diretamente. A abordagem pode mudar não apenas a forma como os mecanismos de pesquisa funcionam, mas o que eles fazem e como interagimos com eles.

* * *

Repensando a Busca: Transformando Diletantes em Especialistas

Resumo

Quando precisam de informação, os usuários da Internet desejam [na realidade] se envolver com um especialista, mas tudo o que podem fazer é recorrer a um sistema de recuperação de informações, como um mecanismo de busca. Os sistemas clássicos de recuperação de informação não respondem diretamente às necessidades de informação, mas fornecem referências para respostas (que os usuários tomam como fontes autoritativas). Mesmo os sistemas de resposta a perguntas mais bem-sucedidos oferecem um ‘corpus’ limitado, que não é nem oportuno nem escalonável, criado sob demanda por especialistas humanos.

Grandes modelos de linguagem pré-treinados [como os sistemas de Apredizagem de Máquina do Google], por outro lado, são capazes de gerar diretamente uma prosa que pode responder a uma necessidade de informação. No presente esses sistemas são apenas diletantes ao invés de especialistas – eles não têm uma verdadeira compreensão do mundo, eles são propensos a alucinar e, crucialmente, são incapazes de justificar suas declarações no que se refere a documentos de apoio do ‘corpus’ sobre o qual foram treinados. Este artigo examina como as ideias clássicas de recuperação de informações, bem como grandes modelos de linguagem pré-treinados, podem ser sintetizados e aprimorados, em sistemas que realmente cumprem a promessa de aconselhamento especializado.

Link para o trabalho na íntegra [em inglês].

Pare de Chamar Tudo de ‘Inteligência Artificial’!

Não existe na Neurociência uma Teoria Geral da Mente, que suporte de forma objetiva os esforços da engenharia para construir uma máquina que simule as funcionalidades do cérebro biológico. Não há sequer um esboço dessa teoria. Por esta razão, os sistemas de inteligência artificial geral ainda estão muito longe de ser avançados o suficiente para substituir os humanos em muitas tarefas envolvendo o raciocínio, o conhecimento do mundo real e a interação social.

A versão contemporânea da Inteligência Artificial é apenas um algoritmo, propriamente chamado de Aprendizagem de Máquina.

Sem dúvida eles têm mostrado competência de nível aparentemente humano em habilidades repetitivas de reconhecimento de baixo nível, mas no nível cognitivo eles estão apenas imitando a inteligência humana, obedecendo a um rígido algoritmo clássico; uma máquina eletrônica incapaz de qualquer pensamento, raso ou profundo, ou criatividade, diz Michael I. Jordan, um pesquisador líder em AI e aprendizagem de máquinas.

Jordan é professor no Departamento de Engenharia Elétrica e Ciência da Computação, e do Departamento de Estatística, na Universidade da Califórnia, Berkeley. Ele ressalta que a imitação do pensamento humano não é o único objetivo da aprendizagem de máquina – o campo da engenharia de software que sustenta o progresso recente na busca da AI – ou mesmo o melhor objetivo. Em vez disso, a aprendizagem de máquina pode servir para estender a inteligência humana, via análise meticulosa de grandes conjuntos de dados, da mesma maneira que um mecanismo de busca aumenta o conhecimento humano organizando a Web. A aprendizagem de máquina também pode fornecer novos serviços aos seres humanos, em domínios como saúde, comércio e transporte, reunindo informações armazenadas em vários conjuntos de dados, encontrando padrões e propondo novos cursos de ação.

“As pessoas estão ficando confusas com o significado de AI nas discussões sobre tendências de tecnologia – existe uma noção de que há nos computadores algum tipo de pensamento inteligente responsável ​​pelo progresso, e que essa inteligência está competindo com os humanos”, diz ele. “Nós não temos isso, mas as pessoas falam como se tivéssemos.” Jordan deve saber. Afinal, o Fellow da IEEE é uma das autoridades líderes do mundo em aprendizado de máquina. Em 2016, ele foi considerado o mais influente cientista de computação por um programa que analisou publicações de pesquisa, informou a revista Science.

Jordan ajudou a transformar o campo da aprendizagem de máquina não supervisionada [que pode encontrar padrões e estruturas em massas de dados não indexados], de uma coleção de algoritmos não relacionados a um campo intelectualmente coerente. A aprendizagem não supervisionada desempenha um papel importante em aplicações científicas, especialmente onde não há dados uniformemente formatados sobre um problema (como o tráfego da Internet, por exemplo).

“Embora as extrapolações da ficção científica sobre AI e super inteligência sejam divertidas, elas são apenas uma distração “, diz ele. “Não tem havido foco suficiente no problema real, que é construir sistemas baseados em aprendizagem de máquina em escala planetária que realmente funcionem, ofereçam valor para os seres humanos e não ampliem as desigualdades.

Na íntegra em spectrum.ieee.org (em inglês)