Imagine uma coleção de livros – talvez milhões ou até bilhões deles – jogada ao acaso pelos editores em uma pilha em um campo. A cada dia a pilha cresce exponencialmente.
Esses livros estão repletos de conhecimentos e respostas. Mas como um buscador os encontraria? Sem organização, os livros são inúteis.
Esta é a Internet bruta em toda a sua glória não filtrada. É por isso que a maioria de nossas buscas por “iluminação” online começa com o Google (e sim, ainda existem outros mecanismos de busca). Os tentáculos algorítmicos do Google examinam e indexam todos os livros dessa pilha ímpia. Quando alguém insere uma consulta na barra de pesquisa, o algoritmo de pesquisa examina sua versão indexada da Internet, exibe as páginas e as apresenta em uma lista classificada dos principais acessos.
Essa abordagem é extremamente útil. Tão útil, na verdade, que não mudou fundamentalmente em mais de duas décadas. Mas agora, os pesquisadores de IA do Google, a mesma empresa que definiu o padrão para os motores de busca, estão esboçando um plano para o que pode vir a seguir.
Em um artigo sobre o servidor de pré-impressão arXiv, a equipe sugere que a tecnologia para tornar a Internet ainda mais pesquisável está ao nosso alcance. Eles dizem que grandes modelos de linguagem – algoritmos de aprendizado de máquina como o GPT-3 da OpenAI – poderiam substituir totalmente o sistema atual de indexar, recuperar e então classificar.
A IA é o mecanismo de busca do futuro?
Ao buscar informações, a maioria das pessoas adoraria perguntar a um especialista e obter uma resposta diferenciada e confiável, escrevem os autores. Em vez disso, eles pesquisam no Google. Isso pode funcionar ou dar terrivelmente errado.
Embora os mecanismos de pesquisa pareçam conter pelo menos partes de uma resposta, o fardo recai sobre o pesquisador para verificar, filtrar e ler os resultados para reunir essa resposta da melhor maneira possível.
Os resultados da pesquisa têm melhorado muito ao longo dos anos. Ainda assim, a abordagem está longe de ser perfeita.
Existem ferramentas de perguntas e respostas, como Alexa, Siri e Google Assistant. Mas essas ferramentas são frágeis, com um repertório limitado (embora crescente) de questões que podem responder. Embora tenham suas próprias deficiências, grandes modelos de linguagem como GPT-3 são muito mais flexíveis e podem construir novas respostas em linguagem natural para qualquer consulta ou prompt.
A equipe do Google sugere que a próxima geração de mecanismos de pesquisa pode sintetizar o melhor de todos os mundos, dobrando os principais sistemas de recuperação de informações da atualidade em IA em larga escala.
É importante notar que o aprendizado de máquina já está em funcionamento nos mecanismos de pesquisa clássicos de indexação, recuperação e classificação. Mas, em vez de meramente aumentar o sistema, os autores propõem que o aprendizado de máquina poderia substituí-lo totalmente.
“O que aconteceria se nos livrássemos completamente da noção de índice e o substituíssemos por um grande modelo pré-treinado que codifica de forma eficiente e eficaz todas as informações contidas no corpus?” Donald Metzler e co-autores escrevem no paper. “E se a distinção entre recuperação e classificação fosse embora e, em vez disso, houvesse uma única fase de geração de resposta?”
Um resultado ideal que eles imaginam é um pouco como o computador da nave estelar Enterprise em Star Trek. Os buscadores de informações fazem perguntas, o sistema responde de forma coloquial, ou seja, com uma resposta em linguagem natural, como você esperaria de um especialista, e inclui citações oficiais em sua resposta.
No artigo, os autores esboçam o que chamam de exemplo aspiracional de como essa abordagem pode ser na prática. Um usuário pergunta: “Quais são os benefícios do vinho tinto para a saúde?” O sistema retorna uma resposta matizada em prosa clara de várias fontes oficiais – neste caso WebMD e a Clínica Mayo – destacando os benefícios e riscos potenciais de beber vinho tinto.
Não precisa terminar aí, no entanto. Os autores observam que outro benefício dos grandes modelos de linguagem é sua capacidade de aprender muitas tarefas com apenas alguns pequenos ajustes (isso é conhecido como aprendizagem única ou poucas tentativas). Portanto, eles podem ser capazes de realizar todas as mesmas tarefas que os mecanismos de pesquisa atuais realizam, e dezenas de outras também.
Ainda é apenas uma visão
Hoje, essa visão está fora de alcance. Modelos de grande linguagem são o que os autores chamam de “diletantes”.
Algoritmos como GPT-3 podem produzir prosa que é, às vezes, quase indistinguível de passagens escritas por humanos, mas eles também estão sujeitos a respostas sem sentido. Pior, eles refletem imprudentemente preconceitos embutidos em seus dados de treinamento, não têm senso de compreensão contextual e não podem citar fontes (ou mesmo separar fontes de alta e baixa qualidade) para justificar suas respostas.
“Eles parecem saber muito, mas seu conhecimento é superficial”, escrevem os autores. O documento também apresenta os avanços necessários para preencher a lacuna. Na verdade, muitos dos desafios que eles descrevem se aplicam ao campo em geral.
Um avanço importante seria ir além dos algoritmos que apenas modelam as relações entre os termos (como palavras individuais) para algoritmos que também modelam a relação entre as palavras em um artigo, por exemplo, e o artigo como um todo. Além disso, eles também modelariam as relações entre muitos artigos diferentes na Internet.
Os pesquisadores também precisam definir o que constitui uma resposta de qualidade. Isso em si não é uma tarefa fácil. Mas, para começar, os autores sugerem que as respostas de alta qualidade devem ser confiáveis, transparentes, imparciais, acessíveis e conter perspectivas diversas.
Mesmo os algoritmos mais modernos de hoje não chegam perto dessa barreira. E não seria sensato implantar modelos de linguagem natural nesta escala até que sejam resolvidos. Mas se resolvido – e já há trabalho sendo feito para lidar com alguns desses desafios – os mecanismos de pesquisa não seriam os únicos aplicativos a se beneficiar.
‘Early Grey, Hot’
É uma visão atraente. Vasculhar páginas da web em busca de respostas enquanto tenta determinar o que é confiável e o que não é pode ser exaustivo.
Sem dúvida, muitos de nós não fazemos o trabalho tão bem quanto poderíamos ou deveríamos.
Mas também vale a pena especular como uma internet acessada dessa forma mudaria a forma como as pessoas contribuem para ela.
Se consumirmos informações principalmente lendo respostas em prosa e sintetizadas por algoritmos – em vez de abrir e ler as próprias páginas individuais – os criadores publicariam tanto trabalho? E como o Google e outros fabricantes de mecanismos de pesquisa compensariam os criadores que, em essência, estão produzindo as informações que treinam os próprios algoritmos?
Ainda haveria muitas pessoas lendo as notícias e, nesses casos, os algoritmos de pesquisa precisariam fornecer listas de histórias. Mas eu me pergunto se uma mudança sutil pode ocorrer onde os criadores menores adicionam menos e, ao fazer isso, a web se torna menos rica em informações, enfraquecendo os próprios algoritmos que dependem dessas informações.
Não há como saber. Frequentemente, a especulação está enraizada nos problemas de hoje e se mostra inocente em retrospecto. Nesse ínterim, o trabalho continuará sem dúvida.
Talvez possamos resolver esses desafios – e mais à medida que eles surgem – e no processo chegarmos àquele computador de Jornada nas estrelas onisciente e agradavelmente falante que há muito imaginamos.
Jason Dorrier para SingularityHub.