Categorias
Blog

Pesquisadores de IA do Google estão sonhando com um novo mecanismo de pesquisa

Imagine uma coleção de livros – talvez milhões ou até bilhões deles – jogada ao acaso pelos editores em uma pilha em um campo. A cada dia a pilha cresce exponencialmente.

Esses livros estão repletos de conhecimentos e respostas. Mas como um buscador os encontraria? Sem organização, os livros são inúteis.

Esta é a Internet bruta em toda a sua glória não filtrada. É por isso que a maioria de nossas buscas por “iluminação” online começa com o Google (e sim, ainda existem outros mecanismos de busca). Os tentáculos algorítmicos do Google examinam e indexam todos os livros dessa pilha ímpia. Quando alguém insere uma consulta na barra de pesquisa, o algoritmo de pesquisa examina sua versão indexada da Internet, exibe as páginas e as apresenta em uma lista classificada dos principais acessos.

Essa abordagem é extremamente útil. Tão útil, na verdade, que não mudou fundamentalmente em mais de duas décadas. Mas agora, os pesquisadores de IA do Google, a mesma empresa que definiu o padrão para os motores de busca, estão esboçando um plano para o que pode vir a seguir.

Em um artigo sobre o servidor de pré-impressão arXiv, a equipe sugere que a tecnologia para tornar a Internet ainda mais pesquisável está ao nosso alcance. Eles dizem que grandes modelos de linguagem – algoritmos de aprendizado de máquina como o GPT-3 da OpenAI – poderiam substituir totalmente o sistema atual de indexar, recuperar e então classificar.

A IA é o mecanismo de busca do futuro?
Ao buscar informações, a maioria das pessoas adoraria perguntar a um especialista e obter uma resposta diferenciada e confiável, escrevem os autores. Em vez disso, eles pesquisam no Google. Isso pode funcionar ou dar terrivelmente errado.

Embora os mecanismos de pesquisa pareçam conter pelo menos partes de uma resposta, o fardo recai sobre o pesquisador para verificar, filtrar e ler os resultados para reunir essa resposta da melhor maneira possível.

Os resultados da pesquisa têm melhorado muito ao longo dos anos. Ainda assim, a abordagem está longe de ser perfeita.

Existem ferramentas de perguntas e respostas, como Alexa, Siri e Google Assistant. Mas essas ferramentas são frágeis, com um repertório limitado (embora crescente) de questões que podem responder. Embora tenham suas próprias deficiências, grandes modelos de linguagem como GPT-3 são muito mais flexíveis e podem construir novas respostas em linguagem natural para qualquer consulta ou prompt.

A equipe do Google sugere que a próxima geração de mecanismos de pesquisa pode sintetizar o melhor de todos os mundos, dobrando os principais sistemas de recuperação de informações da atualidade em IA em larga escala.

É importante notar que o aprendizado de máquina já está em funcionamento nos mecanismos de pesquisa clássicos de indexação, recuperação e classificação. Mas, em vez de meramente aumentar o sistema, os autores propõem que o aprendizado de máquina poderia substituí-lo totalmente.

“O que aconteceria se nos livrássemos completamente da noção de índice e o substituíssemos por um grande modelo pré-treinado que codifica de forma eficiente e eficaz todas as informações contidas no corpus?” Donald Metzler e co-autores escrevem no paper. “E se a distinção entre recuperação e classificação fosse embora e, em vez disso, houvesse uma única fase de geração de resposta?”

Um resultado ideal que eles imaginam é um pouco como o computador da nave estelar Enterprise em Star Trek. Os buscadores de informações fazem perguntas, o sistema responde de forma coloquial, ou seja, com uma resposta em linguagem natural, como você esperaria de um especialista, e inclui citações oficiais em sua resposta.

No artigo, os autores esboçam o que chamam de exemplo aspiracional de como essa abordagem pode ser na prática. Um usuário pergunta: “Quais são os benefícios do vinho tinto para a saúde?” O sistema retorna uma resposta matizada em prosa clara de várias fontes oficiais – neste caso WebMD e a Clínica Mayo – destacando os benefícios e riscos potenciais de beber vinho tinto.

Não precisa terminar aí, no entanto. Os autores observam que outro benefício dos grandes modelos de linguagem é sua capacidade de aprender muitas tarefas com apenas alguns pequenos ajustes (isso é conhecido como aprendizagem única ou poucas tentativas). Portanto, eles podem ser capazes de realizar todas as mesmas tarefas que os mecanismos de pesquisa atuais realizam, e dezenas de outras também.

Ainda é apenas uma visão
Hoje, essa visão está fora de alcance. Modelos de grande linguagem são o que os autores chamam de “diletantes”.

Algoritmos como GPT-3 podem produzir prosa que é, às vezes, quase indistinguível de passagens escritas por humanos, mas eles também estão sujeitos a respostas sem sentido. Pior, eles refletem imprudentemente preconceitos embutidos em seus dados de treinamento, não têm senso de compreensão contextual e não podem citar fontes (ou mesmo separar fontes de alta e baixa qualidade) para justificar suas respostas.

“Eles parecem saber muito, mas seu conhecimento é superficial”, escrevem os autores. O documento também apresenta os avanços necessários para preencher a lacuna. Na verdade, muitos dos desafios que eles descrevem se aplicam ao campo em geral.

Um avanço importante seria ir além dos algoritmos que apenas modelam as relações entre os termos (como palavras individuais) para algoritmos que também modelam a relação entre as palavras em um artigo, por exemplo, e o artigo como um todo. Além disso, eles também modelariam as relações entre muitos artigos diferentes na Internet.

Os pesquisadores também precisam definir o que constitui uma resposta de qualidade. Isso em si não é uma tarefa fácil. Mas, para começar, os autores sugerem que as respostas de alta qualidade devem ser confiáveis, transparentes, imparciais, acessíveis e conter perspectivas diversas.

Mesmo os algoritmos mais modernos de hoje não chegam perto dessa barreira. E não seria sensato implantar modelos de linguagem natural nesta escala até que sejam resolvidos. Mas se resolvido – e já há trabalho sendo feito para lidar com alguns desses desafios – os mecanismos de pesquisa não seriam os únicos aplicativos a se beneficiar.

‘Early Grey, Hot’
É uma visão atraente. Vasculhar páginas da web em busca de respostas enquanto tenta determinar o que é confiável e o que não é pode ser exaustivo.

Sem dúvida, muitos de nós não fazemos o trabalho tão bem quanto poderíamos ou deveríamos.

Mas também vale a pena especular como uma internet acessada dessa forma mudaria a forma como as pessoas contribuem para ela.

Se consumirmos informações principalmente lendo respostas em prosa e sintetizadas por algoritmos – em vez de abrir e ler as próprias páginas individuais – os criadores publicariam tanto trabalho? E como o Google e outros fabricantes de mecanismos de pesquisa compensariam os criadores que, em essência, estão produzindo as informações que treinam os próprios algoritmos?

Ainda haveria muitas pessoas lendo as notícias e, nesses casos, os algoritmos de pesquisa precisariam fornecer listas de histórias. Mas eu me pergunto se uma mudança sutil pode ocorrer onde os criadores menores adicionam menos e, ao fazer isso, a web se torna menos rica em informações, enfraquecendo os próprios algoritmos que dependem dessas informações.

Não há como saber. Frequentemente, a especulação está enraizada nos problemas de hoje e se mostra inocente em retrospecto. Nesse ínterim, o trabalho continuará sem dúvida.

Talvez possamos resolver esses desafios – e mais à medida que eles surgem – e no processo chegarmos àquele computador de Jornada nas estrelas onisciente e agradavelmente falante que há muito imaginamos.

Jason Dorrier para SingularityHub.

Categorias
Blog

Nüwa, a proposta de cidade construída dentro de um penhasco gigante, em Marte

Apesar de serem capazes de pousar em Marte e pilotar helicópteros lá, parece que os humanos ainda estão um pouco longe de realmente colocarem os pés no planeta vermelho. Mas para um empreendimento sem precedentes como colonizar outro planeta, você tem que sonhar grande – e planejar com antecedência. Isso é o que uma equipe internacional de cientistas e outros especialistas está fazendo, e eles criaram não apenas um projeto, mas um plano completo para construir a primeira cidade marciana, completa com moradia, alimentação, transporte e energia sustentáveis.

Descrita em um artigo publicado em março, a cidade é fruto da imaginação do escritório de arquitetura ABIBOO Studio e de um grupo multidisciplinar de especialistas em espaço da academia e do setor privado chamado SONet (abreviação de Sustainable Offworld Network). A Mars Society solicitou planos para uma cidade marciana em 2020, e este projeto, chamado Nüwa, foi um dos vários finalistas. Um vídeo que parece ter saído diretamente de um filme de ficção científica de Hollywood dá uma ideia do design.

Nüwa seria a capital em um projeto formado por cinco cidades interligadas, cada uma abrigando de 200.000 a 250.000 pessoas. A localização de Nüwa, Tempe Mensa, foi escolhida porque sua geografia atuará como um escudo natural da radiação; a área contém um extenso planalto cercado por altos penhascos íngremes, e a ideia é escavar esses penhascos e construir a cidade dentro deles. A localização e o projeto também dariam aos residentes acesso indireto à luz do sol, protegendo-os de meteoritos caso algum caísse nas proximidades e ajudando a minimizar a diferença na pressão atmosférica entre o interior e o exterior dos edifícios.

“Se construíssemos os edifícios como na Terra, os edifícios tenderiam a explodir com a pressão. A radiação solar e gama em Marte nos obrigou a construir espaços não expostos diretamente ao céu ”, disse Alfredo Muñoz, fundador do ABIBOO Studio, em um comunicado à imprensa.

Os “macro-edifícios” concebidos para a cidade são modulares e em forma de enormes tubos (10 metros de largura por 60 metros de comprimento), com diferentes modelos destinados a habitar e trabalhar. Os módulos seriam interligados por túneis e elevadores, semelhantes aos encontrados em áreas urbanas da Terra. Todos os módulos incluem espaço para áreas verdes, bem como áreas chamadas “domos de neve” que ajudariam a dissipar o calor e limpar o ar por meio da condensação. Cada macro-edifício teria um chuveiro de ar em sua entrada, que os visitantes usariam para esterilizar micróbios e outras substâncias potencialmente prejudiciais.

O interior de uma das “cúpulas verdes” de Nuwa, representação artística. Crédito da imagem: Abiboo Studio / SONet

A infraestrutura para a produção de alimentos e energia será construída no topo plano da meseta. Já que transportar qualquer tipo de material da Terra para Marte em uma base regular não levaria apenas meses, mas teria um custo proibitivo, a cidade precisaria ser autossustentável, com todas as necessidades dos habitantes capazes de ser atendidas usando material local. Parece complicado, já que Marte é atualmente um trecho desolado de rocha avermelhada sem formas de vida identificáveis, certo?

“À medida que a cidade cresce, ela precisa ser capaz de depender apenas dos recursos diretamente de Marte e reciclar o máximo que pudermos”, disse Gisela Detrell, engenheira aeroespacial que faz parte do projeto. “De todas as maneiras que nós, humanos, produzimos, devemos ser capazes de produzir oxigênio, água e alimentos suficientes para sustentar os humanos e fechar o ciclo quase completamente”.

A principal fonte de alimento dos residentes seriam as safras hidropônicas cultivadas em módulos dedicados, onde o ar seria enriquecido com CO2, e a manutenção e a colheita das safras realizadas por sistemas automatizados – talvez semelhantes a algumas fazendas verticais altamente automatizadas já em operação na Terra. Não há muitos detalhes sobre quais plantações especificamente serão cultivadas, embora a equipe observe que as algas seriam uma parte crítica da dieta dos residentes de Nüwa.

Um módulo agrícola de Nuwa, representação artística. Crédito da imagem: ABIBOO Studio / SONet

E, sem surpresa, o planeta vermelho não será um ótimo lugar para carnívoros amantes de carne. O plano menciona a produção de carne celular e áreas de cultivo “relativamente pequenas” para animais e insetos, mas dados os recursos e energia necessários para produzir gado – que estamos tendo bastante dificuldade aqui na Terra – a carne será uma parte mínima de a dieta marciana.

“Ela tem especialistas por trás disso e foi inovadora na forma como resolvemos muitos dos desafios que enfrentaremos ao estabelecer um assentamento de Marte”, disse Munoz. “Fizemos isso de uma maneira muito escalonável, criando espaços que serão potencialmente emocionantes e bonitos.”

A equipe estima que a construção da cidade pode começar em 2054, com os primeiros residentes se mudando por volta de 2100 – mas essas são estimativas, com muitos fatores de impacto que podem acabar criando um cronograma diferente; embora esteja a mais de 30 anos de distância, a meta parece ambiciosa, visto que os humanos ainda não chegaram nem perto de ir a Marte.

O nome Nüwa vem de uma deusa da mitologia chinesa. Retratado na arte antiga como o corpo de uma cobra com cabeça humana, Nüwa era visto como o criador que moldou os primeiros seres humanos de argila e era conhecido por criar e reproduzir pessoas após uma grande calamidade. Esperançosamente, este último aspecto do nome não será aplicável à cidade marciana; em qualquer caso, para citar Matt Damon em “The Martian” (e talvez nunca tenha havido um momento ou lugar mais relevante para esta citação), os designers e engenheiros de Nüwa “gonna have to science the sh*t out of this.”

SingularityHub

Categorias
Blog

Toyota está construindo um protótipo de cidade futurista movida a hidrogênio

A maior parte do foco para tornar os carros autônomos uma realidade generalizada está nos próprios carros, especificamente na tecnologia que eles precisam para interagir com segurança com o mundo ao seu redor: sensores, câmeras e similares, todos baseados em softwares que integram IA e aprendizado de máquina. Mas e se não for tudo sobre os carros? Talvez seja igualmente importante preparar as cidades para se adaptarem a um futuro sem motoristas. É nisso que a maior montadora do mundo está apostando, de qualquer maneira.

Ao sul de Tóquio, na base do Monte Fuji, a Toyota está liderando um projeto que chama de Woven City. Os planos para o protótipo futurístico da cidade foram revelados na CES em 2020, e a construção começou em fevereiro passado. Esta semana, a Toyota anunciou que está fazendo parceria com a empresa japonesa de petróleo ENEOS para construir um sistema de célula de combustível de hidrogênio que será a fonte de energia da cidade.

Movida a hidrogênio
O hidrogênio é uma fonte de energia promissora e complicada. Sua densidade de energia é quase três vezes maior que a da gasolina em uma base de massa, mas em uma base de volume é muito menos densa, o que significa que precisa ser comprimida para obter mais energia do mesmo volume. Atualmente, a ENEOS opera 45 postos comerciais de reabastecimento de hidrogênio em diferentes partes do Japão, e o Mirai da Toyota funciona com hidrogênio (o modelo 2021 vem com seis anos de combustível grátis!).

Como parte da parceria, a ENEOS instalará um posto de abastecimento de hidrogênio próximo a Woven City e produzirá “hidrogênio verde” lá, que fornecerá geradores de células a combustível na cidade. Eles também construirão um sistema de gerenciamento de oferta e demanda e farão pesquisas sobre o fornecimento de hidrogênio (não importa a opinião de Elon Musk de que as células de combustível de hidrogênio são “extremamente tolas”)

“Acreditamos que a energia do hidrogênio terá um papel fundamental na realização da neutralidade do carbono em escala global”, disse Katsuyuki Ota, presidente da ENEOS. “Ao trabalhar em conjunto com a Toyota para explorar totalmente o potencial do hidrogênio, acreditamos que podemos dar uma contribuição significativa para a criação de novos estilos de vida baseados no hidrogênio.” Os painéis solares também suprirão parte das necessidades de energia da cidade.

Inteligente, Verde, Integrado
As fontes de energia verde de Woven City são apenas uma peça do quebra-cabeça futurista que o protótipo vai montar.

As casas inteligentes da cidade serão capazes de retirar automaticamente o lixo dos residentes e reabastecer suas geladeiras (usando robôs de compras de supermercado), e a IA baseada em sensores vai até monitorar a saúde dos residentes. Se as pessoas vão aceitar esse tipo de “serviço” ou vê-lo como uma invasão de privacidade, ainda está para ser determinado. Os residentes de Woven City incluirão funcionários da Toyota e suas famílias, aposentados e cientistas, entre outros. Mais de 3.000 pessoas já se inscreveram, e a empresa planeja lançar a cidade com 2.000 residentes no início, e depois aumentar isso com o tempo.

Sensores incorporados em todos os tipos de infraestrutura enviarão dados aos carros para aumentar sua “consciência” dos arredores e das condições das estradas. Os documentos preveem que haverá até 33 milhões de carros autônomos vendidos anualmente até 2040. No entanto, há apenas cinco anos, as empresas previam que atingiríamos a autonomia total até 2020, e não foi esse o caso. Os carros autônomos, como a IA como um todo, parecem ser mais difíceis do que pensamos, e vale a pena dedicar mais tempo para trazê-los ao mercado se isso significar mais segurança, eficiência e logística urbana – sem mencionar a confiança do público.

“Construir uma cidade completa do zero, mesmo em pequena escala como esta, é uma oportunidade única de desenvolver tecnologias futuras, incluindo um sistema operacional digital para a infraestrutura da cidade. Com pessoas, edifícios e veículos todos conectados e se comunicando por meio de dados e sensores, seremos capazes de testar a tecnologia de IA conectada, tanto no mundo virtual quanto no físico, maximizando seu potencial”, disse Akio Toyoda, presidente da Toyota Motor Corporation, em um comunicado à imprensa.

Assistir como o experimento da Cidade da Toyota se desdobra pode ser uma lente reveladora para o futuro, não apenas para carros sem motorista, mas para tecnologia inteligente, energia limpa e a vontade dos residentes de viver entre milhões de sensores que coletam todos os tipos de dados sobre eles e seus dia-a-dia.

A Toyota escolheu o nome “Woven City” porque a empresa realmente começou a fabricar teares a vapor na década de 1890; neste caso, o que está sendo tecido é a tecnologia, infraestrutura e serviços para as cidades do futuro. A construção está programada para ser concluída em 2024.

Vanessa Bates Ramirez para SingularityHub.

Categorias
Blog

Implante cerebral transforma pensamentos em texto com 90% de precisão

Enviar mensagens de texto pode não ser mais rápido do que falar, mas para muitos de nós é uma maneira natural de se comunicar.

Graças a uma nova interface cérebro-computador (BCI), pessoas com paralisia agora podem fazer o mesmo – com um toque especial. Ao imaginar os movimentos de escrever cartas, um homem com lesão na coluna foi capaz de traduzir pensamentos em texto, a uma velocidade que rivaliza com a digitação com o polegar em um smartphone. A 90 caracteres por minuto e uma precisão de mais de 90 por cento após a autocorreção, o sistema supera todos os registros realizados anteriormente com implantes neurais.

O crux é um algoritmo baseado em uma rede neural popular e muito poderosa – rede neural recorrente (RNN) – além de alguns truques da comunidade de aprendizado de máquina. O resultado é um implante neural que usa IA para converter sinais elétricos do cérebro, gerados quando alguém imagina escrita à mão em texto que é exibido em um computador em tempo real.

“Isso pode ajudar a restaurar a comunicação em pessoas que estão gravemente paralisadas ou‘ presas”, disse o autor do estudo, Dr. Frank Willett, do Laboratório de Próteses Neurais de Stanford. “Deve ajudar as pessoas a se expressarem e compartilharem seus pensamentos. É muito emocionante.”

“Mindtexting” pode ser apenas o começo. O estudo sugere que, contra a crença comum, a IA parece ser melhor na decodificação de sinais cerebrais que fundamentam nossos comportamentos mais complexos, em vez de simples – um convite para reimaginar o potencial de uma simbiose cérebro-computador.

“Embora ainda haja muito trabalho a ser feito, o estudo de Willett e colegas de trabalho é um marco que amplia o horizonte das aplicações iBCI [interface invasiva cérebro-computador]”, disseram os drs. Pavithra Rajeswaran e Amy Orsborn, da Universidade de Washington, que não participaram do estudo. “Como ele usa métodos de aprendizado de máquina que estão melhorando rapidamente, conectar os modelos mais recentes oferece um caminho promissor para melhorias futuras.”

Digitando sem as mãos
O estudo faz parte do lendário projeto BrainGate, que liderou o desenvolvimento de interfaces neurais na última década para restaurar a comunicação em pessoas paralisadas. Para ser claro, esses “implantes” são fiéis ao seu nome: eles são microarranjos de minúsculos eletrodos em um chip que é inserido cirurgicamente na camada superior do cérebro.

BrainGate tem muitos sucessos alucinantes. Um é um implante que permite às pessoas pilotar braços robóticos com o pensamento. Outro sucesso ajudou pessoas paralisadas a moverem o cursor do computador com suas mentes em um tablet Android, expandindo seu universo digital para toda a esfera de aplicativos Android e, claro, e-mail e Google.

Tudo isso é possível porque o processador central, o córtex motor, ainda está intacto mesmo após a paralisia, pelo menos para movimentos relativamente simples, como alcançar ou agarrar. É como cortar o cabo do roteador sem fio: você perde o acesso online, mas a rede em si ainda está lá. Os implantes neurais tocam diretamente na fonte – os sinais elétricos que sustentam cada movimento nosso – decodificam-nos em uma linguagem que os computadores entendem e os usam para controlar outra saída: uma mão robótica, exoesqueleto ou um cursor na tela.

O problema? Usar sua mente para controlar um cursor para acertar letras em um teclado digital é terrivelmente lento. O implante de maior sucesso até agora tem em média 40 caracteres por minuto e requer cirurgia e treinamento. Mesmo um teclado de rastreamento ocular disponível no mercado que é não invasivo pode permitir que pessoas com paralisia digitem um pouco mais rápido.

O novo estudo teve uma abordagem completamente diferente: jogue fora o teclado.

Uma centelha de gênio
O participante do estudo, apelidado de T5, é um participante de longa data do BrainGate.

Em 2007, T5 sofreu um incidente traumático que danificou sua medula espinhal e o impediu de mover-se abaixo do pescoço. Em 2016, o Dr. Jaimie Henderson, um neurocirurgião de Stanford, implantou dois chips microarray na “área da mão” do giro pré-central esquerdo de T5, uma parte do cérebro que normalmente nos ajuda a planejar e controlar o movimento. Cada chip continha 96 microeletrodos para acessar a atividade elétrica do cérebro. Esses sinais neurais eram então enviados a um computador por meio de fios para processamento posterior.

É aqui que entra a magia. Os neurônios são um grupo barulhento e decifrar sinais específicos – códigos neurais – que controlam movimentos únicos é incrivelmente difícil. Em parte, é por isso que atualmente é impossível para alguém imaginar uma carta e tê-la “lida mentalmente” por uma configuração BCI. Os sinais elétricos do cérebro que codificam para letras diferentes são muito sutis para qualquer algoritmo decodificar com precisão.

A solução alternativa do novo estudo é inovadora e totalmente brilhante. Como o processo de escrever letras do alfabeto é único para cada letra, raciocinou a equipe, ele pode acionar sinais neurais diferentes o suficiente para um algoritmo distinguir qual movimento imaginado – e seu sinal cerebral associado – corresponde a qual letra.

Para começar, o paciente T5 primeiro traçou uma letra individual repetidamente em sua mente (impressa, não cursiva). Embora sua mão estivesse completamente imóvel, disseram os autores, ele “relatou a sensação de que uma caneta imaginária em sua mão se movia fisicamente e traçava as formas das letras”. Em seguida, T5 passou horas imaginando escrever grupos de frases aleatórias.

Ao mesmo tempo, seus implantes capturavam sinais neurais relacionados à escrita de cada letra, que eram “notavelmente consistentes”. Os dados foram então usados ​​para treinar um tipo de rede neural artificial chamada rede neural recorrente (RNN), que é “especialmente boa para prever dados sequenciais”. Como os RNNs tendem a ser famintos por dados, a equipe usou um truque chamado aumento de dados que reorganizou os sinais neurais anteriores, essencialmente gerando dados artificiais para fortalecer o algoritmo. Eles também injetaram algum ruído nos dados, com a esperança de que o eventual BCI fosse mais robusto contra pequenas mudanças na atividade cerebral.

Dominância do Mind-Texting
Com o tempo, o RNN foi capaz de decodificar sinais neurais e traduzi-los em letras, que eram exibidas na tela do computador. É rápido: em meio segundo, o algoritmo pode adivinhar qual letra T5 estava tentando escrever, com 94,1% de precisão. Adicione alguma função de autocorreção comum que está em todos os smartphones e a precisão aumentou para mais de 99%.

Quando solicitado a copiar uma determinada frase, T5 foi capaz de “texto mental” em cerca de 90 caracteres por minuto (cerca de 45 palavras por estimativa), “a maior taxa de digitação que já foi relatada para qualquer tipo de BCI”, escreveu a equipe e uma melhoria dupla em relação às configurações anteriores. Sua digitação em estilo livre – respondendo a perguntas – em geral combinou em desempenho e atingiu a velocidade média de mensagens de texto com o polegar de sua faixa etária.

“O estudo de Willett e seus colegas de trabalho começa a cumprir a promessa das tecnologias BCI”, disseram Rajeswaran e Orsborn, não apenas para mensagens mentais, mas também para o que vem a seguir

A ideia de explorar algoritmos de aprendizado de máquina é inteligente, sim, porque o campo está melhorando rapidamente – e ilustrando outro elo sólido entre a neurociência e a IA. Mas talvez mais importante, o desempenho de um algoritmo depende de bons dados. Aqui, a equipe descobriu que a diferença de tempo entre escrever cartas, algo bastante complexo, é o que fazia o algoritmo funcionar tão bem. Em outras palavras, para futuros BCIs, “pode ​​ser vantajoso decodificar comportamentos complexos em vez de simples, especialmente para tarefas de classificação.”

O novo sistema ainda não está pronto para as clínicas. Ele terá que ser testado em outras pessoas e ter algumas funções comuns de digitação adicionadas, como excluir ou editar texto. A equipe também deseja adicionar a capacidade de texto mental de letras maiúsculas e símbolos.

Mas o novo BCI não precisa funcionar sozinho. Outros BCIs que traduzem atividades neurais da fala em texto já existem, e é concebível para uma pessoa potencialmente alternar entre os dois métodos – escrita mental e fala – para se comunicar com outras pessoas. “Ter esses dois ou três modos e alternar entre eles é algo que fazemos naturalmente [na vida diária]”, disse a Dra. Krishna Shenoy da Universidade de Stanford, que supervisionou o estudo com o Dr. Henderson.

Mas isso é tudo para o futuro. O próximo passo imediato, disseram os autores, é trabalhar com pacientes que não falam, como pessoas que perderam a capacidade devido a um derrame ou doenças neurodegenerativas, ou aqueles que estão conscientes, mas não conseguem se mover, e restaurar sua capacidade para interagir com o mundo exterior. “A abordagem dos autores trouxe interfaces neurais que permitem a comunicação rápida muito mais perto de uma realidade prática”, disseram Rajeswaran e Orsborn.

Categorias
Blog

A nova tecnologia de chip da IBM mostra o próximo grande passo na lei de Moore

Cada vez mais, a vida moderna depende de quão habilmente transportamos elétrons através dos labirintos em nanoescala gravados em chips de computador. Esses processadores não são mais apenas para laptops – eles são usados ​​em seu carro, termostato, geladeira e micro-ondas.

E a pandemia revelou quão profundamente é nossa dependência.

Uma escassez global de chips de computador, causada por problemas de demanda e cadeia de suprimentos vacilantes, está atualmente afetando fabricantes de dispositivos, é claro, mas também fabricantes de carros, aspiradores de pó e aberturas de fogões.

Claramente, estamos viciados.

Portanto, talvez não seja surpresa que, quando as empresas anunciam chips de computador melhores, mais rápidos e mais eficientes, o mundo percebe. Esta semana, foi a vez da IBM ganhar as manchetes.

A empresa, que já foi sinônimo de computação, anunciou que demonstrou pela primeira vez um processo de fabricação de chips de 2 nanômetros (nm).

Em um comunicado à imprensa, a IBM disse que o novo processo renderia cerca de 50 bilhões de transistores em um chip do tamanho de uma unha. Também traria chips 75% mais eficientes ou 45% mais rápidos do que os atuais de 7 nm.

À primeira vista, parece que a IBM deu um salto à frente na corrida pela tecnologia de ponta em chips. Os chips mais recentes da Intel usam um processo de 10 nm e os TSMC usam um processo de 7 nm. E a empresa fez alguns progressos muito interessantes e notáveis ​​aqui. Mas comparar chips é complicado. Portanto, vale a pena dissecar as notícias um pouco mais para entender melhor o quadro geral.

Nanômetros
O progresso em chips de computador há muito é medido em etapas do tamanho de nanômetros. Cada redução produz cada vez mais componentes – mais notavelmente, transistores – agrupados na mesma área. E houve um tempo, em décadas passadas, em que a nomenclatura nanométrica realmente correspondia ao tamanho de certos elementos do chip. Mas esse tempo já passou. À medida que a tecnologia do chip avançava, as medições dos componentes do chip eram desacopladas da convenção de nomenclatura de cada geração.

No momento em que os chips deram o último grande salto para FinFET – um projeto de transistor 3D em forma de barbatana – há pouco mais de uma década, o número de nó da indústria era virtualmente sem sentido. Não se relacionava com nenhuma dimensão do chip. Atualmente, há um debate sobre qual novo número, ou combinação de números, reflete melhor o progresso. E embora isso também esteja se revelando bastante complicado, uma especificação que os especialistas propõem é a densidade do transistor por milímetro quadrado.

Para ver como a convenção de nomenclatura antiga é confusa, compare os chips de 10 nm da Intel com os chips de 7 nm da TSMC. Os dois, na verdade, têm densidades de transistores aproximadamente equivalentes, com os 100 milhões de transistores por milímetro quadrado da Intel superando os 91 milhões por milímetro quadrado da TSMC. (Acesse aqui uma tabela útil comparando o tamanho do processo e a densidade do transistor dos chips.)

A IBM não anunciou a densidade do transistor explicitamente. Mas depois de tentar esclarecer exatamente o tamanho de “unha” que eles estavam se referindo – representantes da empresa disseram cerca de 150 milímetros quadrados – a publicação AnandTech calculou que o novo processo da IBM renderia cerca de 333 milhões de transistores por milímetro quadrado. O que está, de fato, além de qualquer coisa em produção. Dito isso, um chip de 3 nm que a TSMC está fazendo para a Apple pode ostentar quase 300 milhões de transistores por milímetro quadrado e entrar em produção já no próximo ano.

Nanofolhas: o próximo passo na Lei de Moore?
Talvez a notícia mais significativa seja o design dos próprios transistores. A nova tecnologia da IBM – chamada de nanosheet ou transistores gate-all-around – é a tão esperada sucessora dos atuais transistores FinFET. A empresa trabalha na tecnologia desde 2017.

Os transistores FinFET consistem em um canal em forma de aleta cercado em três lados por uma “porta” que controla o fluxo de elétrons. Mas os transistores de nanosheet da IBM (ou gate-all-around) têm um canal em camadas. As camadas são empilhadas umas sobre as outras e, como três porcos em um cobertor, são cercadas pelo portão por todos os lados. Esta última parte é a parte mais crítica. Os transistores gate-all-around fornecem melhor controle da corrente através do canal, evitam vazamentos e aumentam a eficiência.

Tecnologia de 2 nm, vista usando microscopia eletrônica de transmissão. 2 nm é menor do que a largura de uma única fita de DNA humano. Cortesia da IBM.

“É uma tecnologia tremendamente empolgante”, disse à Wired, Jesús del Alamo, professor do MIT que se especializou em novas tecnologias de transistores. “É um design completamente novo que impulsiona o roteiro para o futuro.” E embora a IBM possa ser a primeira a mostrar a tecnologia neste nível, provavelmente não será a última. Samsung e TSMC provavelmente seguirão o exemplo.

É muito cedo para fazer comparações sérias de desempenho entre os chips de produção de hoje e os chips futuros usando os novos transistores da IBM, mas é seguro dizer que eles oferecerão melhorias notáveis. Dan Hutcheson, CEO da empresa de análise VLSI Research, disse à Wired que as melhorias de desempenho estimadas da IBM na verdade pareciam conservadoras e chamou o trabalho de um “marco para a indústria”.

Chips de próxima geração
Quando você pode comprar um dispositivo com um desses chips? Provavelmente não por enquanto.

Embora a IBM ainda projete chips, ela vendeu seu negócio de fabricação de chips em 2014. Esta nova tecnologia vem de suas instalações de pesquisa em Albany, Nova York e é um demonstrador, não um chip pronto para produção. Nos próximos anos, a IBM completará o processo, momento em que pode chegar aos chips de produção por meio de acordos de licenciamento com parceiros como Intel e Samsung.

A indústria não deve ficar parada nesse ínterim. Há uma espécie de renascimento na indústria de chips agora.

Não se trata mais apenas de gastar bilhões para arrancar mais algumas gotas dos chips tradicionais. Há energia e inovação revigorando o setor e trazendo uma explosão cambriana de designs bizarros para fins especiais, como IA. E muito disso está ocorrendo fora de grandes empresas.

Pela primeira vez em anos, o capital de risco está fluindo para as startups – mais de US $ 12 bilhões, na verdade, foram para mais de 400 empresas de chips apenas em 2020.

Então, mesmo em meio à seca de chips deste ano, parece que a monção está chegando.

Jason Dorrier para Singularity Hub.

Entenda melhor sobre o que é a Lei de Moore e por que ela chegou ao fim?

Categorias
Blog

Inteligência Artificial é mais difícil do que pensávamos: 4 falácias na pesquisa de IA

A inteligência artificial está nas manchetes há quase uma década, à medida que os sistemas progridem rapidamente em desafios de IA de longa data, como reconhecimento de imagem, processamento de linguagem natural e jogos. As empresas de tecnologia semearam algoritmos de aprendizado de máquina em mecanismos de pesquisa e recomendação e sistemas de reconhecimento facial, e o GPT-3 da OpenAI e o AlphaFold da DeepMind prometem aplicações ainda mais práticas, desde a escrita até a codificação e descobertas científicas.

Na verdade, estamos no meio de uma primavera de IA, com investimento no florescimento da tecnologia e um sentimento predominante de otimismo e possibilidade em relação ao que ela pode realizar e quando.

Desta vez, pode parecer diferente das fontes de IA anteriores devido às aplicações práticas acima mencionadas e à proliferação de IA estreita em tecnologias que muitos de nós usamos todos os dias – como nossos smartphones, TVs, carros e aspiradores de pó, para citar apenas alguns. Mas também é possível que estejamos navegando em uma onda de progresso de curto prazo em IA que logo se tornará parte do fluxo e refluxo no avanço, financiamento e sentimento que tem caracterizado o campo desde sua fundação em 1956.

A IA ficou aquém de muitas previsões feitas nas últimas décadas; 2020, por exemplo, foi anunciado por muitos como o ano em que os carros autônomos começariam a encher as estradas, transportando passageiros sem problemas enquanto eles se sentavam e apreciavam o passeio. Mas o problema tem sido mais difícil do que o previsto e, em vez de hordas de táxis robôs, os projetos mais avançados permanecem em teste. Enquanto isso, alguns no campo acreditam que a forma dominante de IA – um tipo de aprendizado de máquina baseado em redes neurais – pode em breve perder força na ausência de uma série de descobertas cruciais.

Em um artigo intitulado “Por que a IA é mais difícil do que pensamos“, publicado na semana passada no servidor de pré-impressão arXiv, Melanie Mitchell, professora de ciência da computação da Universidade Estadual de Portland atualmente no Instituto de Santa Fé, argumenta que a IA está em um declínio e ciclo de fluxo em grande parte porque ainda não entendemos verdadeiramente a natureza e a complexidade da inteligência humana. Mitchell divide esse ponto abrangente em quatro equívocos comuns em torno da IA ​​e discute o que eles significam para o futuro do campo.

1. O progresso na inteligência estreita é o progresso em direção à inteligência geral
Novas conquistas impressionantes da IA ​​são frequentemente acompanhadas pela suposição de que essas mesmas conquistas estão nos deixando mais perto de alcançar a inteligência de máquina de nível humano. Mas não apenas, como Mitchell aponta, a inteligência estreita e geral é tão diferente quanto subir em uma árvore ou pousar na lua, mas mesmo a inteligência estreita ainda depende em grande parte de uma abundância de dados específicos de tarefas e treinamento facilitado por humanos.

Veja o GPT-3, que alguns citaram como tendo superado a inteligência “estreita”: o algoritmo foi treinado para escrever texto, mas aprendeu a traduzir, escrever código, preencher automaticamente imagens e fazer matemática, entre outras tarefas. Mas embora os recursos do GPT-3 tenham se revelado mais extensos do que seus criadores pretendiam, todas as suas habilidades ainda estão dentro do domínio em que foi treinado: isto é, linguagem – falada, escrita e programação.

Tornar-se adepto de uma habilidade não relacionada à linguagem sem nenhum treinamento seria um sinal de inteligência geral, mas este não era o caso com GPT-3, nem foi o caso com qualquer outra IA recentemente desenvolvida: eles permanecem de natureza estreita e , embora significativo em si mesmo, não deve ser confundido com passos em direção à compreensão completa do mundo necessária para a inteligência geral.

2. O que é fácil para os humanos deve ser fácil para as máquinas
A IA é mais inteligente do que uma criança de quatro anos? Na maioria dos sentidos, a resposta é não, e isso porque as habilidades e tarefas que percebemos como “fáceis” são na verdade muito mais complexas do que acreditamos, como observa o Paradoxo de Moravec.

Crianças de quatro anos são muito boas em descobrir relações de causa e efeito com base em suas interações com o mundo ao seu redor. Se, por exemplo, eles tocarem uma panela no fogão e queimarem um dedo, entenderão que a queimadura foi causada pelo fato de a panela estar quente, não por ser redonda ou prateada. Para os humanos, isso é senso comum básico, mas os algoritmos têm dificuldade em fazer inferências causais, especialmente sem um grande conjunto de dados ou em um contexto diferente daquele em que foram treinados.

As percepções e escolhas que ocorrem em um nível subconsciente em humanos assentam no valor de uma vida inteira de experiência e aprendizado, mesmo em um nível elementar como “tocar em coisas quentes vai queimar você.” Porque chegamos a um ponto em que esse tipo de conhecimento é reflexivo, nem mesmo requer pensamento consciente, vemos isso como “fácil”, mas é exatamente o oposto. “IA é mais difícil do que pensamos”, escreve Mitchell, “porque não temos consciência da complexidade de nossos próprios processos de pensamento”.

3. A linguagem humana pode descrever a inteligência da máquina
Os humanos têm uma tendência a antropomorfizar coisas não humanas, de animais a objetos inanimados a robôs e computadores. Ao fazer isso, usamos as mesmas palavras que usaríamos para discutir as atividades ou inteligência humana – exceto que essas palavras não se encaixam muito bem no contexto e, na verdade, podem confundir nossa própria compreensão da IA. Mitchell usa o termo “mnemônica do desejo”, cunhado por um cientista da computação na década de 1970. Palavras como “ler”, “compreender” e “pensar” são usadas para descrever e avaliar a IA, mas essas palavras não nos dão uma descrição precisa de como a IA está funcionando ou progredindo.

Mesmo “aprender” é um termo impróprio, diz Mitchell, porque se uma máquina realmente “aprendesse” uma nova habilidade, seria capaz de aplicá-la em diferentes ambientes; encontrar correlações em conjuntos de dados e usar os padrões identificados para fazer previsões ou atender a outros benchmarks é algo, mas não é “aprender” da maneira que os humanos aprendem.

Então, por que tanto alarido por causa das palavras, se elas são tudo o que temos e estão transmitindo a essência? Bem, diz Mitchell, essa linguagem imprecisa pode não apenas enganar o público e a mídia, mas pode influenciar a maneira como os pesquisadores de IA pensam sobre seus sistemas e realizam seu trabalho.

4. A inteligência está em nossas cabeças
O ponto final de Mitchell é que a inteligência humana não está contida apenas no cérebro, mas requer um corpo físico.

Isso parece autoexplicativo; usamos nossos sentidos para absorver e processar informações e interagimos e nos movemos pelo mundo em nossos corpos. No entanto, a ênfase predominante na pesquisa de IA está no cérebro: compreendê-lo, replicar vários aspectos de sua forma ou função e tornar a IA mais parecida com ela.

Se a inteligência vivesse apenas no cérebro, seríamos capazes de chegar mais perto de alcançar IA de nível humano, digamos, construindo uma rede neural com o mesmo número de parâmetros que o cérebro tem conexões sinápticas, duplicando assim a “capacidade de computação do cérebro . ”

Desenhar esse tipo de paralelo pode ser aplicado nos casos em que “inteligência” se refere à operação por um conjunto de regras para trabalhar em direção a um objetivo definido – como ganhar um jogo de xadrez ou modelar a forma como as proteínas se dobram, ambos os quais os computadores já podem fazer bastante Nós vamos. Mas outros tipos de inteligência são muito mais moldados e sujeitos às emoções, preconceitos e experiências individuais.

Voltando ao exemplo do GPT-3: o algoritmo produz inteligência “subjetiva” (sua própria escrita) usando um conjunto de regras e parâmetros que criou com um enorme conjunto de dados de inteligência subjetiva pré-existente (escrita por humanos). GPT-3 é saudado como sendo “criativo”, mas sua escrita depende de associações que traçou entre palavras e frases na escrita humana – que é repleta de preconceitos, emoção, conhecimento pré-existente, bom senso e a experiência única do escritor do mundo, tudo experimentado através do corpo.

Mitchell argumenta que os aspectos não racionais e subjetivos da maneira como os humanos pensam e operam não são um obstáculo à nossa inteligência, mas são, na verdade, sua base e facilitador. O especialista em inteligência geral artificial Ben Goertzel também defende a “arquitetura de todo o organismo”, escrevendo: “Os seres humanos são corpos tanto quanto mentes, portanto, alcançar um AGI semelhante ao humano exigirá a incorporação de sistemas de IA em sistemas físicos capazes de interagir com o ser humano diário mundo de maneiras diferenciadas. ”

Para onde vamos a partir daqui?
Esses equívocos deixam poucas dúvidas sobre o que os pesquisadores e desenvolvedores de IA não devem fazer. O que é menos claro é como seguir em frente. Devemos começar, diz Mitchell, com uma melhor compreensão da inteligência – não é uma tarefa pequena ou simples. Um bom lugar onde os pesquisadores de IA podem procurar, porém, é em outras disciplinas da ciência que estudam inteligência.

Por que estamos tão empenhados em criar uma versão artificial da inteligência humana, afinal? Ele evoluiu ao longo de milhões de anos e é extremamente complexo e intrincado, mas ainda cheio de suas próprias deficiências. Talvez a resposta seja que não estamos tentando construir um cérebro artificial tão bom quanto o nosso; estamos tentando construir um que seja melhor e que nos ajudará a resolver problemas atualmente sem solução.

A evolução humana ocorreu ao longo de cerca de seis milhões de anos. Enquanto isso, já se passaram 65 anos desde que a IA se tornou um campo de estudo, e ela está escrevendo textos semelhantes aos humanos, fazendo caretas, se mantendo em debates, fazendo diagnósticos médicos e muito mais. Embora ainda haja muito a aprender, parece que a IA está progredindo muito bem no grande esquema das coisas – e o próximo passo para levá-la adiante é aprofundar nossa compreensão de nossas próprias mentes.

Vanessa Bates Ramirez para Singularity Hub.

Categorias
Blog

Este robô pode mudar seu corpo para se adaptar a novos ambientes

Imagine correr em uma trilha de cimento e, de repente, pela areia seca. Apenas para se manter em pé, você teria que diminuir a velocidade e mudar a forma como corre. Da mesma forma, um robô ambulante teria que mudar sua marcha para lidar com superfícies diferentes.

Geralmente, nós, humanos, e a maioria dos robôs, só podemos mudar a forma como corremos. Mas e se pudéssemos também mudar a forma de nossos corpos para correr o mais rápido e seguro possível em qualquer superfície?

Gostaríamos de contar com robôs para tarefas difíceis e perigosas, desde a inspeção de reatores nucleares que falharam até a exploração espacial. Para essas tarefas, um corpo estático pode limitar a adaptabilidade do robô. Um corpo que muda de forma pode fazer a diferença entre o sucesso e o fracasso nesses ambientes inesperados. Melhor ainda, um robô que muda de forma pode aprender a melhor forma corporal para diferentes ambientes e se adaptar a novos ambientes à medida que os encontra.

Em colaboração com a Universidade de Oslo, essa ideia foi testada com um robô de quatro patas que adapta seu corpo para andar em novas superfícies conforme as vê, tendo um desempenho melhor do que um robô de corpo estático. A pesquisa foi publicada na Nature Machine Intelligence.

Um quadrúpede que muda de forma
DyRET, o Robô Dinâmico para Testes Corpóreos, ou “o animal” na língua norueguesa de seu criador, Tønnes Nygaard, foi projetado para explorar a ideia de um robô que muda de forma. Cada uma das quatro pernas do DyRET tem duas seções telescópicas, de modo que pode alterar o comprimento de sua coxa ou tíbia. Os ajustes são feitos por motores embutidos nas pernas e os comprimentos podem ser alterados automaticamente enquanto o robô está operando.

Os motores podem alterar a altura do DyRET em cerca de 20%, de 60 cm a 73 cm de altura. Esses 13 cm fazem uma diferença dramática na caminhada do robô. Com pernas curtas, o DyRET é estável, mas lento, com um centro de gravidade baixo. Em seu modo mais alto, o DyRET é mais instável enquanto caminha, mas seu passo é muito mais longo, permitindo-lhe viajar mais rápido e passar por cima de obstáculos.

O DyRET também possui sensores para monitorar no que está caminhando. Cada um dos pés do DyRET tem um sensor de força que pode sentir o quão duro é o solo. Uma câmera 3D aponta para o solo entre as pernas dianteiras do DyRET para estimar o quão acidentado é o solo.

Aprendendo a se adaptar
Quando o DyRET está caminhando, ele detecta continuamente o ambiente por meio de seus pés e da câmera 3D. Quando o robô detecta uma mudança nas condições do solo, ele pode mudar para o melhor comprimento de perna. Mas como o robô sabe qual forma corporal funciona melhor?

Exploramos duas maneiras de o DyRET aprender a melhor configuração de perna para diferentes situações: um em ambiente controlado, outro em ambientes internos com superfícies conhecidas e outro teste externo em ambientes reais.

Nos testes controlados, o DyRET caminhou dentro de caixas de cerca de 5 metros de comprimento contendo diferentes superfícies de caminhada: areia, cascalho e folhas de fibrocimento duro. O robô caminhou sobre cada material em cada uma das 25 configurações de pernas diferentes para registrar a eficiência de seu movimento. Com esses dados, foi testada a capacidade do robô de detectar automaticamente uma mudança na superfície de caminhada dentro das caixas e de escolher a melhor forma corporal.

Embora os experimentos controlados tenham mostrado que o DyRET poderia adaptar seu corpo com sucesso às superfícies em que já havia pisado, o mundo real é um lugar muito mais variável e imprevisível. Mostramos que esse método pode ser estendido a terrenos invisíveis estimando a melhor forma corporal para qualquer superfície que o robô encontrar.

Em nossos experimentos ao ar livre, DyRET usou um modelo de aprendizado de máquina, semeado com o conhecimento sobre a melhor configuração de perna para uma determinada combinação de dureza e rugosidade do terreno tirada dos testes controlados. Conforme o robô anda, ele continuamente prediz a melhor forma corporal para o terreno à medida que o encontra, enquanto atualiza seu modelo com medições de quão bem ele pode andar. Em nossos experimentos, as previsões do DyRET melhoram à medida que ele caminha, permitindo que gere movimentos eficientes rapidamente, mesmo para terrenos que nunca viu antes.

Robôs que mudam de forma são o futuro?
DyRET explora a ideia de “cognição incorporada” em um robô: isto é, que o corpo de hardware de um robô pode ser usado para resolver problemas em colaboração com seu cérebro de software, vinculando-os estreitamente ao ambiente. Em vez de o corpo do DyRET ser uma restrição ao seu movimento, ele próprio é uma forma adaptativa de resolver problemas em ambientes desafiadores.

Isso é incrivelmente benéfico, especialmente quando não podemos prever as condições ambientais exatas de antemão, o que torna a escolha de uma única forma “boa” de robô muito desafiadora. Em vez disso, esses robôs se adaptariam a uma ampla variedade de condições ambientais por meio da mudança de forma.

Nossa prova de conceito tem implicações poderosas para o futuro do design robótico, desbloqueando ambientes atualmente impossíveis que são muito desafiadores e variáveis. Futuros robôs que mudam de forma podem ser usados ​​no fundo do mar ou para missões de longo prazo no espaço.

David Howard e Charles Martin para SingularityHub.

Confira também nosso artigo sobre robótica educacional e como ela é importante para este novo cenário.