Categorias
Blog

Greg Brockman e o futuro das IA Generativas

Diretamente do SXSW, em Austin, a Head da SingularityU Brazil e Diretora de Conteúdo da HSM, Poliana Abreu, traz a sua visão sobre os pontos de reflexão que considera relevantes para qualquer profissional que queira entender o cenário atual e futuro da IA nos negócios e na sociedade. Confira abaixo o artigo escrito para o Meio&Mensagem.

Criador do ChatGPT conta no SXSW sobre as ferramentas terem a capacidade de ampliar a habilidade humana, mas requerem confiança para serem usadas com segurança

Greg Brockman, cofundador e presidente da OpenAI, empresa responsável pelo ChatGPT, participou de um dos painéis mais esperados pelo público do South by Southwest 2023, que está acontecendo nesta semana em Austin, Texas.

A conversa, conduzida pela jornalista Laurie Segall, abordou as questões éticas e perspectivas de futuro do uso da inteligência artificial generativa. Brockman compartilhou sua história como empreendedor e falou sobre futuro, mas foi um pouco evasivo em determinadas perguntas.
Acompanhei o painel e, a seguir, trago a minha visão sobre os principais pontos de reflexão que considero relevantes para qualquer profissional que queira entender o cenário atual e futuro da IA nos negócios e na sociedade.

Acesso e democratização

O ChatGPT é considerado um “killer app”. Em pouco tempo, conquistou mais de 100 milhões de usuários, mas é um killer app, não porque não é uma tecnologia nova, mas sim porque é uma interface simples e acessível que democratizou o acesso à inteligência artificial.

A escala e a operacionalização são as duas peças fundamentais para tornar a tecnologia útil e prática. O fundamental aqui é a curva exponencial, que acumula valor à medida que a tecnologia é aprimorada e usada em vários modelos e linguagens. A inteligência artificial é uma tecnologia que pode ser usada em todos os campos da vida, desde negócios até entretenimento e experiências interativas.

Para Greg, o objetivo do ChatGPT é informar as pessoas e tornar a inteligência artificial acessível e útil para todos.

Vale ressaltar ainda que o foco não é o app ChatGPT em si, mas sim a plataforma para utilização de inteligência artificial para diversas aplicações.
Senso de urgência

O que fez a Open AI sair na frente e lançar o ChatGPT antes de outras gigantes tecnológicas foi o seu senso de urgência.

Regulação e confiança

Para que a inteligência artificial seja usada de forma ética e responsável, é importante que a sociedade se adapte e que os formuladores de políticas públicas estejam envolvidos nas conversas. A regulação é transversal. Todos os setores precisam entender e estar inseridos na discussão.

O ChatGPT é usado por pessoas de diferentes áreas para melhorar seus textos, o que mostra como a inteligência artificial pode ampliar o que os humanos podem fazer. No entanto, é importante lembrar que a inteligência artificial não é perfeita e requer confiança para ser usada com segurança. “Queremos construir confiança. É a dor de aprender. Temos um time que olha para esses problemas e estamos tentando tornar a ferramenta mais confiável”.

As pessoas por trás do código

Brockman confessou que ainda não são rápidos o suficiente para resolverem os vieses no ChatGPT, mas que tem consciência que é preciso mais diversidade por trás dos códigos. “Assumimos que há muito a ser melhorado, como retirar os vieses do chatbot e a possibilidade de descentralizar cada vez mais nossa IA para que ela seja amparada em todo um ecossistema ancorado, principalmente, na comunidade”.

O futuro do conteúdo

O conteúdo não é mais “estático”, de forma que você não consiga mais interagir com ele. Estamos claramente nos movendo para um mundo onde ele é “vivo”. Você pode conversar e interagir com ele, criando possibilidades de apoiá-lo.

Humanidade como principal stakeholder

Brockman afirmou várias vezes que a missão da OpenAI é “criar uma IA avançada de forma segura e benéfica para a humanidade”.

Segundo ele, a humanidade é o stakeholder mais importante quando se trata de inteligência artificial. E medir o impacto da tecnologia na sociedade é crucial para garantir que ela seja usada de forma benéfica. O principal erro que pode ocorrer é, justamente, não entender os humanos.

Futuro da inteligência artificial generativa

“Nós estamos criando, praticamente, um novo tipo de internet ou algo muito similar a isso”. A respeito do futuro da inteligência artificial, ele acredita que a tecnologia será capaz de prever muitas coisas, inclusive o que os humanos querem e precisam. Ele acredita que a inteligência artificial será uma tecnologia tão presente quanto o celular e que ela irá transformar todos os campos de nossa vida. Brockman afirmou que é esse é o projeto mais importante, esperançoso e assustador da história humana. Para construir uma relação homem-máquina saudável, ele entende que o mais importante será dominar habilidades de alto nível, além de julgar e saber quando se aprofundar nos detalhes.

Quando perguntado sobre a coisa mais interessante que a IA pode fazer, ele foi rápido na resposta: fazer nossos sonhos virarem realidade e ampliar as habilidades humanas. E sobre o mundo com IA em 2050? Inimaginável! A única certeza é que seu crescimento é exponencial.

Quer acompanhar a cobertura completa de Poliana Abreu e demais autores para o Meio&Mensagem? Então, acesse: https://www.meioemensagem.com.br/sxsw

Categorias
Blog

Conheça os correspondentes – SXSW 2023

Confira os especialistas presentes no SXSW 2023, que acontece de 10 a 19 de março.

Falta pouco para começar o maior festival de criatividade, tecnologia e inovação do mundo, o South By Southwest (SXSW ou South by para os íntimos). Em sua 11ª edição, o SXSW traz como proposta principal apresentar uma nova abordagem sobre as transformações para o futuro que já está acontecendo, com um olhar estratégico para questões ESG. Além disso, Inteligência Artificial, ChatGPT, mudanças climáticas e representatividade no universo gamer são alguns dos temas discutidos em Austin, Texas, entre 10 e 19 de março.

Com o lema de superar a FOMO (fear of missing out) para dar lugar à JOMO (joy of missing out), oito pessoas do ecossistema da SU Brazil vão contar no blog e nas redes sociais (LinkedIn e Instagram) o que acontece de mais relevante dentro do SXSW. O evento já contou em edições anteriores com a presença de nomes como Mark Zuckenberg, Elon Musk, Barack Obama, Dolly Paltron e Lady Gaga.

Em 2023, estão confirmados palestrantes como Kyle Vogt, cofundador da Twitch, Dan Schulman, presidente e CEO do PayPal, e Ginni Rometty, CEO da IBM. As atrizes Kristen Bell e Tilda Swinton também marcarão presença. Tradição do SXSW, a futurista Amy Webb lançará mais uma vez seu report de tech trends com exclusividade para o festival.

Abaixo, conheça um pouco mais sobre os correspondentes SU Brazil:

Reynaldo Gama
CEO da SU Brazil, Reynaldo é apaixonado por inovação. No blog, compartilhará suas ideias sobre as tendências dos negócios, futuro e novas abordagens para a inovação.

Poliana Abreu
Poliana é Head da SU Brazil. Com sólido background em sustentabilidade, Poliana é apaixonada por questões ESG, assunto que vai procurar divulgar também.  Além disso, Poliana é movida por educação e lifelong learning, temas que chamarão sua atenção no festival.

Carla Tieppo
Além de trazer seus insights poderosos sobre neurociência para o blog e as redes da SU Brazil, Carla será uma das brasileiras que comporá o line-up do SXSW. A neurocientista comanda na quinta-feira 16, às 10h (horário local), o painel  “Paris Olympic Games, a Neuroscience Experiment”.  Junto a ela estarão Christiane Pelajo, jornalista e fundadora da Chris Pelajo Produções e Natasha de Caiado Castro, CEO da Wish International Events Management.

Letícia Setembro
Futurista, Leticia Setembro vai compartilhar por aqui tudo o que há de mais novo em tendências e futuro. Apaixonada por inovação, também traz suas análises sobre o impacto das novas tecnologias

Glaucia Guarcello
Glaucia é CIO (Chief Innovation Officer) da Deloitte Brasil e professora convidada de inovação corporativa da Singularity University. Recentemente apontada pela revista Época NEGÓCIOS como uma das mulheres mais importantes da inovação no Brasil, as conversas que Glaucia vai trazer por aqui girarão ao redor desta temática.

Eduardo Ibrahim
Eduardo Ibrahim é expert em economia exponencial pela Singularity e um verdadeiro apaixonado pelo impacto das tecnologias exponenciais na economia. Frequentador de festivais de inovação e de contracultura, como o Burning Man, Eduardo provocará a reflexão de temas relevantes de contracultura e mudanças de paradigmas econômicos.

Renan Hannouche
Renan é apaixonado por disrupção e inovação. Ele tem um olhar intenso para os diálogos improváveis e as novas tecnologias e vai compartilhar algumas de suas ideias e insights em inovação e disrupção.

Dante Freitas
Na visão de Dante, a resposta para o futuro está na junção de pessoas e máquinas. Criador da teoria “humanware”, tem um olhar cuidadoso para o papel humano em um mundo liderado por máquinas. Como fã das conexões singulares, Dante vai falar aqui sobre tecnologias, humanidades e suas convergências.

Agora que você conhece nossos correspondentes, não deixe de incluí-los em seu radar!

Acompanhe o blog e as redes da SU Brazil para a cobertura completa (e exponencial) do SXSW.

Categorias
Blog Inovação Tecnologia

Criatividade humana e a revolução do ChatGPT

Que o assunto “ChatGPT” está em alta, todo mundo sabe. Mas você já parou para pensar que a inteligência artificial generativa pode, de fato, mudar o mundo? Isto porque esta tecnologia consegue avançar sobre o único território pelo qual nós sempre acreditamos estar além da capacidade das máquinas: a criatividade humana. 

Antes de explorarmos o potencial do ChatGPT, é preciso entendermos exatamente o que é esta tecnologia e como ela funciona. O ChatGPT é uma ferramenta de inteligência artificial generativa criada pela startup OpenAI. E o que é a tal “inteligência artificial generativa”?

Diferentemente das tecnologias de análises e previsões criadas a partir de bases de dados estáticas, as plataformas generativas possuem características avançadas de autoaprendizado, sendo capazes de gerar interpretações próprias de textos, imagens e obras de arte.

Para o especialista em IA da Singularity Brasil, Alexandre Nascimento, o ChatGPT tem a capacidade de mudar paradigmas na criação de novos conteúdos. “Por exemplo, eu não sou um ilustrador, mas agora eu consigo ilustrar, com um grau de qualidade bem razoável, o que imagino. Assim, a IA generativa aumenta a produtividade e reduz o custo de geração de conteúdo. Desta maneira, pessoas que não participavam desses mercados por barreiras técnicas ou financeiras agora podem participar”, explica Nascimento.

Quer saber mais como esta nova tecnologia poderá revolucionar, inclusive, o mercado publicitário? Confira a entrevista completa do Alexandre Nascimento em: https://propmark.com.br/como-a-criatividade-publicitaria-pode-ganhar-com-o-chatgpt/

Para mais informações sobre o ChatGPT, acesse: https://www.qurio.com.br/pack/post/chat-gpt-faq-de-introducao

Categorias
Blog Inovação Tecnologia

Perguntando ao futuro:  confie na competência humana e aprenda a perguntar e pensar de forma crítica na era da inteligência artificial generativa

Artigo escrito por Poliana Abreu, Head da SingularityU Brazil e Diretora de Conteúdo da HSM

Mais importante do que ter a resposta, é ter a sabedoria para fazer a pergunta certa. Esta é uma das máximas quando falamos em desenvolvimento de liderança em ambientes complexos e marcado por muitas mudanças. A arte de fazer perguntas e o pensamento crítico sempre foram fundamentais para o avanço do conhecimento e para a tomada de decisões. Mas, com o surgimento da inteligência artificial generativa, essa habilidade tornou-se uma premissa.

A inteligência artificial generativa, como o ChatGPT, da Open AI, é uma tecnologia que permite a criação de novos conhecimentos, insights e soluções por meio da geração automática de conteúdo. Isso significa que profissionais agora têm acesso a quantidades massivas de informações ordenadas de forma original. Mas a qualidade das respostas depende diretamente da qualidade da pergunta. Com a euforia do ChatGPT já podemos observar, inclusive, o surgimento de empresas especializadas em vender “prompts” (enunciados, perguntas que são geradas pelos usuários do ChatGPT).

Outra habilidade importante é a capacidade de analisar as perguntas de forma crítica e, também, processar as respostas. Os usuários devem ser capazes de fazer esta análise atentamente; identificar padrões e tendências; e, finalmente, buscarem, em seu próprio repertório, conexões que sejam capazes de refinar suas perguntas com base nas respostas obtidas. Os chatbots de AI generativas podem ser incríveis ferramentas para aumentar a produtividade e uma nova forma de busca de informação na web, mas ainda é uma ferramenta “generativa” – faz novas combinações com informações existentes e não essencialmente criativa. Cabe a quem utilizar a ferramenta saber direcionar o conteúdo para a autenticidade.

Formular perguntas eficazes e a fazer a conexão de pontos não óbvios não é uma tarefa fácil. É preciso ter repertório e desenvolver habilidades como empatia e leitura de contextos para saber o que e como perguntar. Além disso, é importante ter uma boa compreensão do contexto, das fontes de informação e da linguagem para que as perguntas sejam precisas e relevantes. Sherry Turkle, antropóloga, socióloga e cientista de computação do MIT, estuda há anos este tema e questiona o motivo pelo qual a sociedade tende a confiar mais nas máquinas do que nos seres humanos. Isso faz com que nos afastemos das reais habilidades humanas. A meu ver, precisamos valorizar e confiar nas características humanas para que consigamos usar a tecnologia a favor de uma relação saudável e eficiente entre homens e máquinas.

Ao escrever esta reflexão, comentei com meu querido amigo e parceiro de trabalho da SingularityU Brazil – Renan Hannouche, sobre o a importância de saber fazer a pergunta certa e ele me presenteou com um novo aprendizado: a palavra pergunta em inglês é “Question” – quest, na linguagem dos gamers, significa: objetivo, propósito, a próxima missão. As “quests podem ser simples, como encontrar um objeto específico, ou mais complexas, envolvendo uma série de desafios a serem superados para chegar a um resultado. Fica a provocação e o convite para que, enquanto organizações e sociedade, comecemos a escolher melhor as nossas “quests” e direcionar o futuro para um caminho mais consciente e coerente.

*Parte deste texto, incluindo o próprio título, foi criado via Chat GPT (fazendo as perguntas certas, claro 😉)

Quer ter acesso a um guia rápido e prático de como aprender a fazer as perguntas certas? Então, confira o guia produzido pela revista HSM Management: https://www.qurio.com.br/pack/post/como-fazer-as-perguntas-certas

Categorias
Blog

Pesquisadores de IA do Google estão sonhando com um novo mecanismo de pesquisa

Imagine uma coleção de livros – talvez milhões ou até bilhões deles – jogada ao acaso pelos editores em uma pilha em um campo. A cada dia a pilha cresce exponencialmente.

Esses livros estão repletos de conhecimentos e respostas. Mas como um buscador os encontraria? Sem organização, os livros são inúteis.

Esta é a Internet bruta em toda a sua glória não filtrada. É por isso que a maioria de nossas buscas por “iluminação” online começa com o Google (e sim, ainda existem outros mecanismos de busca). Os tentáculos algorítmicos do Google examinam e indexam todos os livros dessa pilha ímpia. Quando alguém insere uma consulta na barra de pesquisa, o algoritmo de pesquisa examina sua versão indexada da Internet, exibe as páginas e as apresenta em uma lista classificada dos principais acessos.

Essa abordagem é extremamente útil. Tão útil, na verdade, que não mudou fundamentalmente em mais de duas décadas. Mas agora, os pesquisadores de IA do Google, a mesma empresa que definiu o padrão para os motores de busca, estão esboçando um plano para o que pode vir a seguir.

Em um artigo sobre o servidor de pré-impressão arXiv, a equipe sugere que a tecnologia para tornar a Internet ainda mais pesquisável está ao nosso alcance. Eles dizem que grandes modelos de linguagem – algoritmos de aprendizado de máquina como o GPT-3 da OpenAI – poderiam substituir totalmente o sistema atual de indexar, recuperar e então classificar.

A IA é o mecanismo de busca do futuro?
Ao buscar informações, a maioria das pessoas adoraria perguntar a um especialista e obter uma resposta diferenciada e confiável, escrevem os autores. Em vez disso, eles pesquisam no Google. Isso pode funcionar ou dar terrivelmente errado.

Embora os mecanismos de pesquisa pareçam conter pelo menos partes de uma resposta, o fardo recai sobre o pesquisador para verificar, filtrar e ler os resultados para reunir essa resposta da melhor maneira possível.

Os resultados da pesquisa têm melhorado muito ao longo dos anos. Ainda assim, a abordagem está longe de ser perfeita.

Existem ferramentas de perguntas e respostas, como Alexa, Siri e Google Assistant. Mas essas ferramentas são frágeis, com um repertório limitado (embora crescente) de questões que podem responder. Embora tenham suas próprias deficiências, grandes modelos de linguagem como GPT-3 são muito mais flexíveis e podem construir novas respostas em linguagem natural para qualquer consulta ou prompt.

A equipe do Google sugere que a próxima geração de mecanismos de pesquisa pode sintetizar o melhor de todos os mundos, dobrando os principais sistemas de recuperação de informações da atualidade em IA em larga escala.

É importante notar que o aprendizado de máquina já está em funcionamento nos mecanismos de pesquisa clássicos de indexação, recuperação e classificação. Mas, em vez de meramente aumentar o sistema, os autores propõem que o aprendizado de máquina poderia substituí-lo totalmente.

“O que aconteceria se nos livrássemos completamente da noção de índice e o substituíssemos por um grande modelo pré-treinado que codifica de forma eficiente e eficaz todas as informações contidas no corpus?” Donald Metzler e co-autores escrevem no paper. “E se a distinção entre recuperação e classificação fosse embora e, em vez disso, houvesse uma única fase de geração de resposta?”

Um resultado ideal que eles imaginam é um pouco como o computador da nave estelar Enterprise em Star Trek. Os buscadores de informações fazem perguntas, o sistema responde de forma coloquial, ou seja, com uma resposta em linguagem natural, como você esperaria de um especialista, e inclui citações oficiais em sua resposta.

No artigo, os autores esboçam o que chamam de exemplo aspiracional de como essa abordagem pode ser na prática. Um usuário pergunta: “Quais são os benefícios do vinho tinto para a saúde?” O sistema retorna uma resposta matizada em prosa clara de várias fontes oficiais – neste caso WebMD e a Clínica Mayo – destacando os benefícios e riscos potenciais de beber vinho tinto.

Não precisa terminar aí, no entanto. Os autores observam que outro benefício dos grandes modelos de linguagem é sua capacidade de aprender muitas tarefas com apenas alguns pequenos ajustes (isso é conhecido como aprendizagem única ou poucas tentativas). Portanto, eles podem ser capazes de realizar todas as mesmas tarefas que os mecanismos de pesquisa atuais realizam, e dezenas de outras também.

Ainda é apenas uma visão
Hoje, essa visão está fora de alcance. Modelos de grande linguagem são o que os autores chamam de “diletantes”.

Algoritmos como GPT-3 podem produzir prosa que é, às vezes, quase indistinguível de passagens escritas por humanos, mas eles também estão sujeitos a respostas sem sentido. Pior, eles refletem imprudentemente preconceitos embutidos em seus dados de treinamento, não têm senso de compreensão contextual e não podem citar fontes (ou mesmo separar fontes de alta e baixa qualidade) para justificar suas respostas.

“Eles parecem saber muito, mas seu conhecimento é superficial”, escrevem os autores. O documento também apresenta os avanços necessários para preencher a lacuna. Na verdade, muitos dos desafios que eles descrevem se aplicam ao campo em geral.

Um avanço importante seria ir além dos algoritmos que apenas modelam as relações entre os termos (como palavras individuais) para algoritmos que também modelam a relação entre as palavras em um artigo, por exemplo, e o artigo como um todo. Além disso, eles também modelariam as relações entre muitos artigos diferentes na Internet.

Os pesquisadores também precisam definir o que constitui uma resposta de qualidade. Isso em si não é uma tarefa fácil. Mas, para começar, os autores sugerem que as respostas de alta qualidade devem ser confiáveis, transparentes, imparciais, acessíveis e conter perspectivas diversas.

Mesmo os algoritmos mais modernos de hoje não chegam perto dessa barreira. E não seria sensato implantar modelos de linguagem natural nesta escala até que sejam resolvidos. Mas se resolvido – e já há trabalho sendo feito para lidar com alguns desses desafios – os mecanismos de pesquisa não seriam os únicos aplicativos a se beneficiar.

‘Early Grey, Hot’
É uma visão atraente. Vasculhar páginas da web em busca de respostas enquanto tenta determinar o que é confiável e o que não é pode ser exaustivo.

Sem dúvida, muitos de nós não fazemos o trabalho tão bem quanto poderíamos ou deveríamos.

Mas também vale a pena especular como uma internet acessada dessa forma mudaria a forma como as pessoas contribuem para ela.

Se consumirmos informações principalmente lendo respostas em prosa e sintetizadas por algoritmos – em vez de abrir e ler as próprias páginas individuais – os criadores publicariam tanto trabalho? E como o Google e outros fabricantes de mecanismos de pesquisa compensariam os criadores que, em essência, estão produzindo as informações que treinam os próprios algoritmos?

Ainda haveria muitas pessoas lendo as notícias e, nesses casos, os algoritmos de pesquisa precisariam fornecer listas de histórias. Mas eu me pergunto se uma mudança sutil pode ocorrer onde os criadores menores adicionam menos e, ao fazer isso, a web se torna menos rica em informações, enfraquecendo os próprios algoritmos que dependem dessas informações.

Não há como saber. Frequentemente, a especulação está enraizada nos problemas de hoje e se mostra inocente em retrospecto. Nesse ínterim, o trabalho continuará sem dúvida.

Talvez possamos resolver esses desafios – e mais à medida que eles surgem – e no processo chegarmos àquele computador de Jornada nas estrelas onisciente e agradavelmente falante que há muito imaginamos.

Jason Dorrier para SingularityHub.

Categorias
Blog

Implante cerebral transforma pensamentos em texto com 90% de precisão

Enviar mensagens de texto pode não ser mais rápido do que falar, mas para muitos de nós é uma maneira natural de se comunicar.

Graças a uma nova interface cérebro-computador (BCI), pessoas com paralisia agora podem fazer o mesmo – com um toque especial. Ao imaginar os movimentos de escrever cartas, um homem com lesão na coluna foi capaz de traduzir pensamentos em texto, a uma velocidade que rivaliza com a digitação com o polegar em um smartphone. A 90 caracteres por minuto e uma precisão de mais de 90 por cento após a autocorreção, o sistema supera todos os registros realizados anteriormente com implantes neurais.

O crux é um algoritmo baseado em uma rede neural popular e muito poderosa – rede neural recorrente (RNN) – além de alguns truques da comunidade de aprendizado de máquina. O resultado é um implante neural que usa IA para converter sinais elétricos do cérebro, gerados quando alguém imagina escrita à mão em texto que é exibido em um computador em tempo real.

“Isso pode ajudar a restaurar a comunicação em pessoas que estão gravemente paralisadas ou‘ presas”, disse o autor do estudo, Dr. Frank Willett, do Laboratório de Próteses Neurais de Stanford. “Deve ajudar as pessoas a se expressarem e compartilharem seus pensamentos. É muito emocionante.”

“Mindtexting” pode ser apenas o começo. O estudo sugere que, contra a crença comum, a IA parece ser melhor na decodificação de sinais cerebrais que fundamentam nossos comportamentos mais complexos, em vez de simples – um convite para reimaginar o potencial de uma simbiose cérebro-computador.

“Embora ainda haja muito trabalho a ser feito, o estudo de Willett e colegas de trabalho é um marco que amplia o horizonte das aplicações iBCI [interface invasiva cérebro-computador]”, disseram os drs. Pavithra Rajeswaran e Amy Orsborn, da Universidade de Washington, que não participaram do estudo. “Como ele usa métodos de aprendizado de máquina que estão melhorando rapidamente, conectar os modelos mais recentes oferece um caminho promissor para melhorias futuras.”

Digitando sem as mãos
O estudo faz parte do lendário projeto BrainGate, que liderou o desenvolvimento de interfaces neurais na última década para restaurar a comunicação em pessoas paralisadas. Para ser claro, esses “implantes” são fiéis ao seu nome: eles são microarranjos de minúsculos eletrodos em um chip que é inserido cirurgicamente na camada superior do cérebro.

BrainGate tem muitos sucessos alucinantes. Um é um implante que permite às pessoas pilotar braços robóticos com o pensamento. Outro sucesso ajudou pessoas paralisadas a moverem o cursor do computador com suas mentes em um tablet Android, expandindo seu universo digital para toda a esfera de aplicativos Android e, claro, e-mail e Google.

Tudo isso é possível porque o processador central, o córtex motor, ainda está intacto mesmo após a paralisia, pelo menos para movimentos relativamente simples, como alcançar ou agarrar. É como cortar o cabo do roteador sem fio: você perde o acesso online, mas a rede em si ainda está lá. Os implantes neurais tocam diretamente na fonte – os sinais elétricos que sustentam cada movimento nosso – decodificam-nos em uma linguagem que os computadores entendem e os usam para controlar outra saída: uma mão robótica, exoesqueleto ou um cursor na tela.

O problema? Usar sua mente para controlar um cursor para acertar letras em um teclado digital é terrivelmente lento. O implante de maior sucesso até agora tem em média 40 caracteres por minuto e requer cirurgia e treinamento. Mesmo um teclado de rastreamento ocular disponível no mercado que é não invasivo pode permitir que pessoas com paralisia digitem um pouco mais rápido.

O novo estudo teve uma abordagem completamente diferente: jogue fora o teclado.

Uma centelha de gênio
O participante do estudo, apelidado de T5, é um participante de longa data do BrainGate.

Em 2007, T5 sofreu um incidente traumático que danificou sua medula espinhal e o impediu de mover-se abaixo do pescoço. Em 2016, o Dr. Jaimie Henderson, um neurocirurgião de Stanford, implantou dois chips microarray na “área da mão” do giro pré-central esquerdo de T5, uma parte do cérebro que normalmente nos ajuda a planejar e controlar o movimento. Cada chip continha 96 microeletrodos para acessar a atividade elétrica do cérebro. Esses sinais neurais eram então enviados a um computador por meio de fios para processamento posterior.

É aqui que entra a magia. Os neurônios são um grupo barulhento e decifrar sinais específicos – códigos neurais – que controlam movimentos únicos é incrivelmente difícil. Em parte, é por isso que atualmente é impossível para alguém imaginar uma carta e tê-la “lida mentalmente” por uma configuração BCI. Os sinais elétricos do cérebro que codificam para letras diferentes são muito sutis para qualquer algoritmo decodificar com precisão.

A solução alternativa do novo estudo é inovadora e totalmente brilhante. Como o processo de escrever letras do alfabeto é único para cada letra, raciocinou a equipe, ele pode acionar sinais neurais diferentes o suficiente para um algoritmo distinguir qual movimento imaginado – e seu sinal cerebral associado – corresponde a qual letra.

Para começar, o paciente T5 primeiro traçou uma letra individual repetidamente em sua mente (impressa, não cursiva). Embora sua mão estivesse completamente imóvel, disseram os autores, ele “relatou a sensação de que uma caneta imaginária em sua mão se movia fisicamente e traçava as formas das letras”. Em seguida, T5 passou horas imaginando escrever grupos de frases aleatórias.

Ao mesmo tempo, seus implantes capturavam sinais neurais relacionados à escrita de cada letra, que eram “notavelmente consistentes”. Os dados foram então usados ​​para treinar um tipo de rede neural artificial chamada rede neural recorrente (RNN), que é “especialmente boa para prever dados sequenciais”. Como os RNNs tendem a ser famintos por dados, a equipe usou um truque chamado aumento de dados que reorganizou os sinais neurais anteriores, essencialmente gerando dados artificiais para fortalecer o algoritmo. Eles também injetaram algum ruído nos dados, com a esperança de que o eventual BCI fosse mais robusto contra pequenas mudanças na atividade cerebral.

Dominância do Mind-Texting
Com o tempo, o RNN foi capaz de decodificar sinais neurais e traduzi-los em letras, que eram exibidas na tela do computador. É rápido: em meio segundo, o algoritmo pode adivinhar qual letra T5 estava tentando escrever, com 94,1% de precisão. Adicione alguma função de autocorreção comum que está em todos os smartphones e a precisão aumentou para mais de 99%.

Quando solicitado a copiar uma determinada frase, T5 foi capaz de “texto mental” em cerca de 90 caracteres por minuto (cerca de 45 palavras por estimativa), “a maior taxa de digitação que já foi relatada para qualquer tipo de BCI”, escreveu a equipe e uma melhoria dupla em relação às configurações anteriores. Sua digitação em estilo livre – respondendo a perguntas – em geral combinou em desempenho e atingiu a velocidade média de mensagens de texto com o polegar de sua faixa etária.

“O estudo de Willett e seus colegas de trabalho começa a cumprir a promessa das tecnologias BCI”, disseram Rajeswaran e Orsborn, não apenas para mensagens mentais, mas também para o que vem a seguir

A ideia de explorar algoritmos de aprendizado de máquina é inteligente, sim, porque o campo está melhorando rapidamente – e ilustrando outro elo sólido entre a neurociência e a IA. Mas talvez mais importante, o desempenho de um algoritmo depende de bons dados. Aqui, a equipe descobriu que a diferença de tempo entre escrever cartas, algo bastante complexo, é o que fazia o algoritmo funcionar tão bem. Em outras palavras, para futuros BCIs, “pode ​​ser vantajoso decodificar comportamentos complexos em vez de simples, especialmente para tarefas de classificação.”

O novo sistema ainda não está pronto para as clínicas. Ele terá que ser testado em outras pessoas e ter algumas funções comuns de digitação adicionadas, como excluir ou editar texto. A equipe também deseja adicionar a capacidade de texto mental de letras maiúsculas e símbolos.

Mas o novo BCI não precisa funcionar sozinho. Outros BCIs que traduzem atividades neurais da fala em texto já existem, e é concebível para uma pessoa potencialmente alternar entre os dois métodos – escrita mental e fala – para se comunicar com outras pessoas. “Ter esses dois ou três modos e alternar entre eles é algo que fazemos naturalmente [na vida diária]”, disse a Dra. Krishna Shenoy da Universidade de Stanford, que supervisionou o estudo com o Dr. Henderson.

Mas isso é tudo para o futuro. O próximo passo imediato, disseram os autores, é trabalhar com pacientes que não falam, como pessoas que perderam a capacidade devido a um derrame ou doenças neurodegenerativas, ou aqueles que estão conscientes, mas não conseguem se mover, e restaurar sua capacidade para interagir com o mundo exterior. “A abordagem dos autores trouxe interfaces neurais que permitem a comunicação rápida muito mais perto de uma realidade prática”, disseram Rajeswaran e Orsborn.

Categorias
Blog

Inteligência Artificial é mais difícil do que pensávamos: 4 falácias na pesquisa de IA

A inteligência artificial está nas manchetes há quase uma década, à medida que os sistemas progridem rapidamente em desafios de IA de longa data, como reconhecimento de imagem, processamento de linguagem natural e jogos. As empresas de tecnologia semearam algoritmos de aprendizado de máquina em mecanismos de pesquisa e recomendação e sistemas de reconhecimento facial, e o GPT-3 da OpenAI e o AlphaFold da DeepMind prometem aplicações ainda mais práticas, desde a escrita até a codificação e descobertas científicas.

Na verdade, estamos no meio de uma primavera de IA, com investimento no florescimento da tecnologia e um sentimento predominante de otimismo e possibilidade em relação ao que ela pode realizar e quando.

Desta vez, pode parecer diferente das fontes de IA anteriores devido às aplicações práticas acima mencionadas e à proliferação de IA estreita em tecnologias que muitos de nós usamos todos os dias – como nossos smartphones, TVs, carros e aspiradores de pó, para citar apenas alguns. Mas também é possível que estejamos navegando em uma onda de progresso de curto prazo em IA que logo se tornará parte do fluxo e refluxo no avanço, financiamento e sentimento que tem caracterizado o campo desde sua fundação em 1956.

A IA ficou aquém de muitas previsões feitas nas últimas décadas; 2020, por exemplo, foi anunciado por muitos como o ano em que os carros autônomos começariam a encher as estradas, transportando passageiros sem problemas enquanto eles se sentavam e apreciavam o passeio. Mas o problema tem sido mais difícil do que o previsto e, em vez de hordas de táxis robôs, os projetos mais avançados permanecem em teste. Enquanto isso, alguns no campo acreditam que a forma dominante de IA – um tipo de aprendizado de máquina baseado em redes neurais – pode em breve perder força na ausência de uma série de descobertas cruciais.

Em um artigo intitulado “Por que a IA é mais difícil do que pensamos“, publicado na semana passada no servidor de pré-impressão arXiv, Melanie Mitchell, professora de ciência da computação da Universidade Estadual de Portland atualmente no Instituto de Santa Fé, argumenta que a IA está em um declínio e ciclo de fluxo em grande parte porque ainda não entendemos verdadeiramente a natureza e a complexidade da inteligência humana. Mitchell divide esse ponto abrangente em quatro equívocos comuns em torno da IA ​​e discute o que eles significam para o futuro do campo.

1. O progresso na inteligência estreita é o progresso em direção à inteligência geral
Novas conquistas impressionantes da IA ​​são frequentemente acompanhadas pela suposição de que essas mesmas conquistas estão nos deixando mais perto de alcançar a inteligência de máquina de nível humano. Mas não apenas, como Mitchell aponta, a inteligência estreita e geral é tão diferente quanto subir em uma árvore ou pousar na lua, mas mesmo a inteligência estreita ainda depende em grande parte de uma abundância de dados específicos de tarefas e treinamento facilitado por humanos.

Veja o GPT-3, que alguns citaram como tendo superado a inteligência “estreita”: o algoritmo foi treinado para escrever texto, mas aprendeu a traduzir, escrever código, preencher automaticamente imagens e fazer matemática, entre outras tarefas. Mas embora os recursos do GPT-3 tenham se revelado mais extensos do que seus criadores pretendiam, todas as suas habilidades ainda estão dentro do domínio em que foi treinado: isto é, linguagem – falada, escrita e programação.

Tornar-se adepto de uma habilidade não relacionada à linguagem sem nenhum treinamento seria um sinal de inteligência geral, mas este não era o caso com GPT-3, nem foi o caso com qualquer outra IA recentemente desenvolvida: eles permanecem de natureza estreita e , embora significativo em si mesmo, não deve ser confundido com passos em direção à compreensão completa do mundo necessária para a inteligência geral.

2. O que é fácil para os humanos deve ser fácil para as máquinas
A IA é mais inteligente do que uma criança de quatro anos? Na maioria dos sentidos, a resposta é não, e isso porque as habilidades e tarefas que percebemos como “fáceis” são na verdade muito mais complexas do que acreditamos, como observa o Paradoxo de Moravec.

Crianças de quatro anos são muito boas em descobrir relações de causa e efeito com base em suas interações com o mundo ao seu redor. Se, por exemplo, eles tocarem uma panela no fogão e queimarem um dedo, entenderão que a queimadura foi causada pelo fato de a panela estar quente, não por ser redonda ou prateada. Para os humanos, isso é senso comum básico, mas os algoritmos têm dificuldade em fazer inferências causais, especialmente sem um grande conjunto de dados ou em um contexto diferente daquele em que foram treinados.

As percepções e escolhas que ocorrem em um nível subconsciente em humanos assentam no valor de uma vida inteira de experiência e aprendizado, mesmo em um nível elementar como “tocar em coisas quentes vai queimar você.” Porque chegamos a um ponto em que esse tipo de conhecimento é reflexivo, nem mesmo requer pensamento consciente, vemos isso como “fácil”, mas é exatamente o oposto. “IA é mais difícil do que pensamos”, escreve Mitchell, “porque não temos consciência da complexidade de nossos próprios processos de pensamento”.

3. A linguagem humana pode descrever a inteligência da máquina
Os humanos têm uma tendência a antropomorfizar coisas não humanas, de animais a objetos inanimados a robôs e computadores. Ao fazer isso, usamos as mesmas palavras que usaríamos para discutir as atividades ou inteligência humana – exceto que essas palavras não se encaixam muito bem no contexto e, na verdade, podem confundir nossa própria compreensão da IA. Mitchell usa o termo “mnemônica do desejo”, cunhado por um cientista da computação na década de 1970. Palavras como “ler”, “compreender” e “pensar” são usadas para descrever e avaliar a IA, mas essas palavras não nos dão uma descrição precisa de como a IA está funcionando ou progredindo.

Mesmo “aprender” é um termo impróprio, diz Mitchell, porque se uma máquina realmente “aprendesse” uma nova habilidade, seria capaz de aplicá-la em diferentes ambientes; encontrar correlações em conjuntos de dados e usar os padrões identificados para fazer previsões ou atender a outros benchmarks é algo, mas não é “aprender” da maneira que os humanos aprendem.

Então, por que tanto alarido por causa das palavras, se elas são tudo o que temos e estão transmitindo a essência? Bem, diz Mitchell, essa linguagem imprecisa pode não apenas enganar o público e a mídia, mas pode influenciar a maneira como os pesquisadores de IA pensam sobre seus sistemas e realizam seu trabalho.

4. A inteligência está em nossas cabeças
O ponto final de Mitchell é que a inteligência humana não está contida apenas no cérebro, mas requer um corpo físico.

Isso parece autoexplicativo; usamos nossos sentidos para absorver e processar informações e interagimos e nos movemos pelo mundo em nossos corpos. No entanto, a ênfase predominante na pesquisa de IA está no cérebro: compreendê-lo, replicar vários aspectos de sua forma ou função e tornar a IA mais parecida com ela.

Se a inteligência vivesse apenas no cérebro, seríamos capazes de chegar mais perto de alcançar IA de nível humano, digamos, construindo uma rede neural com o mesmo número de parâmetros que o cérebro tem conexões sinápticas, duplicando assim a “capacidade de computação do cérebro . ”

Desenhar esse tipo de paralelo pode ser aplicado nos casos em que “inteligência” se refere à operação por um conjunto de regras para trabalhar em direção a um objetivo definido – como ganhar um jogo de xadrez ou modelar a forma como as proteínas se dobram, ambos os quais os computadores já podem fazer bastante Nós vamos. Mas outros tipos de inteligência são muito mais moldados e sujeitos às emoções, preconceitos e experiências individuais.

Voltando ao exemplo do GPT-3: o algoritmo produz inteligência “subjetiva” (sua própria escrita) usando um conjunto de regras e parâmetros que criou com um enorme conjunto de dados de inteligência subjetiva pré-existente (escrita por humanos). GPT-3 é saudado como sendo “criativo”, mas sua escrita depende de associações que traçou entre palavras e frases na escrita humana – que é repleta de preconceitos, emoção, conhecimento pré-existente, bom senso e a experiência única do escritor do mundo, tudo experimentado através do corpo.

Mitchell argumenta que os aspectos não racionais e subjetivos da maneira como os humanos pensam e operam não são um obstáculo à nossa inteligência, mas são, na verdade, sua base e facilitador. O especialista em inteligência geral artificial Ben Goertzel também defende a “arquitetura de todo o organismo”, escrevendo: “Os seres humanos são corpos tanto quanto mentes, portanto, alcançar um AGI semelhante ao humano exigirá a incorporação de sistemas de IA em sistemas físicos capazes de interagir com o ser humano diário mundo de maneiras diferenciadas. ”

Para onde vamos a partir daqui?
Esses equívocos deixam poucas dúvidas sobre o que os pesquisadores e desenvolvedores de IA não devem fazer. O que é menos claro é como seguir em frente. Devemos começar, diz Mitchell, com uma melhor compreensão da inteligência – não é uma tarefa pequena ou simples. Um bom lugar onde os pesquisadores de IA podem procurar, porém, é em outras disciplinas da ciência que estudam inteligência.

Por que estamos tão empenhados em criar uma versão artificial da inteligência humana, afinal? Ele evoluiu ao longo de milhões de anos e é extremamente complexo e intrincado, mas ainda cheio de suas próprias deficiências. Talvez a resposta seja que não estamos tentando construir um cérebro artificial tão bom quanto o nosso; estamos tentando construir um que seja melhor e que nos ajudará a resolver problemas atualmente sem solução.

A evolução humana ocorreu ao longo de cerca de seis milhões de anos. Enquanto isso, já se passaram 65 anos desde que a IA se tornou um campo de estudo, e ela está escrevendo textos semelhantes aos humanos, fazendo caretas, se mantendo em debates, fazendo diagnósticos médicos e muito mais. Embora ainda haja muito a aprender, parece que a IA está progredindo muito bem no grande esquema das coisas – e o próximo passo para levá-la adiante é aprofundar nossa compreensão de nossas próprias mentes.

Vanessa Bates Ramirez para Singularity Hub.

Categorias
Blog

Computação quântica: como funciona e quais os princípios

Existem problemas que os computadores comuns não conseguem resolver? A resposta é sim. Mas é exatamente para isso que a computação quântica foi criada. 

Esse modelo de tecnologia possui capacidade de processamento muito maior que os meios tradicionais dessa área. 

Ou seja, ela consegue resolver problemas complexos que seriam impossíveis para computadores normais. 

Embora a programação quântica seja um setor mais recente, algumas empresas da área da biologia, física e saúde, por exemplo, já investem nisso por enxergarem potenciais ganhos no futuro. 

Pensando nisso, neste artigo vamos explicar o que é, como funciona e quais são as vantagens da computação quântica.

Tenha uma boa leitura! 

banner-leading-the-future

O que é computação quântica?

A computação quântica é um modelo de tecnologia computacional que processa as informações com uso de bits quânticos, conhecidos popularmente como qubits. 

Esses qubits são unidades de informações com aspectos quânticos que juntam todos os dados e formam dimensões novas para processamento. 

Para visualizar melhor, vamos rapidamente comparar com a computação tradicional. 

O computador comum, visto no dia a dia, utiliza bits para o sistema operacional de processamento. Bits, na verdade, significa “binary digit”, que a tradução literal é “dígito binário”. 

Isso quer dizer que os cálculos e processamentos do computador tradicional são feitos na lógica binária a partir dos valores 0 e 1, suportando apenas um estado por vez. 

A partir disso, podemos entender melhor o que é computação quântica. Os qubits, por sua vez, suportam dois estados juntos e emaranhar com outras unidades de informação. 

Portanto, a computação quântica é fundamentada em um princípio diferente que permite cálculos mais ágeis, deciframento de códigos e simulação de sistemas quânticos, por exemplo. 

Apesar de ser uma tecnologia relativamente nova, o conceito da programação quântica foi proposto pela primeira vez em 1981 pelo físico Richard Feyman. Na ocasião, ele propôs que as propriedades quânticas fossem usadas para o processamento de computadores. 

Alguns anos mais tarde, em 1985, o também físico David Deustch apresentou em formas matemáticas o que seria o primeiro modelo de computador quântico. 

Mas o primeiro processador quântico foi registrado em 2007 e era da empresa D-Wave, do Canadá. Chamado de Orion, ele tinha características híbridas de 16 qubits. 

Desde então, esse setor está em constante evolução e crescimento.

Segundo o estudo chamado “What Happens When ‘If’ Turns to ‘When’ in Quantum Computing?” da Boston Consulting Group (BCG), a computação quântica deve movimentar entre US$ 450 bilhões a US$ 850 bilhões até o ano de 2040. 

Esse crescimento acontece por causa da habilidade que a programação quântica tem de resolver problemas que estavam fora do alcance das tecnologias tradicionais.

Computação e mecânica quântica: qual é a relação?

qual é a relação entre computação quântica e mecânica quântica?

Essa nova área da computação é possível graças à mecânica quântica, um segmento da física que estuda sobre as partículas atômicas e subatômicas como prótons, elétrons, moléculas, entre outras. 

De forma bem simples, a mecânica quântica procura coletar informações de comportamento das partículas em pequenas escalas de tempo, grandeza e energia.

Ela é a base do funcionamento dos computadores e trouxe avanços teóricos importantes para que a computação quântica aplicasse nessa nova tecnologia

Então, basicamente, a relação é de teoria e prática. Isto é, enquanto a mecânica quântica traz o fundamental dos estudos sobre partículas atômicas e subatômicas, a computação quântica coloca em prática esse conhecimento para desenvolver o computador quântico. 

É essa relação que permitiu que o computador use o qubits para processar informações ao mesmo tempo, evitando o efeito túnel. 

No caso, o efeito túnel também é conhecido como tunelamento quântico e ocorre quando partículas ultrapassam o estado de energia comumente proibido, gastando um nível alto de energia. 

Como a computação quântica funciona?

Pensar no funcionamento da computação quântica significa imaginar um sistema mais complexo e delicado. 

Certamente, ele opera com algoritmos para realizar operações, assim como um computador tradicional. 

Contudo, essa tecnologia clássica enfrenta um limite físico de processamento, que pode ser superado pela programação quântica. 

Aqui é importante entender que a física clássica que opera no computador tradicional não consegue no universo quântico, onde quem domina são as características da mecânica quântica. 

Sendo assim, o funcionamento da computação quântica ocorre a partir da movimentação

das partículas e das energias dos átomos, e não somente da energia elétrica como é o caso do modelo convencional. 

É a partir desse sistema que as partículas quânticas conseguem obter resultados de dois estados simultâneos. 

Vale a pena ressaltar que esses computadores precisam estar em ambientes de temperaturas controladas e baixas. Muitas vezes, essas tecnologias são refrigeradas com hélio líquido ou nitrogênio. 

O motivo é para que os qubits possam interagir entre eles sem que qualquer mudança de temperatura interfira e atrapalhe. 

Por que é importante conhecer o funcionamento da computação quântica? 

Em um mercado de constante mudança e inovação, é essencial ficar de olho em tecnologias emergentes. 

No caso, são tecnologias que já são usadas em setores muito específicos, sem muito acesso por parte da população. Além disso, são vistas como promessas para transformar o mercado de maneira rápida.

Portanto, saber agora o que é computação quântica e como ela funciona é importante para visar benefícios futuros. 

E tem mais, ter esse conhecimento adiantado é uma vantagem competitiva no mercado, ainda mais quando é um assunto ainda desconhecido para muitos. 

Para você ter uma noção, o site TechRepublic fez um levantamento de dados sobre quantas empresas conhecem a computação quântica. 

Nessa pesquisa, 90% dos representantes das organizações que foram entrevistados afirmaram que possuem pouco ou nenhum conhecimento sobre essa tecnologia emergente. 

Entretanto, 58% deles apresentaram otimismo sobre um impacto positivo desse modelo de computação nas empresas. 

Isso mostra a oportunidade, por exemplo, que é aprender sobre quais as vantagens da computação quântica, que falaremos mais adiante.

Princípios da computação quântica

princípios da computação quântica

Agora que você já sabe o que é computação quântica e como ela funciona, fica bem mais fácil de compreender os princípios básicos que ela usa. 

Assim como todo sistema, a programação quântica requer uma linguagem específica para ser entendida. 

Por isso, existem alguns termos que traduzem o funcionamento do computador quântico. Listamos os principais a seguir:

Superposição

No cerne do processo de “teste” quântico está uma peculiaridade chamada superposição. 

Nossos computadores são alimentados por elétrons, que podem representar apenas dois estados – 0 ou 1. 

A mecânica quântica é muito mais estranha, pois os fótons (partículas de luz) podem ser simultaneamente 0 e 1, com uma probabilidade ligeiramente diferente de “inclinar-se para” um ou outro.

Dito isso, a superposição é a capacidade e a propriedade que o bit quântico tem de apresentar uma junção do 0 e 1 simultaneamente. 

Essa estranheza evasiva é parte do que torna a computação quântica tão poderosa. Veja nosso exemplo de aprendizado por reforço de como navegar em um novo acampamento. 

Em nosso mundo clássico, nós – e nossa IA – precisamos decidir entre virar à esquerda ou à direita em um cruzamento. Em uma configuração quântica, no entanto, o AI pode (em certo sentido) virar para a esquerda e para a direita ao mesmo tempo. 

Portanto, ao buscar o caminho correto de volta à base, o sistema quântico tem uma vantagem, pois pode explorar simultaneamente várias rotas, tornando-o muito mais rápido do que a trilha e o erro convencionais e consecutivos.

“Como consequência, um agente que pode explorar seu ambiente em superposição aprenderá significativamente mais rápido do que sua contraparte clássica”, disse o Dr. Hans Briegel, da Universität Innsbruck. 

Nem tudo é teoria. Para testar a ideia, a equipe recorreu a um chip programável chamado processador nanofotônico. Pense nele como um chip de computador semelhante a uma CPU, mas ele processa partículas de luz – fótons – em vez de eletricidade. 

Esses chips movidos a luz levaram muito tempo para serem produzidos. Em 2017, por exemplo, uma equipe do MIT construiu uma rede neural totalmente óptica em um chip óptico para apoiar o aprendizado profundo.

Os chips não são tão exóticos. Processadores nanofotônicos agem como nossos óculos, que podem realizar cálculos complexos que transformam a luz que passa por eles. No caso dos óculos, eles permitem que as pessoas vejam melhor. 

Para um chip de computador baseado em luz, permite a computação. Em vez de usar cabos elétricos, os chips usam “guias de onda” para transportar fótons e realizar cálculos com base em suas interações.

A parte do “erro” ou “recompensa” do novo hardware vem de um computador clássico. O processador nanofotônico é acoplado a um computador tradicional, onde este fornece feedback ao circuito quântico – ou seja, recompensa ou não uma solução. 

Essa configuração, explica a equipe, permite que eles avaliem de forma mais objetiva quaisquer acelerações na aprendizagem em tempo real.

Desta forma, um agente de aprendizado de reforço híbrido alterna entre computação quântica e clássica, experimentando ideias em terreno “multiverso” vacilante, enquanto obtém feedback na “normalidade” da física clássica, fundamentada.

banner-leading-the-future

Entrelaçamento

O entrelaçamento, ou emaranhamento quântico, é quando o conhecimento de uma parte do sistema determina as informações da outra parte, independentemente de fatores como a distância. 

Para entender melhor, vamos imaginar duas partículas que podem ser elétrons, por exemplo. 

No momento em que eles interagem entre si, um sistema é criado. Dentro dessa interação, as partículas relacionam o próprio estado uma com a outra. Assim, as duas precisam ser levadas em consideração para serem medidas. 

Isso porque a ligação entre elas obriga que tenham valores diferentes. Ou seja, digamos que um elétron tenha um movimento angular específico. Então, obrigatoriamente o outro elétron terá outro movimento distinto. 

Esse é o processo conhecido como entrelaçamento quântico, que permite ter informações do sistema como um todo por meio da medição de somente uma parte dele. 

Inclusive, pode ser considerado uma das vantagens da computação quântica, por tornar possível a ligação entre qubits que podem ser alterados com apenas um comando. 

Com esse sistema, o computador quântico consegue solucionar problemas complexos que levariam muito mais tempo em um modelo tradicional. 

Decoerência

a decoerência na computação quântica

A decoerência é um obstáculo existente no desenvolvimento de computadores quânticos, que praticamente elimina a superposição de partículas. O que isso quer dizer? 

De forma concisa, as partículas quânticas perdem a capacidade de terem aquele resultado misto entre 0 e 1, por assim dizer. Com o fenômeno chamado decoerência, essas partículas passam a representar 0 ou 1. 

Ou seja, o sistema passa a ter um comportamento mais tradicional e o bit quântico perde a função quântica. 

É como se a partícula atômica ou subatômica sofresse interações com ambientes macroscópicos e perdesse as propriedades quânticas de representar estados diferentes de forma simultânea. 

Por isso, a decoerência é uma espécie de fenômeno visto como um ruído que atrapalha os sistemas de superposição e entrelaçamento citados anteriormente. 

Dessa forma, um grande desafio da mecânica quântica e da ciência da computação é encontrar ferramentas que possam proteger os qubits de ambientes macroscópicos e, assim, evitar a decoerência.

Quais são as vantagens da computação quântica?

Após aprender os princípios da programação quântica, é nítido que uma das principais vantagens desse modelo computacional é a capacidade de processamento maior para encontrar soluções inovadoras. 

Por razão de usar qubits, a computação quântica consegue ter mais agilidade também para resolver problemas em comparação com computadores convencionais.

Além de que essa tecnologia emergente supera os limites e armazena dados em quantidades muito maiores, o que pode ser ideal para inteligências artificiais, por exemplo. 

É essencial pensar nesse quesito, já que a inteligência artificial (IA) demanda mais qualidade de processamento e potência dos computadores. 

Outra vantagem é a forma que a computação quântica pode afetar positivamente a economia atuando em modelos de negócios, desenvolvimento de ferramentas e gestões no geral. 

São várias as áreas que podem usufruir no futuro da programação quântica como a sustentabilidade, tecnologia e informação, saúde, agricultura, entre outras. 

Qual é o cenário da computação quântica hoje?

Por se tratar de uma tecnologia complicada e que exige bastante atenção, o cenário da computação quântica hoje segue em pleno desenvolvimento teórico e prático.

Recentemente, uma colaboração internacional liderada pelo Dr. Philip Walther da Universidade de Viena pegou o conceito “clássico” de aprendizagem por reforço e deu-lhe um spin quântico. 

Eles projetaram uma IA híbrida que depende tanto da computação quântica quanto da computação clássica comum e mostraram que – graças à peculiaridade quântica – ela poderia examinar simultaneamente um punhado de maneiras diferentes de resolver um problema.

O resultado é uma IA de aprendizagem por reforço que aprendeu mais de 60 por cento mais rápido do que seus pares não habilitados para quantum. 

Este é um dos primeiros testes que mostra que a adição de computação quântica pode acelerar o processo de aprendizagem real de um agente de IA, explicaram os autores.

Embora apenas desafiado com um “problema de brinquedo” no estudo, a IA híbrida, uma vez dimensionada, poderia impactar problemas do mundo real, como a construção de uma internet quântica eficiente. 

A configuração “poderia ser facilmente integrada em futuras redes de comunicação quântica em grande escala”, escreveram os autores.

Atualmente, empresas maiores como Google, Amazon e IBM enxergam potencial nessa tecnologia emergente e entendem os resultados inovadores que ela pode gerar. 

No fim de 2022, inclusive, a IBM lançou o computador quântico nomeado “Osprey”, que possui 433 qubits de processamento. 

Além deste, a empresa já investiu na montagem de mais de 20 computadores quânticos no mundo. 

Em 2023, a Google publicou uma pesquisa na revista de ciências conhecida como Nature, que indica a construção de um qubit mais lógico, capaz de resolver problemas até então vistos como impossíveis na área de criptografia e de estruturas complexas. 

Como é possível utilizar a computação quântica?

como usar a computação quântica

O desenvolvimento do computador comum foi um forte diferencial para o desenvolvimento das indústrias no quesito de modelos de produção e ferramentas tecnológicas. 

Nesse sentido, a computação quântica pode potencializar esses resultados e trazer inovações para diferentes áreas. 

Listamos a seguir alguns modelos de uso dessa tecnologia:

Machine learning

O termo machine learning se refere à habilidade computacional de prever e fazer as melhores escolhas. Isso é possível a partir do processamento intenso de dados que funcionam como uma forma de aprendizado para a máquina. 

Esse aprendizado por reforço profundo está tendo um momento de superstar.

Alimentando robôs mais inteligentes. Simulando redes neurais humanas. Derrubando médicos em diagnósticos médicos e esmagando os melhores jogadores da humanidade em Go e Atari. 

Embora longe de alcançar o pensamento flexível e rápido que vem naturalmente aos humanos, essa poderosa ideia de aprendizado de máquina parece imparável como um prenúncio de máquinas pensantes melhores.

Exceto que há um grande obstáculo: eles demoram uma eternidade para funcionar. 

Como o conceito por trás desses algoritmos é baseado em tentativa e erro, um “agente” de IA de aprendizagem por reforço só aprende depois de ser recompensado por suas decisões corretas. 

Para problemas complexos, o tempo que um agente de IA leva para tentar e não conseguir aprender uma solução pode rapidamente se tornar insustentável.

Mas e se você pudesse tentar várias soluções ao mesmo tempo?

Aprender com a tentativa e erro chega intuitivamente ao nosso cérebro.

Digamos que você esteja tentando navegar em um novo acampamento complicado sem um mapa. O objetivo é voltar do banheiro comunitário para o acampamento. Os becos sem saída e os loops confusos abundam. 

Enfrentamos o problema decidindo virar à esquerda ou à direita em cada ramal da estrada. Um nos aproximará da meta; o outro levará meia hora de caminhada em círculos. 

Eventualmente, a química do nosso cérebro recompensa as decisões corretas, então aprendemos gradualmente a rota correta. (Se você está se perguntando … sim, história verdadeira.)

Os agentes de IA de aprendizagem por reforço operam de maneira semelhante por tentativa e erro. À medida que um problema se torna mais complexo, o número – e o tempo – de cada tentativa também sobe vertiginosamente.

“Mesmo em um ambiente moderadamente realista, pode simplesmente demorar muito para responder racionalmente a uma determinada situação”, explicou o autor do estudo, Dr. Hans Briegel, da Universität Innsbruck, na Áustria. 

Anteriormente, ele liderou esforços para acelerar a tomada de decisões de IA usando quantum mecânica. 

Se houver pressão que permita “apenas um certo tempo para uma resposta, um agente pode então ser incapaz de lidar com a situação e aprender”, escreveu ele.

Muitas tentativas tentaram acelerar o aprendizado por reforço. Dando ao agente de IA uma “memória” de curto prazo. Aproveitando a computação neuromórfica, que se assemelha melhor ao cérebro. 

Em 2014, Briegel e colegas mostraram que uma espécie de “cérebro quântico” pode ajudar a impulsionar o processo de tomada de decisão de um agente de IA após o aprendizado. 

Mas acelerar o próprio processo de aprendizagem tem escapado às nossas melhores tentativas.

O novo estudo foi direto para aquela jugular anteriormente insustentável.

O insight principal da equipe foi explorar o melhor dos dois mundos – computação quântica e clássica. 

Em vez de construir um sistema completo de aprendizado por reforço usando a mecânica quântica, eles se voltaram para uma abordagem híbrida que poderia se provar mais prática. 

Aqui, o agente de IA usa estranheza quântica enquanto tenta novas abordagens – a “tentativa” de tentativa e erro.

O sistema então passa o bastão para um computador clássico para dar à IA sua recompensa – ou não – com base em seu desempenho.

Simulação

Mais uma área possível de aplicar a computação quântica é na simulação, de um jeito que consiga realizar esse procedimento com precisão.

Em simulações usando 10.000 agentes de IA e dados experimentais reais de 165 ensaios, a abordagem híbrida, quando desafiada com um problema mais complexo, mostrou uma clara vantagem.

A palavra-chave é “complexo”. A equipe descobriu que se um agente de IA tem uma grande chance de descobrir a solução de qualquer maneira – como para um problema simples – então a computação clássica funciona muito bem. 

A vantagem quântica floresce quando a tarefa se torna mais complexa ou difícil, permitindo que a mecânica quântica flexione totalmente seus músculos de superposição. 

Para esses problemas, o AI híbrido foi 63 por cento mais rápido no aprendizado de uma solução em comparação com o aprendizado por reforço tradicional, diminuindo seu esforço de aprendizado de 270 para 100 tentativas.

Agora que os cientistas mostraram um aumento quântico nas velocidades de aprendizado por reforço, a corrida pela computação da próxima geração está ainda mais acesa. 

O hardware fotônico necessário para comunicações baseadas em luz de longo alcance está diminuindo rapidamente, melhorando a qualidade do sinal. 

A configuração quântica parcial poderia “ajudar especificamente em problemas onde a pesquisa frequente é necessária, por exemplo, problemas de roteamento de rede” que prevalece para uma Internet em funcionamento, escreveram os autores. 

Com um aumento quântico, o aprendizado por reforço pode ser capaz de lidar com problemas muito mais complexos – aqueles do mundo real – do que é possível atualmente.

“Estamos apenas no início da compreensão das possibilidades da inteligência artificial quântica”, disse o autor principal Walther.

Afinal, como o cérebro aprende? Explicamos não só isso, mas também como estimulá-lo em um conteúdo completo aqui do blog.

Otimização

computação quântica para otimização

Outro ponto onde a computação quântica pode ser aplicada é na otimização dos processos. 

Ela consegue ajudar tanto no planejamento, que envolve uma pesquisa maior, como também no desenvolvimento para alcançar um resultado de maneira otimizada. 

Isso porque a programação quântica tem a habilidade de encontrar caminhos para resolver a complexidade dos desafios encontrados. 

Assim, empresas podem fazer uso dessa tecnologia emergente para coordenar ativos financeiros ou talvez gerir rotas de transportadoras, por exemplo. 

Ou então para qualquer outro obstáculo complexo que apareça e que um computador convencional não consiga resolver dentro de um período de tempo razoável.

banner-leading-the-future

Conclusão

Uma das principais finalidades da computação quântica é propor soluções para problemas que são vistos como impossíveis ou que esbarram no limite de processamento dos computadores convencionais. 

Isso é possível graças a relação dessa tecnologia emergente com a mecânica quântica, que permite criar máquinas com princípios de superposição e emaranhamento. 

Embora existam vantagens da computação quântica, o desenvolvimento desse modelo ainda enfrenta obstáculos que querem estudos teóricos e aplicações práticas. 

Mas tenha certeza que aprender agora sobre o que é programação quântica e como ela funciona é uma vantagem competitiva no mercado. 

Se quiser aprofundar ainda mais em inovações tecnológicas, leia também sobre o que é nanotecnologia. 

Categorias
Blog

Tech Talks: IA, data science e machine learning

Na primeira temporada do podcast da SingularityU Brazil, Tech Talks, batemos um papo com o egresso do ITA e MIT, Caio Ishizaka, diretor de Data da Red Ventures e Gabriela de Queiroz, gerente de Data da IBM e fundadora da AI Inclusive, uma organização cujo objetivo é aumentar a representação e participação de grupos de minorias de gênero na inteligência artificial.

Os especialistas trouxeram luz ao ainda pouco compreendido universo dos modelos de aprendizagem de máquinas.

O que diferencia Data Science de Inteligência Artificial e de Machine Learning?
GQ – Essa é uma pergunta que sempre nos fazem porque essas palavras se misturam e têm muito overlap. As vezes você está falando de data Science, mas se refere mais à parte de inteligência artificial ou de machine learning. Tem uma definição que acho muito legal do David Robson, em que ele fala “Data Science é você produzir insights, em machine learning você produz predições e na inteligência artificial você produz ações”. Mas há muita coisa em comum entre os três. Nós, que somos profissionais dessa área, entramos e saímos desses campos a todo instante.

Muito se fala da Inteligência Artificial ter um hype e chamar atenção, aqui no Vale do Silício o pessoal brinca que “quando uma empresa está procurando investidor, diz que está trabalhando com inteligência artificial. Quando está procurando funcionários, diz que está trabalhando com machine learning. Quando está procurando resoluções de problemas, está fazendo regressão linear. E, quando está resolvendo o problema, está só fazendo um print statement”.

CI – Usamos muito o machine learning como ferramenta para a inteligência artificial, mas não apenas para isso. Quando você faz um modelo, pode estar apenas traçando uma análise, não necessariamente criando um robô com IA, capaz de tomar decisões. Assim como nem todo modelo de Inteligência Artificial tem um algoritmo de machine learning por trás. Um exemplo que gosto de dar são os videogames. O jogo “Pong” consistia em possuir uma raquete e utilizá-la contra o computador e, ali, a máquina já era capaz de simular o comportamento de um oponente humano. Isso pode ser considerado IA sem machine learning. Uma definição que eu gosto muito para Machine Learning é o de que é: o processo de uma máquina aprender com as suas próprias experiências.

Um dos problemas das tecnologias exponenciais é, justamente, a velocidade com que as coisas mudam. Enquanto muitos de nós ainda estamos tentando entender os mecanismos do machine learning, o deep learning já está na boca da comunidade científica. Quais são suas percepções sobre a pauta?

CI – O deep learning é uma ferramenta que está no repertório do machine learning. Traçando o paralelo, temos a matemática e abaixo dela disciplinas como geometria, aritmética, álgebra. A aritmética está para a matemática assim como o deep learning está para a machine learning. Essa tecnologia vem sendo muito comentada porque ali estão os avanços de reconhecimento de imagem e reconhecimento de texto; muitos dos modelos estão utilizando essa ferramenta.

O IBM Watson, por exemplo, permite que você faça uma pergunta em formato de texto e ele te traga respostas. Há muito uso do deep learning por trás. Então, não se sintam alarmados, o deep learning é apenas uma ferramenta a mais.

GQ – Deep Learning é uma palavra quente, que estão todos falando, mas não quer dizer que estão todos usando. Ainda usamos modelos mais simples para resolver nossos problemas do dia a dia. Mas, realmente, questões relacionadas a imagem, vídeo e texto puderam começar a serem resolvidos com a entrada do deep learning; que é um campo antigo.

Antes, não tínhamos o poder computacional que temos agora. Usamos o deep learning mais amplamente agora por existir essa capacidade de aplicação. Um bom exemplo do quanto ele está disseminado é a alfândega dos aeroportos. Uma câmera escaneia todas as pessoas que estão passando, fazendo o reconhecimento facial e casando com uma infinidade de informações: nome, destino, ficha criminal. Isso já é uma aplicação diária

O reconhecimento facial é uma pauta polêmica carregada de equívocos propagados pelo cinema, em especial nas produções de ficção científica, sobre a possibilidade dos robôs serem auto didatas. Isso faz algum sentido?

GQ – Muitas coisas da ficção científica estão realmente caminhando na direção da realidade futura, os carros autônomos são o grande exemplo disso. Mas os responsáveis por ensinar os robôs somos nós que estamos criando algoritmos, os robôs que são altamente dependentes. Os algoritmos são bem fidedignos às pessoas que os criaram.

CI – A melhor e pior coisa sobre o computador é que ele faz exatamente o que você manda. O papel de quem está treinando o computador é fundamental. O próprio machine learning não aprende sozinho, você direciona o que ele tem que aprender. Muitos estudiosos abordam a “singularidade”, que é o momento em que as máquinas conseguiriam replicar um ser humano perfeitamente, mas essa é ainda uma discussão sem conclusão possível. Hoje não existem máquinas que aprendem por si só, mas máquinas que aprendem a executar o que são instruídas a fazerem.

Vocês acham que algum dia a automação dará cabo aos cientistas de dados?

CI – Essa é uma pergunta bastante difícil de ser respondida. Em programação se diz que “todo programador tem o objetivo máximo de se eliminar do trabalho”. Tudo que ele faz, gostaria de automatizar. Ciência de dados é parecido, ninguém quer ficar fazendo o mesmo modelo todos os dias.

Estamos entrando na era dos carros autônomos, por exemplo, e há toda uma discussão sobre o que será feito com o emprego de milhões de motoristas de caminhão. No campo do direito, você já vê robôs tecendo textos e defesas inteiras a partir do que foi alimentado. Recentemente, foi divulgado o novo release do GPT-3 que é uma inteligência artificial de construção de texto, você dá um prompt para ela com parágrafos de poucas linhas e ela redige um texto inteiro a partir daquilo. Então, será que o trabalho de redator também está sob perigo? Hoje, ainda estamos seguros, mas por quanto tempo? Eu não sei.

GQ – Quanto mais a IA avança, mais riscos traz aos empregos humanos, e precisamos nos questionar: quais são os empregos que gostaríamos que máquinas fizessem? Quais são os empregos que gostaríamos que os humanos fizessem? Ainda vivemos na era romântica, em que a tecnologia traz mais empregos do que tira. Mas, sim, há um futuro mais macabro que isso.

Você pode escutar esse episódio na íntegra neste link. A segunda temporada de podcasts da SingularityU Brazil, Tech Talks, estreia dia 29 de março. Para acompanhar, siga nosso perfil no Spotify.