Categorias
Blog

Inteligência Artificial é mais difícil do que pensávamos: 4 falácias na pesquisa de IA

A inteligência artificial está nas manchetes há quase uma década, à medida que os sistemas progridem rapidamente em desafios de IA de longa data, como reconhecimento de imagem, processamento de linguagem natural e jogos. As empresas de tecnologia semearam algoritmos de aprendizado de máquina em mecanismos de pesquisa e recomendação e sistemas de reconhecimento facial, e o GPT-3 da OpenAI e o AlphaFold da DeepMind prometem aplicações ainda mais práticas, desde a escrita até a codificação e descobertas científicas.

Na verdade, estamos no meio de uma primavera de IA, com investimento no florescimento da tecnologia e um sentimento predominante de otimismo e possibilidade em relação ao que ela pode realizar e quando.

Desta vez, pode parecer diferente das fontes de IA anteriores devido às aplicações práticas acima mencionadas e à proliferação de IA estreita em tecnologias que muitos de nós usamos todos os dias – como nossos smartphones, TVs, carros e aspiradores de pó, para citar apenas alguns. Mas também é possível que estejamos navegando em uma onda de progresso de curto prazo em IA que logo se tornará parte do fluxo e refluxo no avanço, financiamento e sentimento que tem caracterizado o campo desde sua fundação em 1956.

A IA ficou aquém de muitas previsões feitas nas últimas décadas; 2020, por exemplo, foi anunciado por muitos como o ano em que os carros autônomos começariam a encher as estradas, transportando passageiros sem problemas enquanto eles se sentavam e apreciavam o passeio. Mas o problema tem sido mais difícil do que o previsto e, em vez de hordas de táxis robôs, os projetos mais avançados permanecem em teste. Enquanto isso, alguns no campo acreditam que a forma dominante de IA – um tipo de aprendizado de máquina baseado em redes neurais – pode em breve perder força na ausência de uma série de descobertas cruciais.

Em um artigo intitulado “Por que a IA é mais difícil do que pensamos“, publicado na semana passada no servidor de pré-impressão arXiv, Melanie Mitchell, professora de ciência da computação da Universidade Estadual de Portland atualmente no Instituto de Santa Fé, argumenta que a IA está em um declínio e ciclo de fluxo em grande parte porque ainda não entendemos verdadeiramente a natureza e a complexidade da inteligência humana. Mitchell divide esse ponto abrangente em quatro equívocos comuns em torno da IA ​​e discute o que eles significam para o futuro do campo.

1. O progresso na inteligência estreita é o progresso em direção à inteligência geral
Novas conquistas impressionantes da IA ​​são frequentemente acompanhadas pela suposição de que essas mesmas conquistas estão nos deixando mais perto de alcançar a inteligência de máquina de nível humano. Mas não apenas, como Mitchell aponta, a inteligência estreita e geral é tão diferente quanto subir em uma árvore ou pousar na lua, mas mesmo a inteligência estreita ainda depende em grande parte de uma abundância de dados específicos de tarefas e treinamento facilitado por humanos.

Veja o GPT-3, que alguns citaram como tendo superado a inteligência “estreita”: o algoritmo foi treinado para escrever texto, mas aprendeu a traduzir, escrever código, preencher automaticamente imagens e fazer matemática, entre outras tarefas. Mas embora os recursos do GPT-3 tenham se revelado mais extensos do que seus criadores pretendiam, todas as suas habilidades ainda estão dentro do domínio em que foi treinado: isto é, linguagem – falada, escrita e programação.

Tornar-se adepto de uma habilidade não relacionada à linguagem sem nenhum treinamento seria um sinal de inteligência geral, mas este não era o caso com GPT-3, nem foi o caso com qualquer outra IA recentemente desenvolvida: eles permanecem de natureza estreita e , embora significativo em si mesmo, não deve ser confundido com passos em direção à compreensão completa do mundo necessária para a inteligência geral.

2. O que é fácil para os humanos deve ser fácil para as máquinas
A IA é mais inteligente do que uma criança de quatro anos? Na maioria dos sentidos, a resposta é não, e isso porque as habilidades e tarefas que percebemos como “fáceis” são na verdade muito mais complexas do que acreditamos, como observa o Paradoxo de Moravec.

Crianças de quatro anos são muito boas em descobrir relações de causa e efeito com base em suas interações com o mundo ao seu redor. Se, por exemplo, eles tocarem uma panela no fogão e queimarem um dedo, entenderão que a queimadura foi causada pelo fato de a panela estar quente, não por ser redonda ou prateada. Para os humanos, isso é senso comum básico, mas os algoritmos têm dificuldade em fazer inferências causais, especialmente sem um grande conjunto de dados ou em um contexto diferente daquele em que foram treinados.

As percepções e escolhas que ocorrem em um nível subconsciente em humanos assentam no valor de uma vida inteira de experiência e aprendizado, mesmo em um nível elementar como “tocar em coisas quentes vai queimar você.” Porque chegamos a um ponto em que esse tipo de conhecimento é reflexivo, nem mesmo requer pensamento consciente, vemos isso como “fácil”, mas é exatamente o oposto. “IA é mais difícil do que pensamos”, escreve Mitchell, “porque não temos consciência da complexidade de nossos próprios processos de pensamento”.

3. A linguagem humana pode descrever a inteligência da máquina
Os humanos têm uma tendência a antropomorfizar coisas não humanas, de animais a objetos inanimados a robôs e computadores. Ao fazer isso, usamos as mesmas palavras que usaríamos para discutir as atividades ou inteligência humana – exceto que essas palavras não se encaixam muito bem no contexto e, na verdade, podem confundir nossa própria compreensão da IA. Mitchell usa o termo “mnemônica do desejo”, cunhado por um cientista da computação na década de 1970. Palavras como “ler”, “compreender” e “pensar” são usadas para descrever e avaliar a IA, mas essas palavras não nos dão uma descrição precisa de como a IA está funcionando ou progredindo.

Mesmo “aprender” é um termo impróprio, diz Mitchell, porque se uma máquina realmente “aprendesse” uma nova habilidade, seria capaz de aplicá-la em diferentes ambientes; encontrar correlações em conjuntos de dados e usar os padrões identificados para fazer previsões ou atender a outros benchmarks é algo, mas não é “aprender” da maneira que os humanos aprendem.

Então, por que tanto alarido por causa das palavras, se elas são tudo o que temos e estão transmitindo a essência? Bem, diz Mitchell, essa linguagem imprecisa pode não apenas enganar o público e a mídia, mas pode influenciar a maneira como os pesquisadores de IA pensam sobre seus sistemas e realizam seu trabalho.

4. A inteligência está em nossas cabeças
O ponto final de Mitchell é que a inteligência humana não está contida apenas no cérebro, mas requer um corpo físico.

Isso parece autoexplicativo; usamos nossos sentidos para absorver e processar informações e interagimos e nos movemos pelo mundo em nossos corpos. No entanto, a ênfase predominante na pesquisa de IA está no cérebro: compreendê-lo, replicar vários aspectos de sua forma ou função e tornar a IA mais parecida com ela.

Se a inteligência vivesse apenas no cérebro, seríamos capazes de chegar mais perto de alcançar IA de nível humano, digamos, construindo uma rede neural com o mesmo número de parâmetros que o cérebro tem conexões sinápticas, duplicando assim a “capacidade de computação do cérebro . ”

Desenhar esse tipo de paralelo pode ser aplicado nos casos em que “inteligência” se refere à operação por um conjunto de regras para trabalhar em direção a um objetivo definido – como ganhar um jogo de xadrez ou modelar a forma como as proteínas se dobram, ambos os quais os computadores já podem fazer bastante Nós vamos. Mas outros tipos de inteligência são muito mais moldados e sujeitos às emoções, preconceitos e experiências individuais.

Voltando ao exemplo do GPT-3: o algoritmo produz inteligência “subjetiva” (sua própria escrita) usando um conjunto de regras e parâmetros que criou com um enorme conjunto de dados de inteligência subjetiva pré-existente (escrita por humanos). GPT-3 é saudado como sendo “criativo”, mas sua escrita depende de associações que traçou entre palavras e frases na escrita humana – que é repleta de preconceitos, emoção, conhecimento pré-existente, bom senso e a experiência única do escritor do mundo, tudo experimentado através do corpo.

Mitchell argumenta que os aspectos não racionais e subjetivos da maneira como os humanos pensam e operam não são um obstáculo à nossa inteligência, mas são, na verdade, sua base e facilitador. O especialista em inteligência geral artificial Ben Goertzel também defende a “arquitetura de todo o organismo”, escrevendo: “Os seres humanos são corpos tanto quanto mentes, portanto, alcançar um AGI semelhante ao humano exigirá a incorporação de sistemas de IA em sistemas físicos capazes de interagir com o ser humano diário mundo de maneiras diferenciadas. ”

Para onde vamos a partir daqui?
Esses equívocos deixam poucas dúvidas sobre o que os pesquisadores e desenvolvedores de IA não devem fazer. O que é menos claro é como seguir em frente. Devemos começar, diz Mitchell, com uma melhor compreensão da inteligência – não é uma tarefa pequena ou simples. Um bom lugar onde os pesquisadores de IA podem procurar, porém, é em outras disciplinas da ciência que estudam inteligência.

Por que estamos tão empenhados em criar uma versão artificial da inteligência humana, afinal? Ele evoluiu ao longo de milhões de anos e é extremamente complexo e intrincado, mas ainda cheio de suas próprias deficiências. Talvez a resposta seja que não estamos tentando construir um cérebro artificial tão bom quanto o nosso; estamos tentando construir um que seja melhor e que nos ajudará a resolver problemas atualmente sem solução.

A evolução humana ocorreu ao longo de cerca de seis milhões de anos. Enquanto isso, já se passaram 65 anos desde que a IA se tornou um campo de estudo, e ela está escrevendo textos semelhantes aos humanos, fazendo caretas, se mantendo em debates, fazendo diagnósticos médicos e muito mais. Embora ainda haja muito a aprender, parece que a IA está progredindo muito bem no grande esquema das coisas – e o próximo passo para levá-la adiante é aprofundar nossa compreensão de nossas próprias mentes.

Vanessa Bates Ramirez para Singularity Hub.

Categorias
Blog

Computação quântica: como funciona e quais os princípios

Existem problemas que os computadores comuns não conseguem resolver? A resposta é sim. Mas é exatamente para isso que a computação quântica foi criada. 

Esse modelo de tecnologia possui capacidade de processamento muito maior que os meios tradicionais dessa área. 

Ou seja, ela consegue resolver problemas complexos que seriam impossíveis para computadores normais. 

Embora a programação quântica seja um setor mais recente, algumas empresas da área da biologia, física e saúde, por exemplo, já investem nisso por enxergarem potenciais ganhos no futuro. 

Pensando nisso, neste artigo vamos explicar o que é, como funciona e quais são as vantagens da computação quântica.

Tenha uma boa leitura! 

banner-leading-the-future

O que é computação quântica?

A computação quântica é um modelo de tecnologia computacional que processa as informações com uso de bits quânticos, conhecidos popularmente como qubits. 

Esses qubits são unidades de informações com aspectos quânticos que juntam todos os dados e formam dimensões novas para processamento. 

Para visualizar melhor, vamos rapidamente comparar com a computação tradicional. 

O computador comum, visto no dia a dia, utiliza bits para o sistema operacional de processamento. Bits, na verdade, significa “binary digit”, que a tradução literal é “dígito binário”. 

Isso quer dizer que os cálculos e processamentos do computador tradicional são feitos na lógica binária a partir dos valores 0 e 1, suportando apenas um estado por vez. 

A partir disso, podemos entender melhor o que é computação quântica. Os qubits, por sua vez, suportam dois estados juntos e emaranhar com outras unidades de informação. 

Portanto, a computação quântica é fundamentada em um princípio diferente que permite cálculos mais ágeis, deciframento de códigos e simulação de sistemas quânticos, por exemplo. 

Apesar de ser uma tecnologia relativamente nova, o conceito da programação quântica foi proposto pela primeira vez em 1981 pelo físico Richard Feyman. Na ocasião, ele propôs que as propriedades quânticas fossem usadas para o processamento de computadores. 

Alguns anos mais tarde, em 1985, o também físico David Deustch apresentou em formas matemáticas o que seria o primeiro modelo de computador quântico. 

Mas o primeiro processador quântico foi registrado em 2007 e era da empresa D-Wave, do Canadá. Chamado de Orion, ele tinha características híbridas de 16 qubits. 

Desde então, esse setor está em constante evolução e crescimento.

Segundo o estudo chamado “What Happens When ‘If’ Turns to ‘When’ in Quantum Computing?” da Boston Consulting Group (BCG), a computação quântica deve movimentar entre US$ 450 bilhões a US$ 850 bilhões até o ano de 2040. 

Esse crescimento acontece por causa da habilidade que a programação quântica tem de resolver problemas que estavam fora do alcance das tecnologias tradicionais.

Computação e mecânica quântica: qual é a relação?

qual é a relação entre computação quântica e mecânica quântica?

Essa nova área da computação é possível graças à mecânica quântica, um segmento da física que estuda sobre as partículas atômicas e subatômicas como prótons, elétrons, moléculas, entre outras. 

De forma bem simples, a mecânica quântica procura coletar informações de comportamento das partículas em pequenas escalas de tempo, grandeza e energia.

Ela é a base do funcionamento dos computadores e trouxe avanços teóricos importantes para que a computação quântica aplicasse nessa nova tecnologia

Então, basicamente, a relação é de teoria e prática. Isto é, enquanto a mecânica quântica traz o fundamental dos estudos sobre partículas atômicas e subatômicas, a computação quântica coloca em prática esse conhecimento para desenvolver o computador quântico. 

É essa relação que permitiu que o computador use o qubits para processar informações ao mesmo tempo, evitando o efeito túnel. 

No caso, o efeito túnel também é conhecido como tunelamento quântico e ocorre quando partículas ultrapassam o estado de energia comumente proibido, gastando um nível alto de energia. 

Como a computação quântica funciona?

Pensar no funcionamento da computação quântica significa imaginar um sistema mais complexo e delicado. 

Certamente, ele opera com algoritmos para realizar operações, assim como um computador tradicional. 

Contudo, essa tecnologia clássica enfrenta um limite físico de processamento, que pode ser superado pela programação quântica. 

Aqui é importante entender que a física clássica que opera no computador tradicional não consegue no universo quântico, onde quem domina são as características da mecânica quântica. 

Sendo assim, o funcionamento da computação quântica ocorre a partir da movimentação

das partículas e das energias dos átomos, e não somente da energia elétrica como é o caso do modelo convencional. 

É a partir desse sistema que as partículas quânticas conseguem obter resultados de dois estados simultâneos. 

Vale a pena ressaltar que esses computadores precisam estar em ambientes de temperaturas controladas e baixas. Muitas vezes, essas tecnologias são refrigeradas com hélio líquido ou nitrogênio. 

O motivo é para que os qubits possam interagir entre eles sem que qualquer mudança de temperatura interfira e atrapalhe. 

Por que é importante conhecer o funcionamento da computação quântica? 

Em um mercado de constante mudança e inovação, é essencial ficar de olho em tecnologias emergentes. 

No caso, são tecnologias que já são usadas em setores muito específicos, sem muito acesso por parte da população. Além disso, são vistas como promessas para transformar o mercado de maneira rápida.

Portanto, saber agora o que é computação quântica e como ela funciona é importante para visar benefícios futuros. 

E tem mais, ter esse conhecimento adiantado é uma vantagem competitiva no mercado, ainda mais quando é um assunto ainda desconhecido para muitos. 

Para você ter uma noção, o site TechRepublic fez um levantamento de dados sobre quantas empresas conhecem a computação quântica. 

Nessa pesquisa, 90% dos representantes das organizações que foram entrevistados afirmaram que possuem pouco ou nenhum conhecimento sobre essa tecnologia emergente. 

Entretanto, 58% deles apresentaram otimismo sobre um impacto positivo desse modelo de computação nas empresas. 

Isso mostra a oportunidade, por exemplo, que é aprender sobre quais as vantagens da computação quântica, que falaremos mais adiante.

Princípios da computação quântica

princípios da computação quântica

Agora que você já sabe o que é computação quântica e como ela funciona, fica bem mais fácil de compreender os princípios básicos que ela usa. 

Assim como todo sistema, a programação quântica requer uma linguagem específica para ser entendida. 

Por isso, existem alguns termos que traduzem o funcionamento do computador quântico. Listamos os principais a seguir:

Superposição

No cerne do processo de “teste” quântico está uma peculiaridade chamada superposição. 

Nossos computadores são alimentados por elétrons, que podem representar apenas dois estados – 0 ou 1. 

A mecânica quântica é muito mais estranha, pois os fótons (partículas de luz) podem ser simultaneamente 0 e 1, com uma probabilidade ligeiramente diferente de “inclinar-se para” um ou outro.

Dito isso, a superposição é a capacidade e a propriedade que o bit quântico tem de apresentar uma junção do 0 e 1 simultaneamente. 

Essa estranheza evasiva é parte do que torna a computação quântica tão poderosa. Veja nosso exemplo de aprendizado por reforço de como navegar em um novo acampamento. 

Em nosso mundo clássico, nós – e nossa IA – precisamos decidir entre virar à esquerda ou à direita em um cruzamento. Em uma configuração quântica, no entanto, o AI pode (em certo sentido) virar para a esquerda e para a direita ao mesmo tempo. 

Portanto, ao buscar o caminho correto de volta à base, o sistema quântico tem uma vantagem, pois pode explorar simultaneamente várias rotas, tornando-o muito mais rápido do que a trilha e o erro convencionais e consecutivos.

“Como consequência, um agente que pode explorar seu ambiente em superposição aprenderá significativamente mais rápido do que sua contraparte clássica”, disse o Dr. Hans Briegel, da Universität Innsbruck. 

Nem tudo é teoria. Para testar a ideia, a equipe recorreu a um chip programável chamado processador nanofotônico. Pense nele como um chip de computador semelhante a uma CPU, mas ele processa partículas de luz – fótons – em vez de eletricidade. 

Esses chips movidos a luz levaram muito tempo para serem produzidos. Em 2017, por exemplo, uma equipe do MIT construiu uma rede neural totalmente óptica em um chip óptico para apoiar o aprendizado profundo.

Os chips não são tão exóticos. Processadores nanofotônicos agem como nossos óculos, que podem realizar cálculos complexos que transformam a luz que passa por eles. No caso dos óculos, eles permitem que as pessoas vejam melhor. 

Para um chip de computador baseado em luz, permite a computação. Em vez de usar cabos elétricos, os chips usam “guias de onda” para transportar fótons e realizar cálculos com base em suas interações.

A parte do “erro” ou “recompensa” do novo hardware vem de um computador clássico. O processador nanofotônico é acoplado a um computador tradicional, onde este fornece feedback ao circuito quântico – ou seja, recompensa ou não uma solução. 

Essa configuração, explica a equipe, permite que eles avaliem de forma mais objetiva quaisquer acelerações na aprendizagem em tempo real.

Desta forma, um agente de aprendizado de reforço híbrido alterna entre computação quântica e clássica, experimentando ideias em terreno “multiverso” vacilante, enquanto obtém feedback na “normalidade” da física clássica, fundamentada.

banner-leading-the-future

Entrelaçamento

O entrelaçamento, ou emaranhamento quântico, é quando o conhecimento de uma parte do sistema determina as informações da outra parte, independentemente de fatores como a distância. 

Para entender melhor, vamos imaginar duas partículas que podem ser elétrons, por exemplo. 

No momento em que eles interagem entre si, um sistema é criado. Dentro dessa interação, as partículas relacionam o próprio estado uma com a outra. Assim, as duas precisam ser levadas em consideração para serem medidas. 

Isso porque a ligação entre elas obriga que tenham valores diferentes. Ou seja, digamos que um elétron tenha um movimento angular específico. Então, obrigatoriamente o outro elétron terá outro movimento distinto. 

Esse é o processo conhecido como entrelaçamento quântico, que permite ter informações do sistema como um todo por meio da medição de somente uma parte dele. 

Inclusive, pode ser considerado uma das vantagens da computação quântica, por tornar possível a ligação entre qubits que podem ser alterados com apenas um comando. 

Com esse sistema, o computador quântico consegue solucionar problemas complexos que levariam muito mais tempo em um modelo tradicional. 

Decoerência

a decoerência na computação quântica

A decoerência é um obstáculo existente no desenvolvimento de computadores quânticos, que praticamente elimina a superposição de partículas. O que isso quer dizer? 

De forma concisa, as partículas quânticas perdem a capacidade de terem aquele resultado misto entre 0 e 1, por assim dizer. Com o fenômeno chamado decoerência, essas partículas passam a representar 0 ou 1. 

Ou seja, o sistema passa a ter um comportamento mais tradicional e o bit quântico perde a função quântica. 

É como se a partícula atômica ou subatômica sofresse interações com ambientes macroscópicos e perdesse as propriedades quânticas de representar estados diferentes de forma simultânea. 

Por isso, a decoerência é uma espécie de fenômeno visto como um ruído que atrapalha os sistemas de superposição e entrelaçamento citados anteriormente. 

Dessa forma, um grande desafio da mecânica quântica e da ciência da computação é encontrar ferramentas que possam proteger os qubits de ambientes macroscópicos e, assim, evitar a decoerência.

Quais são as vantagens da computação quântica?

Após aprender os princípios da programação quântica, é nítido que uma das principais vantagens desse modelo computacional é a capacidade de processamento maior para encontrar soluções inovadoras. 

Por razão de usar qubits, a computação quântica consegue ter mais agilidade também para resolver problemas em comparação com computadores convencionais.

Além de que essa tecnologia emergente supera os limites e armazena dados em quantidades muito maiores, o que pode ser ideal para inteligências artificiais, por exemplo. 

É essencial pensar nesse quesito, já que a inteligência artificial (IA) demanda mais qualidade de processamento e potência dos computadores. 

Outra vantagem é a forma que a computação quântica pode afetar positivamente a economia atuando em modelos de negócios, desenvolvimento de ferramentas e gestões no geral. 

São várias as áreas que podem usufruir no futuro da programação quântica como a sustentabilidade, tecnologia e informação, saúde, agricultura, entre outras. 

Qual é o cenário da computação quântica hoje?

Por se tratar de uma tecnologia complicada e que exige bastante atenção, o cenário da computação quântica hoje segue em pleno desenvolvimento teórico e prático.

Recentemente, uma colaboração internacional liderada pelo Dr. Philip Walther da Universidade de Viena pegou o conceito “clássico” de aprendizagem por reforço e deu-lhe um spin quântico. 

Eles projetaram uma IA híbrida que depende tanto da computação quântica quanto da computação clássica comum e mostraram que – graças à peculiaridade quântica – ela poderia examinar simultaneamente um punhado de maneiras diferentes de resolver um problema.

O resultado é uma IA de aprendizagem por reforço que aprendeu mais de 60 por cento mais rápido do que seus pares não habilitados para quantum. 

Este é um dos primeiros testes que mostra que a adição de computação quântica pode acelerar o processo de aprendizagem real de um agente de IA, explicaram os autores.

Embora apenas desafiado com um “problema de brinquedo” no estudo, a IA híbrida, uma vez dimensionada, poderia impactar problemas do mundo real, como a construção de uma internet quântica eficiente. 

A configuração “poderia ser facilmente integrada em futuras redes de comunicação quântica em grande escala”, escreveram os autores.

Atualmente, empresas maiores como Google, Amazon e IBM enxergam potencial nessa tecnologia emergente e entendem os resultados inovadores que ela pode gerar. 

No fim de 2022, inclusive, a IBM lançou o computador quântico nomeado “Osprey”, que possui 433 qubits de processamento. 

Além deste, a empresa já investiu na montagem de mais de 20 computadores quânticos no mundo. 

Em 2023, a Google publicou uma pesquisa na revista de ciências conhecida como Nature, que indica a construção de um qubit mais lógico, capaz de resolver problemas até então vistos como impossíveis na área de criptografia e de estruturas complexas. 

Como é possível utilizar a computação quântica?

como usar a computação quântica

O desenvolvimento do computador comum foi um forte diferencial para o desenvolvimento das indústrias no quesito de modelos de produção e ferramentas tecnológicas. 

Nesse sentido, a computação quântica pode potencializar esses resultados e trazer inovações para diferentes áreas. 

Listamos a seguir alguns modelos de uso dessa tecnologia:

Machine learning

O termo machine learning se refere à habilidade computacional de prever e fazer as melhores escolhas. Isso é possível a partir do processamento intenso de dados que funcionam como uma forma de aprendizado para a máquina. 

Esse aprendizado por reforço profundo está tendo um momento de superstar.

Alimentando robôs mais inteligentes. Simulando redes neurais humanas. Derrubando médicos em diagnósticos médicos e esmagando os melhores jogadores da humanidade em Go e Atari. 

Embora longe de alcançar o pensamento flexível e rápido que vem naturalmente aos humanos, essa poderosa ideia de aprendizado de máquina parece imparável como um prenúncio de máquinas pensantes melhores.

Exceto que há um grande obstáculo: eles demoram uma eternidade para funcionar. 

Como o conceito por trás desses algoritmos é baseado em tentativa e erro, um “agente” de IA de aprendizagem por reforço só aprende depois de ser recompensado por suas decisões corretas. 

Para problemas complexos, o tempo que um agente de IA leva para tentar e não conseguir aprender uma solução pode rapidamente se tornar insustentável.

Mas e se você pudesse tentar várias soluções ao mesmo tempo?

Aprender com a tentativa e erro chega intuitivamente ao nosso cérebro.

Digamos que você esteja tentando navegar em um novo acampamento complicado sem um mapa. O objetivo é voltar do banheiro comunitário para o acampamento. Os becos sem saída e os loops confusos abundam. 

Enfrentamos o problema decidindo virar à esquerda ou à direita em cada ramal da estrada. Um nos aproximará da meta; o outro levará meia hora de caminhada em círculos. 

Eventualmente, a química do nosso cérebro recompensa as decisões corretas, então aprendemos gradualmente a rota correta. (Se você está se perguntando … sim, história verdadeira.)

Os agentes de IA de aprendizagem por reforço operam de maneira semelhante por tentativa e erro. À medida que um problema se torna mais complexo, o número – e o tempo – de cada tentativa também sobe vertiginosamente.

“Mesmo em um ambiente moderadamente realista, pode simplesmente demorar muito para responder racionalmente a uma determinada situação”, explicou o autor do estudo, Dr. Hans Briegel, da Universität Innsbruck, na Áustria. 

Anteriormente, ele liderou esforços para acelerar a tomada de decisões de IA usando quantum mecânica. 

Se houver pressão que permita “apenas um certo tempo para uma resposta, um agente pode então ser incapaz de lidar com a situação e aprender”, escreveu ele.

Muitas tentativas tentaram acelerar o aprendizado por reforço. Dando ao agente de IA uma “memória” de curto prazo. Aproveitando a computação neuromórfica, que se assemelha melhor ao cérebro. 

Em 2014, Briegel e colegas mostraram que uma espécie de “cérebro quântico” pode ajudar a impulsionar o processo de tomada de decisão de um agente de IA após o aprendizado. 

Mas acelerar o próprio processo de aprendizagem tem escapado às nossas melhores tentativas.

O novo estudo foi direto para aquela jugular anteriormente insustentável.

O insight principal da equipe foi explorar o melhor dos dois mundos – computação quântica e clássica. 

Em vez de construir um sistema completo de aprendizado por reforço usando a mecânica quântica, eles se voltaram para uma abordagem híbrida que poderia se provar mais prática. 

Aqui, o agente de IA usa estranheza quântica enquanto tenta novas abordagens – a “tentativa” de tentativa e erro.

O sistema então passa o bastão para um computador clássico para dar à IA sua recompensa – ou não – com base em seu desempenho.

Simulação

Mais uma área possível de aplicar a computação quântica é na simulação, de um jeito que consiga realizar esse procedimento com precisão.

Em simulações usando 10.000 agentes de IA e dados experimentais reais de 165 ensaios, a abordagem híbrida, quando desafiada com um problema mais complexo, mostrou uma clara vantagem.

A palavra-chave é “complexo”. A equipe descobriu que se um agente de IA tem uma grande chance de descobrir a solução de qualquer maneira – como para um problema simples – então a computação clássica funciona muito bem. 

A vantagem quântica floresce quando a tarefa se torna mais complexa ou difícil, permitindo que a mecânica quântica flexione totalmente seus músculos de superposição. 

Para esses problemas, o AI híbrido foi 63 por cento mais rápido no aprendizado de uma solução em comparação com o aprendizado por reforço tradicional, diminuindo seu esforço de aprendizado de 270 para 100 tentativas.

Agora que os cientistas mostraram um aumento quântico nas velocidades de aprendizado por reforço, a corrida pela computação da próxima geração está ainda mais acesa. 

O hardware fotônico necessário para comunicações baseadas em luz de longo alcance está diminuindo rapidamente, melhorando a qualidade do sinal. 

A configuração quântica parcial poderia “ajudar especificamente em problemas onde a pesquisa frequente é necessária, por exemplo, problemas de roteamento de rede” que prevalece para uma Internet em funcionamento, escreveram os autores. 

Com um aumento quântico, o aprendizado por reforço pode ser capaz de lidar com problemas muito mais complexos – aqueles do mundo real – do que é possível atualmente.

“Estamos apenas no início da compreensão das possibilidades da inteligência artificial quântica”, disse o autor principal Walther.

Afinal, como o cérebro aprende? Explicamos não só isso, mas também como estimulá-lo em um conteúdo completo aqui do blog.

Otimização

computação quântica para otimização

Outro ponto onde a computação quântica pode ser aplicada é na otimização dos processos. 

Ela consegue ajudar tanto no planejamento, que envolve uma pesquisa maior, como também no desenvolvimento para alcançar um resultado de maneira otimizada. 

Isso porque a programação quântica tem a habilidade de encontrar caminhos para resolver a complexidade dos desafios encontrados. 

Assim, empresas podem fazer uso dessa tecnologia emergente para coordenar ativos financeiros ou talvez gerir rotas de transportadoras, por exemplo. 

Ou então para qualquer outro obstáculo complexo que apareça e que um computador convencional não consiga resolver dentro de um período de tempo razoável.

banner-leading-the-future

Conclusão

Uma das principais finalidades da computação quântica é propor soluções para problemas que são vistos como impossíveis ou que esbarram no limite de processamento dos computadores convencionais. 

Isso é possível graças a relação dessa tecnologia emergente com a mecânica quântica, que permite criar máquinas com princípios de superposição e emaranhamento. 

Embora existam vantagens da computação quântica, o desenvolvimento desse modelo ainda enfrenta obstáculos que querem estudos teóricos e aplicações práticas. 

Mas tenha certeza que aprender agora sobre o que é programação quântica e como ela funciona é uma vantagem competitiva no mercado. 

Se quiser aprofundar ainda mais em inovações tecnológicas, leia também sobre o que é nanotecnologia. 

Categorias
Blog

Tech Talks: IA, data science e machine learning

Na primeira temporada do podcast da SingularityU Brazil, Tech Talks, batemos um papo com o egresso do ITA e MIT, Caio Ishizaka, diretor de Data da Red Ventures e Gabriela de Queiroz, gerente de Data da IBM e fundadora da AI Inclusive, uma organização cujo objetivo é aumentar a representação e participação de grupos de minorias de gênero na inteligência artificial.

Os especialistas trouxeram luz ao ainda pouco compreendido universo dos modelos de aprendizagem de máquinas.

O que diferencia Data Science de Inteligência Artificial e de Machine Learning?
GQ – Essa é uma pergunta que sempre nos fazem porque essas palavras se misturam e têm muito overlap. As vezes você está falando de data Science, mas se refere mais à parte de inteligência artificial ou de machine learning. Tem uma definição que acho muito legal do David Robson, em que ele fala “Data Science é você produzir insights, em machine learning você produz predições e na inteligência artificial você produz ações”. Mas há muita coisa em comum entre os três. Nós, que somos profissionais dessa área, entramos e saímos desses campos a todo instante.

Muito se fala da Inteligência Artificial ter um hype e chamar atenção, aqui no Vale do Silício o pessoal brinca que “quando uma empresa está procurando investidor, diz que está trabalhando com inteligência artificial. Quando está procurando funcionários, diz que está trabalhando com machine learning. Quando está procurando resoluções de problemas, está fazendo regressão linear. E, quando está resolvendo o problema, está só fazendo um print statement”.

CI – Usamos muito o machine learning como ferramenta para a inteligência artificial, mas não apenas para isso. Quando você faz um modelo, pode estar apenas traçando uma análise, não necessariamente criando um robô com IA, capaz de tomar decisões. Assim como nem todo modelo de Inteligência Artificial tem um algoritmo de machine learning por trás. Um exemplo que gosto de dar são os videogames. O jogo “Pong” consistia em possuir uma raquete e utilizá-la contra o computador e, ali, a máquina já era capaz de simular o comportamento de um oponente humano. Isso pode ser considerado IA sem machine learning. Uma definição que eu gosto muito para Machine Learning é o de que é: o processo de uma máquina aprender com as suas próprias experiências.

Um dos problemas das tecnologias exponenciais é, justamente, a velocidade com que as coisas mudam. Enquanto muitos de nós ainda estamos tentando entender os mecanismos do machine learning, o deep learning já está na boca da comunidade científica. Quais são suas percepções sobre a pauta?

CI – O deep learning é uma ferramenta que está no repertório do machine learning. Traçando o paralelo, temos a matemática e abaixo dela disciplinas como geometria, aritmética, álgebra. A aritmética está para a matemática assim como o deep learning está para a machine learning. Essa tecnologia vem sendo muito comentada porque ali estão os avanços de reconhecimento de imagem e reconhecimento de texto; muitos dos modelos estão utilizando essa ferramenta.

O IBM Watson, por exemplo, permite que você faça uma pergunta em formato de texto e ele te traga respostas. Há muito uso do deep learning por trás. Então, não se sintam alarmados, o deep learning é apenas uma ferramenta a mais.

GQ – Deep Learning é uma palavra quente, que estão todos falando, mas não quer dizer que estão todos usando. Ainda usamos modelos mais simples para resolver nossos problemas do dia a dia. Mas, realmente, questões relacionadas a imagem, vídeo e texto puderam começar a serem resolvidos com a entrada do deep learning; que é um campo antigo.

Antes, não tínhamos o poder computacional que temos agora. Usamos o deep learning mais amplamente agora por existir essa capacidade de aplicação. Um bom exemplo do quanto ele está disseminado é a alfândega dos aeroportos. Uma câmera escaneia todas as pessoas que estão passando, fazendo o reconhecimento facial e casando com uma infinidade de informações: nome, destino, ficha criminal. Isso já é uma aplicação diária

O reconhecimento facial é uma pauta polêmica carregada de equívocos propagados pelo cinema, em especial nas produções de ficção científica, sobre a possibilidade dos robôs serem auto didatas. Isso faz algum sentido?

GQ – Muitas coisas da ficção científica estão realmente caminhando na direção da realidade futura, os carros autônomos são o grande exemplo disso. Mas os responsáveis por ensinar os robôs somos nós que estamos criando algoritmos, os robôs que são altamente dependentes. Os algoritmos são bem fidedignos às pessoas que os criaram.

CI – A melhor e pior coisa sobre o computador é que ele faz exatamente o que você manda. O papel de quem está treinando o computador é fundamental. O próprio machine learning não aprende sozinho, você direciona o que ele tem que aprender. Muitos estudiosos abordam a “singularidade”, que é o momento em que as máquinas conseguiriam replicar um ser humano perfeitamente, mas essa é ainda uma discussão sem conclusão possível. Hoje não existem máquinas que aprendem por si só, mas máquinas que aprendem a executar o que são instruídas a fazerem.

Vocês acham que algum dia a automação dará cabo aos cientistas de dados?

CI – Essa é uma pergunta bastante difícil de ser respondida. Em programação se diz que “todo programador tem o objetivo máximo de se eliminar do trabalho”. Tudo que ele faz, gostaria de automatizar. Ciência de dados é parecido, ninguém quer ficar fazendo o mesmo modelo todos os dias.

Estamos entrando na era dos carros autônomos, por exemplo, e há toda uma discussão sobre o que será feito com o emprego de milhões de motoristas de caminhão. No campo do direito, você já vê robôs tecendo textos e defesas inteiras a partir do que foi alimentado. Recentemente, foi divulgado o novo release do GPT-3 que é uma inteligência artificial de construção de texto, você dá um prompt para ela com parágrafos de poucas linhas e ela redige um texto inteiro a partir daquilo. Então, será que o trabalho de redator também está sob perigo? Hoje, ainda estamos seguros, mas por quanto tempo? Eu não sei.

GQ – Quanto mais a IA avança, mais riscos traz aos empregos humanos, e precisamos nos questionar: quais são os empregos que gostaríamos que máquinas fizessem? Quais são os empregos que gostaríamos que os humanos fizessem? Ainda vivemos na era romântica, em que a tecnologia traz mais empregos do que tira. Mas, sim, há um futuro mais macabro que isso.

Você pode escutar esse episódio na íntegra neste link. A segunda temporada de podcasts da SingularityU Brazil, Tech Talks, estreia dia 29 de março. Para acompanhar, siga nosso perfil no Spotify.