
A equipe do Google olhava perplexa para as telas de seus computadores.
Eles haviam passado v�rios meses aperfei�oando um algoritmo desenvolvido para conduzir um bal�o de h�lio n�o tripulado de Porto Rico ao Peru. Mas algo estava errado.
O bal�o, controlado por intelig�ncia artificial (IA), continuava desviando da rota.
- Como a intelig�ncia artificial faz voc� comprar coisas, mesmo sem precisar
- O jovem russo que virou "intelig�ncia artificial" e se comunica com amigos ap�s a morte
Salvatore Candido, do agora extinto Projeto Loon, do Google, que tinha como objetivo levar acesso � internet a �reas remotas do planeta por meio de bal�es, n�o conseguia explicar a trajet�ria da aeronave.
Seus colegas assumiram manualmente o controle do sistema e o colocaram de volta na rota.
S� mais tarde eles perceberam o que estava acontecendo. Inesperadamente, a intelig�ncia artificial a bordo do bal�o havia aprendido a recriar uma antiga t�cnica de navega��o desenvolvida por humanos h� s�culos, sen�o milhares de anos.
A t�cnica envolve conduzir a embarca��o em ziguezague contra o vento, de modo que seja poss�vel avan�ar mais ou menos na dire��o desejada.
Sob condi��es clim�ticas desfavor�veis, os bal�es aut�nomos aprenderam a se virar sozinhos. O fato de terem feito isso, de forma espont�nea, surpreendeu a todos, inclusive aos pesquisadores que trabalhavam no projeto.
"Rapidamente percebemos que tinham sido mais espertos que a gente, quando o primeiro bal�o autorizado a executar totalmente essa t�cnica bateu um recorde de tempo de voo de Porto Rico ao Peru", escreveu Candido em um blog sobre o projeto.
"Nunca me senti t�o inteligente e t�o burro ao mesmo tempo."
Este � exatamente o tipo de coisa que pode acontecer quando a intelig�ncia artificial � deixada � sua pr�pria sorte.
Diferentemente dos programas de computador tradicionais, as IAs s�o projetadas para explorar e desenvolver novas abordagens para tarefas sobre as quais seus engenheiros humanos n�o lhes falaram explicitamente.
Mas enquanto aprendem como fazer essas tarefas, as IAs �s vezes apresentam uma abordagem t�o inovadora que pode surpreender at� mesmo as pessoas que trabalham com esses sistemas o tempo todo.
Isso pode ser algo bom, mas tamb�m pode tornar as coisas controladas por intelig�ncia artificial perigosamente imprevis�veis — rob�s e carros aut�nomos podem acabar tomando decis�es que colocam os humanos em perigo.
Como � poss�vel para um sistema de intelig�ncia artificial "superar" seus mestres humanos? E ser� que poder�amos controlar as mentes das m�quinas de alguma forma, para garantir que n�o aconte�a nenhum desastre imprevisto?
Na comunidade de IA, h� um caso de criatividade que parece ser mais citado do que qualquer outro.
O momento que realmente empolgou as pessoas sobre o que a intelig�ncia artificial pode fazer, diz Mark Riedl, do Instituto de Tecnologia da Ge�rgia, nos EUA, foi quando o DeepMind, laborat�rio de IA do Google, mostrou como um sistema de machine learning (aprendizagem autom�tica) dominou o antigo jogo de tabuleiro Go — e depois derrotou um dos melhores jogadores humanos do mundo.
"Isso acabou demonstrando que havia novas estrat�gias ou t�ticas para contra-atacar um jogador que ningu�m realmente havia usado antes — ou pelo menos muitas pessoas n�o sabiam a respeito", explica Riedl.
E ainda assim, um inocente jogo de Go desperta sentimentos diferentes entre as pessoas.
Riscos
Por um lado, o DeepMind descreveu orgulhosamente as maneiras pelas quais seu sistema, o AlphaGo, foi capaz de "inovar" e revelar novas abordagens para um jogo que os humanos v�m jogando h� mil�nios.
Por outro lado, alguns questionaram se uma intelig�ncia artificial t�o inovadora poderia um dia representar um s�rio risco para os humanos.
"� rid�culo pensar que seremos capazes de prever ou gerenciar o pior comportamento das intelig�ncias artificiais quando n�o podemos, na verdade, imaginar seu poss�vel comportamento", escreveu Jonathan Tapson, da Universidade de Western Sydney, na Austr�lia, ap�s a vit�ria hist�rica do AlphaGo.
� importante lembrar, diz Riedl, que as intelig�ncias artificiais n�o pensam realmente como os humanos. Suas redes neurais s�o, de fato, vagamente inspiradas em c�rebros de animais, mas podem ser melhor descritas como "dispositivos de explora��o".
Quando tentam resolver uma tarefa ou problema, elas n�o trazem consigo muitas, se � que alguma, ideia preconcebida sobre o mundo em geral. Simplesmente tentam — �s vezes, milh�es de vezes — encontrar uma solu��o.
"N�s, humanos, trazemos conosco muita bagagem mental, pensamos nas regras", explica Riedl.
"Os sistemas de intelig�ncia artificial nem sequer entendem as regras, ent�o eles mexem nas coisas de maneira muito aleat�ria."
Dessa forma, as IAs poderiam ser descritas como o equivalente em sil�cio de pessoas com S�ndrome do S�bio (ou de Savant), acrescenta Riedl, citando a condi��o em que um indiv�duo tem uma defici�ncia mental grave, mas tamb�m possui uma habilidade extraordin�ria, geralmente relacionada � mem�ria.
Uma maneira pela qual as IAs podem nos surpreender envolve sua capacidade de lidar com problemas radicalmente diferentes, mas usando o mesmo sistema b�sico.
Recentemente, uma ferramenta de machine learning desenvolvida para gerar par�grafos de texto foi requisitada a executar uma fun��o muito diferente: jogar uma partida de xadrez.
O sistema em quest�o se chama GPT-2 e foi criado pela OpenAI. Treinado por meio de milh�es de artigos de not�cias online e p�ginas da web, o GPT-2 � capaz de prever a pr�xima palavra em uma frase com base nas palavras anteriores.
Uma vez que os movimentos de xadrez podem ser representados em caracteres alfanum�ricos, "Be5" para mover um bispo, por exemplo, o desenvolvedor Shawn Presser pensou que se ele treinasse o algoritmo por meio de registros de partidas de xadrez, a ferramenta poderia aprender como jogar ao descobrir sequ�ncias desej�veis de movimentos.
Presser treinou o sistema com 2,4 milh�es de jogos de xadrez.
"Foi muito bacana ver o mecanismo de xadrez ganhando vida", diz ele.
"Eu n�o tinha certeza se iria funcionar."
Mas deu certo. N�o � t�o bom quanto computadores especialmente projetados para xadrez — mas � capaz de jogar partidas dif�ceis com sucesso.
Segundo Presser, o experimento mostra que o sistema GPT-2 tem muitos recursos inexplorados. Um "s�bio" com dom para o xadrez.
Uma vers�o posterior do mesmo software surpreendeu os web designers quando um desenvolvedor o treinou brevemente para produzir c�digos para exibir itens em uma p�gina, como textos e bot�es.
A intelig�ncia artificial gerou o c�digo apropriado, embora tudo o que tinha para seguir adiante eram descri��es simples como "texto em vermelho que diz 'eu te amo' e um bot�o com 'ok' nele".
Claramente, ela adquiriu a ess�ncia b�sica de web design, mas ap�s um treinamento surpreendentemente curto.
Uma �rea em que as IAs h� muito tempo impressionam � na de videogames.
H� in�meros casos na comunidade de intelig�ncia artificial sobre coisas surpreendentes que os algoritmos t�m feito em ambientes virtuais.
Os algoritmos costumam ser testados e aperfei�oados, para ver o qu�o capazes eles realmente s�o, em espa�os semelhantes aos de videogames.
Em 2019, a OpenAI ganhou as manchetes com um v�deo sobre um jogo de pique-esconde jogado por personagens controlados por machine learning.
Para a surpresa dos pesquisadores, aqueles que estavam "procurando" acabaram aprendendo que podiam pular em cima dos itens e "surf�-los" para ter acesso aos recintos onde havia personagens escondidos. Em outras palavras, aprenderam a burlar as regras do jogo a seu favor.
Uma estrat�gia de tentativa e erro pode resultar em todos os tipos de comportamentos interessantes. Mas nem sempre levam ao sucesso.
Dois anos atr�s, Victoria Krakovna, pesquisadora da DeepMind, pediu aos leitores de seu blog que compartilhassem hist�rias em que as IAs resolveram problemas complicados — mas de maneiras imprevisivelmente inaceit�veis.
A longa lista de exemplos que ela reuniu � fascinante. Entre eles, est� um algoritmo de jogo que aprendeu a se matar no final da primeira fase — para evitar morrer na segunda fase. O objetivo de n�o morrer na segunda fase foi alcan�ado, mas n�o de uma forma particularmente impressionante.
Outro algoritmo descobriu que poderia pular de um penhasco em um jogo e levar um oponente consigo para a morte. Isso deu � IA pontos suficientes para ganhar uma vida extra e continuar repetindo essa t�tica suicida em um loop infinito.
O pesquisador de intelig�ncia artificial de videogame Julian Togelius, da Escola de Engenharia Tandon da Universidade de Nova York, nos EUA, pode explicar o que est� acontecendo.
Ele diz que esses s�o exemplos cl�ssicos de erros de "aloca��o de recompensa". Quando uma intelig�ncia artificial � solicitada a realizar algo, ela pode descobrir m�todos estranhos e inesperados de atingir seu objetivo, onde o fim sempre justifica os meios.
N�s, humanos, raramente adotamos tal postura. Os meios e as regras que preveem como devemos jogar s�o importantes.
Togelius e seus colegas descobriram que esse vi�s voltado a objetivos pode ser exposto em sistemas de intelig�ncia artificial quando eles s�o colocados � prova em condi��es especiais.
Em experimentos recentes, sua equipe descobriu que uma IA solicitada a investir dinheiro em um banco, correria para um canto pr�ximo do sagu�o do banco virtual e esperaria para receber um retorno sobre o investimento.
Togelius diz que o algoritmo aprendeu a associar correr para o canto com a obten��o de uma recompensa financeira, embora n�o houvesse nenhuma rela��o real entre seu movimento e o quanto era pago.
Isso, segundo ele, � mais ou menos como se a intelig�ncia artificial desenvolvesse uma supersti��o: "Voc� recebeu uma recompensa ou puni��o por algo — mas por que voc� recebeu?"
Essa � uma das armadilhas do "aprendizado por refor�o", em que uma intelig�ncia artificial acaba planejando uma estrat�gia equivocada com base no que encontra em seu ambiente.
A intelig�ncia artificial n�o sabe por que teve sucesso, ela s� pode basear suas a��es em associa��es aprendidas. Um pouco como as primeiras culturas humanas que come�aram a associar rituais a mudan�as no clima, por exemplo. Ou os pombos.
Em 1948, um psic�logo americano publicou um artigo descrevendo um experimento incomum em que colocava pombos em gaiolas e os recompensava com comida de forma intermitente.
Os pombos come�aram a associar a comida a o que quer que estivessem fazendo na ocasi�o — seja batendo as asas ou executando movimentos semelhantes a uma dan�a. Eles ent�o repetiam esses comportamentos, aparentemente na expectativa de que viria uma recompensa a seguir.
H� uma grande diferen�a entre as IAs dos jogos testados por Togelius e os animais vivos usados %u200B%u200Bpelo psic�logo, mas Togelius sugere que o mesmo fen�meno parece estar em a��o: a recompensa se torna erroneamente associada a um comportamento particular.
Embora os pesquisadores de intelig�ncia artificial possam se surpreender com os caminhos trilhados pelos sistemas de machine learning, isso n�o significa necessariamente que tenham admira��o por eles.
"Nunca tive a sensa��o de que esses agentes pensem por si s�", afirma Raia Hadsell, do DeepMind.
Hadsell fez experi�ncias com muitas IAs que encontraram solu��es interessantes e inovadoras para problemas n�o previstos por ela ou seus colegas.
Ela destaca que � exatamente por isso que os pesquisadores procuram aperfei�oar as IAs em primeiro lugar — para que possam alcan�ar coisas que os humanos n�o conseguem por conta pr�pria.
E ela argumenta que os produtos que usam intelig�ncia artificial, como carros aut�nomos, podem ser rigorosamente testados para garantir que qualquer imprevisibilidade esteja dentro de certos limites aceit�veis.
"Voc� pode dar garantias razo�veis %u200B%u200Bsobre o comportamento com base em evid�ncias emp�ricas", diz ela.
O tempo dir� se todas as empresas que vendem produtos constru�dos com intelig�ncia artificial s�o escrupulosas nesse aspecto.
Mas, ao mesmo tempo, � importante observar que as IAs que demonstram comportamentos inesperados n�o est�o de forma alguma confinadas a ambientes de pesquisa. Elas j� est�o atuando em produtos comerciais.
No ano passado, um bra�o rob�tico que trabalhava em uma f�brica em Berlim, desenvolvido pela empresa americana Covariant, apresentou maneiras inesperadas de classificar os itens � medida que eles passavam em uma esteira rolante.
Apesar de n�o ter sido especialmente programada para isso, a intelig�ncia artificial que controla o bra�o aprendeu a mirar no centro dos itens em embalagens transparentes para ajudar a garantir que os pegaria com sucesso todas as vezes.
Como esses objetos podem se confundir quando se sobrep�em, devido ao material transparente, mirar com menos precis�o significa que o rob� pode n�o conseguir pegar o item.
"Isso evita a sobreposi��o de objetos nos cantos e, em vez disso, mira na superf�cie mais f�cil de agarrar", afirma Peter Chen, cofundador e presidente-executivo da Covariant.
"Isso realmente nos surpreendeu."
Em paralelo, Hadsell diz que sua equipe testou recentemente um bra�o rob�tico que passa diferentes blocos por meio de orif�cios de formatos variados.
A m�o do rob� era bastante desajeitada, ent�o a intelig�ncia artificial que o controlava aprendeu que, pegando e soltando repetidamente o bloco, poderia coloc�-lo na posi��o certa para ent�o agarr�-lo e pass�-lo facilmente pelo orif�cio apropriado — em vez de tentar manobr�-lo usando a garra.
Tudo isso ilustra uma quest�o levantada por Jeff Clune, da OpenAI, que recentemente colaborou com pesquisadores do mundo todo para coletar exemplos de IAs que desenvolveram solu��es inteligentes para problemas.
Clune diz que a natureza explorat�ria da intelig�ncia artificial %u200B%u200B� fundamental para seu sucesso futuro.
"Conforme estamos ampliando esses sistemas de intelig�ncia artificial, o que estamos vendo � que as coisas que eles fazem de maneira criativa e impressionante n�o s�o mais curiosidades acad�micas", afirma.
Como as IAs encontram formas melhores de diagnosticar doen�as ou entregar suprimentos de emerg�ncia, elas at� salvam vidas gra�as � sua capacidade de encontrar novas maneiras de resolver velhos problemas, acrescenta Clune.
Mas ele acredita que aqueles que desenvolvem tais sistemas precisam ser abertos e honestos sobre sua natureza imprevis�vel, para ajudar a popula��o a entender como a intelig�ncia artificial funciona.
Afinal, � uma faca de dois gumes — a promessa e a amea�a da intelig�ncia artificial fazem parte do mesmo pacote. O que ser� que elas v�o inventar a seguir?
Leia a vers�o original desta reportagem (em ingl�s) no site BBC Future.
J� assistiu aos nossos novos v�deos no YouTube? Inscreva-se no nosso canal!
