(none) || (none)
Publicidade

Estado de Minas TECNOLOGIA

Como bal�o dirigido por intelig�ncia artificial surpreendeu criadores

Algoritmos que usam intelig�ncia artificial est�o descobrindo truques inesperados para resolver problemas que surpreendem seus desenvolvedores


10/05/2021 16:57 - atualizado 10/05/2021 18:53

Os balões de hélio do Projeto Loon, do Google, tinham como objetivo levar acesso à internet a partes remotas do mundo (foto: LOON)
Os bal�es de h�lio do Projeto Loon, do Google, tinham como objetivo levar acesso � internet a partes remotas do mundo (foto: LOON)

A equipe do Google olhava perplexa para as telas de seus computadores.

Eles haviam passado v�rios meses aperfei�oando um algoritmo desenvolvido para conduzir um bal�o de h�lio n�o tripulado de Porto Rico ao Peru. Mas algo estava errado.

O bal�o, controlado por intelig�ncia artificial (IA), continuava desviando da rota.

Salvatore Candido, do agora extinto Projeto Loon, do Google, que tinha como objetivo levar acesso � internet a �reas remotas do planeta por meio de bal�es, n�o conseguia explicar a trajet�ria da aeronave.

Seus colegas assumiram manualmente o controle do sistema e o colocaram de volta na rota.

S� mais tarde eles perceberam o que estava acontecendo. Inesperadamente, a intelig�ncia artificial a bordo do bal�o havia aprendido a recriar uma antiga t�cnica de navega��o desenvolvida por humanos h� s�culos, sen�o milhares de anos.


A t�cnica envolve conduzir a embarca��o em ziguezague contra o vento, de modo que seja poss�vel avan�ar mais ou menos na dire��o desejada.

Sob condi��es clim�ticas desfavor�veis, os bal�es aut�nomos aprenderam a se virar sozinhos. O fato de terem feito isso, de forma espont�nea, surpreendeu a todos, inclusive aos pesquisadores que trabalhavam no projeto.

"Rapidamente percebemos que tinham sido mais espertos que a gente, quando o primeiro bal�o autorizado a executar totalmente essa t�cnica bateu um recorde de tempo de voo de Porto Rico ao Peru", escreveu Candido em um blog sobre o projeto.

"Nunca me senti t�o inteligente e t�o burro ao mesmo tempo."

Este � exatamente o tipo de coisa que pode acontecer quando a intelig�ncia artificial � deixada � sua pr�pria sorte.

Diferentemente dos programas de computador tradicionais, as IAs s�o projetadas para explorar e desenvolver novas abordagens para tarefas sobre as quais seus engenheiros humanos n�o lhes falaram explicitamente.

Mas enquanto aprendem como fazer essas tarefas, as IAs �s vezes apresentam uma abordagem t�o inovadora que pode surpreender at� mesmo as pessoas que trabalham com esses sistemas o tempo todo.

Isso pode ser algo bom, mas tamb�m pode tornar as coisas controladas por intelig�ncia artificial perigosamente imprevis�veis — rob�s e carros aut�nomos podem acabar tomando decis�es que colocam os humanos em perigo.

Como � poss�vel para um sistema de intelig�ncia artificial "superar" seus mestres humanos? E ser� que poder�amos controlar as mentes das m�quinas de alguma forma, para garantir que n�o aconte�a nenhum desastre imprevisto?

Na comunidade de IA, h� um caso de criatividade que parece ser mais citado do que qualquer outro.

O momento que realmente empolgou as pessoas sobre o que a intelig�ncia artificial pode fazer, diz Mark Riedl, do Instituto de Tecnologia da Ge�rgia, nos EUA, foi quando o DeepMind, laborat�rio de IA do Google, mostrou como um sistema de machine learning (aprendizagem autom�tica) dominou o antigo jogo de tabuleiro Go — e depois derrotou um dos melhores jogadores humanos do mundo.

"Isso acabou demonstrando que havia novas estrat�gias ou t�ticas para contra-atacar um jogador que ningu�m realmente havia usado antes — ou pelo menos muitas pessoas n�o sabiam a respeito", explica Riedl.

E ainda assim, um inocente jogo de Go desperta sentimentos diferentes entre as pessoas.

Riscos

Por um lado, o DeepMind descreveu orgulhosamente as maneiras pelas quais seu sistema, o AlphaGo, foi capaz de "inovar" e revelar novas abordagens para um jogo que os humanos v�m jogando h� mil�nios.

Por outro lado, alguns questionaram se uma intelig�ncia artificial t�o inovadora poderia um dia representar um s�rio risco para os humanos.

"� rid�culo pensar que seremos capazes de prever ou gerenciar o pior comportamento das intelig�ncias artificiais quando n�o podemos, na verdade, imaginar seu poss�vel comportamento", escreveu Jonathan Tapson, da Universidade de Western Sydney, na Austr�lia, ap�s a vit�ria hist�rica do AlphaGo.

� importante lembrar, diz Riedl, que as intelig�ncias artificiais n�o pensam realmente como os humanos. Suas redes neurais s�o, de fato, vagamente inspiradas em c�rebros de animais, mas podem ser melhor descritas como "dispositivos de explora��o".

Quando tentam resolver uma tarefa ou problema, elas n�o trazem consigo muitas, se � que alguma, ideia preconcebida sobre o mundo em geral. Simplesmente tentam — �s vezes, milh�es de vezes — encontrar uma solu��o.

"N�s, humanos, trazemos conosco muita bagagem mental, pensamos nas regras", explica Riedl.

"Os sistemas de intelig�ncia artificial nem sequer entendem as regras, ent�o eles mexem nas coisas de maneira muito aleat�ria."

Dessa forma, as IAs poderiam ser descritas como o equivalente em sil�cio de pessoas com S�ndrome do S�bio (ou de Savant), acrescenta Riedl, citando a condi��o em que um indiv�duo tem uma defici�ncia mental grave, mas tamb�m possui uma habilidade extraordin�ria, geralmente relacionada � mem�ria.

Uma maneira pela qual as IAs podem nos surpreender envolve sua capacidade de lidar com problemas radicalmente diferentes, mas usando o mesmo sistema b�sico.

Recentemente, uma ferramenta de machine learning desenvolvida para gerar par�grafos de texto foi requisitada a executar uma fun��o muito diferente: jogar uma partida de xadrez.

O sistema em quest�o se chama GPT-2 e foi criado pela OpenAI. Treinado por meio de milh�es de artigos de not�cias online e p�ginas da web, o GPT-2 � capaz de prever a pr�xima palavra em uma frase com base nas palavras anteriores.

Uma vez que os movimentos de xadrez podem ser representados em caracteres alfanum�ricos, "Be5" para mover um bispo, por exemplo, o desenvolvedor Shawn Presser pensou que se ele treinasse o algoritmo por meio de registros de partidas de xadrez, a ferramenta poderia aprender como jogar ao descobrir sequ�ncias desej�veis de movimentos.

Presser treinou o sistema com 2,4 milh�es de jogos de xadrez.

"Foi muito bacana ver o mecanismo de xadrez ganhando vida", diz ele.

"Eu n�o tinha certeza se iria funcionar."

Mas deu certo. N�o � t�o bom quanto computadores especialmente projetados para xadrez — mas � capaz de jogar partidas dif�ceis com sucesso.

Segundo Presser, o experimento mostra que o sistema GPT-2 tem muitos recursos inexplorados. Um "s�bio" com dom para o xadrez.

Uma vers�o posterior do mesmo software surpreendeu os web designers quando um desenvolvedor o treinou brevemente para produzir c�digos para exibir itens em uma p�gina, como textos e bot�es.

A intelig�ncia artificial gerou o c�digo apropriado, embora tudo o que tinha para seguir adiante eram descri��es simples como "texto em vermelho que diz 'eu te amo' e um bot�o com 'ok' nele".

Claramente, ela adquiriu a ess�ncia b�sica de web design, mas ap�s um treinamento surpreendentemente curto.

Uma �rea em que as IAs h� muito tempo impressionam � na de videogames.

H� in�meros casos na comunidade de intelig�ncia artificial sobre coisas surpreendentes que os algoritmos t�m feito em ambientes virtuais.

Os algoritmos costumam ser testados e aperfei�oados, para ver o qu�o capazes eles realmente s�o, em espa�os semelhantes aos de videogames.

Em 2019, a OpenAI ganhou as manchetes com um v�deo sobre um jogo de pique-esconde jogado por personagens controlados por machine learning.

Para a surpresa dos pesquisadores, aqueles que estavam "procurando" acabaram aprendendo que podiam pular em cima dos itens e "surf�-los" para ter acesso aos recintos onde havia personagens escondidos. Em outras palavras, aprenderam a burlar as regras do jogo a seu favor.

Uma estrat�gia de tentativa e erro pode resultar em todos os tipos de comportamentos interessantes. Mas nem sempre levam ao sucesso.

Dois anos atr�s, Victoria Krakovna, pesquisadora da DeepMind, pediu aos leitores de seu blog que compartilhassem hist�rias em que as IAs resolveram problemas complicados — mas de maneiras imprevisivelmente inaceit�veis.

A longa lista de exemplos que ela reuniu � fascinante. Entre eles, est� um algoritmo de jogo que aprendeu a se matar no final da primeira fase — para evitar morrer na segunda fase. O objetivo de n�o morrer na segunda fase foi alcan�ado, mas n�o de uma forma particularmente impressionante.

Outro algoritmo descobriu que poderia pular de um penhasco em um jogo e levar um oponente consigo para a morte. Isso deu � IA pontos suficientes para ganhar uma vida extra e continuar repetindo essa t�tica suicida em um loop infinito.

O pesquisador de intelig�ncia artificial de videogame Julian Togelius, da Escola de Engenharia Tandon da Universidade de Nova York, nos EUA, pode explicar o que est� acontecendo.

Ele diz que esses s�o exemplos cl�ssicos de erros de "aloca��o de recompensa". Quando uma intelig�ncia artificial � solicitada a realizar algo, ela pode descobrir m�todos estranhos e inesperados de atingir seu objetivo, onde o fim sempre justifica os meios.

N�s, humanos, raramente adotamos tal postura. Os meios e as regras que preveem como devemos jogar s�o importantes.

Togelius e seus colegas descobriram que esse vi�s voltado a objetivos pode ser exposto em sistemas de intelig�ncia artificial quando eles s�o colocados � prova em condi��es especiais.

Em experimentos recentes, sua equipe descobriu que uma IA solicitada a investir dinheiro em um banco, correria para um canto pr�ximo do sagu�o do banco virtual e esperaria para receber um retorno sobre o investimento.

Togelius diz que o algoritmo aprendeu a associar correr para o canto com a obten��o de uma recompensa financeira, embora n�o houvesse nenhuma rela��o real entre seu movimento e o quanto era pago.

Isso, segundo ele, � mais ou menos como se a intelig�ncia artificial desenvolvesse uma supersti��o: "Voc� recebeu uma recompensa ou puni��o por algo — mas por que voc� recebeu?"

Essa � uma das armadilhas do "aprendizado por refor�o", em que uma intelig�ncia artificial acaba planejando uma estrat�gia equivocada com base no que encontra em seu ambiente.

A intelig�ncia artificial n�o sabe por que teve sucesso, ela s� pode basear suas a��es em associa��es aprendidas. Um pouco como as primeiras culturas humanas que come�aram a associar rituais a mudan�as no clima, por exemplo. Ou os pombos.

Em 1948, um psic�logo americano publicou um artigo descrevendo um experimento incomum em que colocava pombos em gaiolas e os recompensava com comida de forma intermitente.

Os pombos come�aram a associar a comida a o que quer que estivessem fazendo na ocasi�o — seja batendo as asas ou executando movimentos semelhantes a uma dan�a. Eles ent�o repetiam esses comportamentos, aparentemente na expectativa de que viria uma recompensa a seguir.

H� uma grande diferen�a entre as IAs dos jogos testados por Togelius e os animais vivos usados %u200B%u200Bpelo psic�logo, mas Togelius sugere que o mesmo fen�meno parece estar em a��o: a recompensa se torna erroneamente associada a um comportamento particular.

Embora os pesquisadores de intelig�ncia artificial possam se surpreender com os caminhos trilhados pelos sistemas de machine learning, isso n�o significa necessariamente que tenham admira��o por eles.

"Nunca tive a sensa��o de que esses agentes pensem por si s�", afirma Raia Hadsell, do DeepMind.

Hadsell fez experi�ncias com muitas IAs que encontraram solu��es interessantes e inovadoras para problemas n�o previstos por ela ou seus colegas.

Ela destaca que � exatamente por isso que os pesquisadores procuram aperfei�oar as IAs em primeiro lugar — para que possam alcan�ar coisas que os humanos n�o conseguem por conta pr�pria.

E ela argumenta que os produtos que usam intelig�ncia artificial, como carros aut�nomos, podem ser rigorosamente testados para garantir que qualquer imprevisibilidade esteja dentro de certos limites aceit�veis.

"Voc� pode dar garantias razo�veis %u200B%u200Bsobre o comportamento com base em evid�ncias emp�ricas", diz ela.

O tempo dir� se todas as empresas que vendem produtos constru�dos com intelig�ncia artificial s�o escrupulosas nesse aspecto.

Mas, ao mesmo tempo, � importante observar que as IAs que demonstram comportamentos inesperados n�o est�o de forma alguma confinadas a ambientes de pesquisa. Elas j� est�o atuando em produtos comerciais.

No ano passado, um bra�o rob�tico que trabalhava em uma f�brica em Berlim, desenvolvido pela empresa americana Covariant, apresentou maneiras inesperadas de classificar os itens � medida que eles passavam em uma esteira rolante.

Apesar de n�o ter sido especialmente programada para isso, a intelig�ncia artificial que controla o bra�o aprendeu a mirar no centro dos itens em embalagens transparentes para ajudar a garantir que os pegaria com sucesso todas as vezes.

Como esses objetos podem se confundir quando se sobrep�em, devido ao material transparente, mirar com menos precis�o significa que o rob� pode n�o conseguir pegar o item.

"Isso evita a sobreposi��o de objetos nos cantos e, em vez disso, mira na superf�cie mais f�cil de agarrar", afirma Peter Chen, cofundador e presidente-executivo da Covariant.

"Isso realmente nos surpreendeu."

Em paralelo, Hadsell diz que sua equipe testou recentemente um bra�o rob�tico que passa diferentes blocos por meio de orif�cios de formatos variados.

A m�o do rob� era bastante desajeitada, ent�o a intelig�ncia artificial que o controlava aprendeu que, pegando e soltando repetidamente o bloco, poderia coloc�-lo na posi��o certa para ent�o agarr�-lo e pass�-lo facilmente pelo orif�cio apropriado — em vez de tentar manobr�-lo usando a garra.

Tudo isso ilustra uma quest�o levantada por Jeff Clune, da OpenAI, que recentemente colaborou com pesquisadores do mundo todo para coletar exemplos de IAs que desenvolveram solu��es inteligentes para problemas.

Clune diz que a natureza explorat�ria da intelig�ncia artificial %u200B%u200B� fundamental para seu sucesso futuro.

"Conforme estamos ampliando esses sistemas de intelig�ncia artificial, o que estamos vendo � que as coisas que eles fazem de maneira criativa e impressionante n�o s�o mais curiosidades acad�micas", afirma.

Como as IAs encontram formas melhores de diagnosticar doen�as ou entregar suprimentos de emerg�ncia, elas at� salvam vidas gra�as � sua capacidade de encontrar novas maneiras de resolver velhos problemas, acrescenta Clune.

Mas ele acredita que aqueles que desenvolvem tais sistemas precisam ser abertos e honestos sobre sua natureza imprevis�vel, para ajudar a popula��o a entender como a intelig�ncia artificial funciona.

Afinal, � uma faca de dois gumes — a promessa e a amea�a da intelig�ncia artificial fazem parte do mesmo pacote. O que ser� que elas v�o inventar a seguir?

Leia a vers�o original desta reportagem (em ingl�s) no site BBC Future.


J� assistiu aos nossos novos v�deos no YouTube? Inscreva-se no nosso canal!


receba nossa newsletter

Comece o dia com as not�cias selecionadas pelo nosso editor

Cadastro realizado com sucesso!

*Para comentar, fa�a seu login ou assine

Publicidade

(none) || (none)