Mão mecânica apertando tecla de teclado

Usu�rios n�o devem confiar cegamente nas respostas dadas pela intelig�ncia artificial

Getty Images

Dias antes da coroa��o do rei Charles 3º, que ocorreu em 6 de maio, uma pergunta feita ao ChatGPT gerou um resultado surpreendente.


O chatbot de intelig�ncia artificial (IA) da empresa OpenAI afirmou: "A cerim�nia de coroa��o ocorreu na Abadia de Westminster, em Londres, em 19 de maio de 2023. A abadia � local de coroa��es de monarcas brit�nicos desde o s�culo 11, e � considerada um dos lugares mais sagrados e emblem�ticos do pa�s".


Este par�grafo � o que especialistas chamam de "alucina��o", nome dado �s informa��es fornecidas pelo sistema que, embora escritas de forma coerente, apresentam dados incorretos, tendenciosos ou completamente err�neos.


A coroa��o de Charles aconteceria no dia 6 de maio, mas por algum motivo o ChatGPT chegou � conclus�o de que o evento seria no dia 19 de maio.


O sistema alerta que s� consegue gerar respostas com base em informa��es dispon�veis na internet at� setembro de 2021. Por isso, ele ainda fornece dados errados em consultas sobre dados mais recentes.


“O GPT-4 ainda tem muitas limita��es conhecidas que estamos trabalhando para resolver, como preconceitos sociais, alucina��es e informa��es conflitantes”, explicou a OpenAI no lan�amento da vers�o GPT-4 do chatbot em mar�o.


Esse n�o � um problema exclusivo do OpenAI. Tamb�m acontece com o chatbot do Google, o Bard, e outros sistemas de IA semelhantes.


Recentemente, jornalistas do The New York Times testaram o ChatGPT em um artigo sobre IA. O chatbot ofereceu v�rias respostas, algumas delas com dados errados, ou "alucina��es".


“Os chatbots s�o movidos por uma tecnologia chamada modelo de linguagem grande, ou LLM (sigla em ingl�s para large language model), que adquire suas habilidades analisando grandes quantidades de texto digital extra�do da Internet”, explicam os autores do texto.


"Ao identificar padr�es nesses dados, um LLM aprende a fazer uma coisa em particular: adivinhar a pr�xima palavra em uma sequ�ncia de palavras. Ele age como uma vers�o poderosa de uma ferramenta de preenchimento autom�tico."

Mas como a internet est� "cheia de informa��es falsas, a tecnologia aprende a repetir as mesmas falsidades", alertaram. "E �s vezes os chatbots inventam coisas."


Ilustração de ChatGPT e Bard AI

A OpenAI diz que trabalha em 'uma variedade de m�todos' para evitar 'alucina��es' em respostas aos usu�rios

Getty Images

Cautela

Os algoritmos de IA s�o capazes de processar uma quantidade enorme de informa��es da internet em segundos e gerar um novo texto, quase sempre muito coerente, com escrita impec�vel, mas que precisa ser tomado com cautela, alertam os especialistas.


Tanto o Google quanto a OpenAI pedem aos usu�rios que mantenham isso em mente.

No caso da OpenAI, que trabalha em parceria com a Microsoft e seu buscador Bing, eles apontam que "o GPT-4 tem tend�ncia a 'alucinar', ou seja, 'produzir conte�do sem sentido ou falso em rela��o a certas fontes'" .


“Essa tend�ncia pode ser particularmente prejudicial � medida que os modelos se tornam cada vez mais convincentes e confi�veis, levando os usu�rios a confiar demais neles”, esclareceu a empresa em um documento anexado ao lan�amento de sua nova vers�o do chatbot.


Os usu�rios n�o devem confiar cegamente nas suas respostas, especialmente em �reas que envolvem aspectos importantes de suas vidas, como aconselhamento m�dico ou jur�dico.


A OpenAI observa que trabalhou em "uma variedade de m�todos" para evitar que "alucina��es" sejam dadas em respostas aos usu�rios, incluindo avalia��es de pessoas reais para evitar dados incorretos, preconceito racial ou de g�nero, ou dissemina��o de informa��es falsas.