cérebro com metade tecnologia e metade humano

Apesar do alerta, OMS tamb�m se mostra 'entusiasmada' com o uso apropriado de tecnologias, incluindo modelos de linguagem, para apoiar profissionais de sa�de

Seanbatty/Pixabay
A Organiza��o Mundial da Sa�de (OMS) emitiu um comunicado na ter�a-feira (16) solicitando cautela no emprego da intelig�ncia artificial (IA) para 'proteger e promover o bem-estar, a seguran�a e a autonomia humanas e preservar a sa�de p�blica'. Segundo a OMS, a introdu��o de tecnologias no setor da sa�de carece de preocupa��o comum.

A OMS destaca que a ado��o apressada de sistemas n�o testados pode provocar erros por parte dos profissionais de sa�de, prejudicar pacientes, abalar a confian�a na IA e, consequentemente, comprometer (ou postergar) os benef�cios e aplica��es de longo prazo dessas tecnologias globalmente. A organiza��o expressa preocupa��o com a possibilidade de treinar IAs com dados tendenciosos, gerar respostas incorretas que pare�am verdadeiras e potencialmente estimular a desinforma��o.
 
A OMS aconselhou os formuladores de pol�ticas a se empenharem em garantir a seguran�a e prote��o dos pacientes enquanto as empresas de tecnologia buscam comercializar as tecnologias. Modelos de linguagem gerados por IA, como o ChatGPT, tentam imitar a compreens�o, processamento e produ��o da comunica��o humana. A 'difus�o p�blica mete�rica' e o 'crescente uso experimental para fins relacionados � sa�de est�o gerando um entusiasmo significativo', avalia a OMS.
 
A organiza��o tamb�m se mostra 'entusiasmada' com o uso apropriado de tecnologias, incluindo modelos de linguagem, para apoiar profissionais de sa�de. No entanto, a OMS afirma estar preocupada com a falta de cuidado consistente no emprego dessas tecnologias. A ag�ncia ressalta que � 'imperativo' que os riscos da ades�o a essas tecnologias sejam 'cuidadosamente' avaliados.

No comunicado, a OMS elenca as preocupa��es que motivaram o alerta

  • Dados usados para treinar IA podem ser tendenciosos, gerando informa��es enganosas ou imprecisas que podem representar riscos � sa�de, equidade e inclus�o;
  • Modelos de linguagem geram respostas que podem parecer confi�veis e plaus�veis para um usu�rio final, mas essas respostas podem estar completamente incorretas ou conter erros graves, especialmente para respostas relacionadas � sa�de;
  • Modelos de linguagem podem ser treinados em dados para os quais o consentimento pode n�o ter sido fornecido anteriormente para tal uso, e podem n�o proteger dados confidenciais (incluindo dados de sa�de) que um usu�rio fornece a um aplicativo para gerar uma resposta;
  • Modelos de linguagem podem ser mal utilizados para gerar e disseminar desinforma��o altamente convincente na forma de conte�do de texto, �udio ou v�deo que � dif�cil para o p�blico diferenciar de conte�do de sa�de confi�vel.