(none) || (none)
UAI
Publicidade

Estado de Minas ELEI��ES 2022

YouTube vai exibir conte�do educando usu�rios sobre fake news

Programa piloto ser� implementado no leste europeu para ajudar a combater desinforma��o em rela��o a refugiados ucranianos.


25/08/2022 09:50 - atualizado 25/08/2022 12:46


Mão de mulher segurando um smartphone, no qual o logotipo do YouTube é exibido na tela
(foto: Getty Images)

O YouTube planeja exibir an�ncios que educam as pessoas sobre t�cnicas de desinforma��o, ap�s um experimento bem-sucedido da Universidade de Cambridge, no Reino Unido.

Os pesquisadores descobriram que os v�deos melhoraram a capacidade das pessoas de reconhecer conte�do manipulador.

Eles ser�o exibidos na Eslov�quia, Rep�blica Tcheca e Pol�nia para combater fake news (not�cias falsas) sobre refugiados ucranianos.

O Google, empresa dona do YouTube, disse que as descobertas "emocionantes" mostram como a m�dia social pode prevenir ativamente a dissemina��o de desinforma��o.

A pesquisa foi baseada em uma �rea de estudo em desenvolvimento chamada "prebunking", que investiga como a desinforma��o pode ser desmascarada ao mostrar �s pessoas como ela funciona — antes de serem expostas � mesma.

No experimento, os an�ncios foram exibidos para 5,4 milh�es de pessoas, das quais 22 mil foram inquiridas posteriormente.

Depois de assistir aos v�deos explicativos, os pesquisadores observaram:

- Uma melhoria na capacidade dos participantes de identificar t�cnicas de desinforma��o;

- Uma maior habilidade para discernir conte�do confi�vel de n�o confi�vel;

- Uma capacidade melhor de decidir se deseja ou n�o compartilhar conte�do.

A pesquisa revisada por pares foi conduzida em conjunto com o Google e ser� publicada na revista cient�fica Science Advances.

Beth Goldberg, chefe de pesquisa e desenvolvimento da unidade Jigsaw do Google, que se concentra em combater os riscos de seguran�a online, classificou as descobertas como "emocionantes".

"Demonstram que podemos expandir o prebunking para toda parte, usando an�ncios como ve�culo", diz ela.

'Tropos comuns'

Jon Roozenbeek, principal autor do artigo, disse � BBC que a pesquisa � sobre "reduzir a probabilidade de algu�m ser persuadido por desinforma��o".

"Obviamente, voc� n�o pode prever todos os exemplos de desinforma��o que v�o se tornar virais", afirma.

"Mas o que voc� pode fazer � encontrar padr�es e tropos comuns."

"A ideia por tr�s deste estudo era: se encontrarmos alguns desses tropos, � poss�vel tornar as pessoas mais resilientes contra eles, mesmo em rela��o a conte�do que nunca viram antes?"

Os cientistas inicialmente testaram os v�deos com membros do p�blico sob condi��es controladas em um laborat�rio, antes de mostr�-los a milh�es de usu�rios no YouTube, como parte de um estudo de campo mais amplo.

A campanha antidesinforma��o e a campanha prebunking foram veiculadas no YouTube "como seriam no mundo real", explica Roozenbeek.

"N�s as exibimos como an�ncios do YouTube — assim como um an�ncio sobre creme de barbear ou qualquer outra coisa... antes do v�deo ser reproduzido."

Como funcionou o estudo

Os anunciantes podem usar um recurso do YouTube chamado Brand Lift, que informa se e como um an�ncio aumentou o reconhecimento do produto.

Os pesquisadores usaram este mesmo recurso para avaliar a capacidade das pessoas de identificar as t�cnicas de manipula��o �s quais haviam sido expostas.

Em vez de uma pergunta sobre reconhecimento da marca, eles apresentaram o t�tulo de uma not�cia �s pessoas, que foram convidadas a l�-lo. Elas foram informadas ent�o que o t�tulo continha manipula��o, e solicitadas a identificar que tipo de t�cnica estava sendo usada.

Al�m disso, havia um grupo de controle separado que n�o assistiu a nenhum v�deo, mas foi apresentado ao t�tulo e �s perguntas correspondentes.

"O que voc� espera � que o grupo que assistiu aos v�deos identifique corretamente com muito mais frequ�ncia do que o grupo de controle — e acabou sendo este o caso", diz Roozenbeek.

"Em m�dia, o grupo que viu os v�deos acertou cerca de 5% mais vezes do que o grupo de controle. Isso � altamente significativo."

"N�o parece muito — mas tamb�m � verdade que o grupo de controle nem sempre est� errado. Eles tamb�m acertam v�rias perguntas."

"Essa melhoria, mesmo no ambiente ruidoso do YouTube, mostra basicamente que voc� pode melhorar a capacidade das pessoas de reconhecer estas t�cnicas de desinforma��o — simplesmente mostrando a elas um an�ncio."

'Solu��es baseadas em evid�ncias'

A Universidade de Cambridge disse que este foi o primeiro estudo de campo no mundo real da "teoria da inocula��o" em uma plataforma de m�dia social.

O professor Sander van der Linden, coautor do estudo, afirma que os resultados da pesquisa foram suficientes para levar adiante o conceito de inocula��o e expandi-lo, para potencialmente atingir "centenas de milh�es" de usu�rios de rede social.

"Claramente � importante que as crian�as aprendam a fazer leitura lateral e verificar a veracidade das fontes", diz ele.

"Mas tamb�m precisamos de solu��es que possam ser expandidas nas m�dias sociais e interajam com seus algoritmos".

Ele reconheceu o ceticismo em torno das empresas de tecnologia usarem este tipo de pesquisa e o ceticismo mais amplo em torno das colabora��es entre ind�stria e academia.

"Mas, no fim das contas, temos que encarar a realidade, pois as empresas de m�dia social controlam grande parte do fluxo de informa��es online. Ent�o, para proteger as pessoas, criamos solu��es independentes e baseadas em evid�ncias que empresas de m�dia social podem realmente implementar em suas plataformas."

"Para mim, deixar as empresas de m�dia social entregues � pr�pria sorte, n�o vai gerar o tipo de solu��o que capacita as pessoas a discernir a desinforma��o que se espalha em suas plataformas".

- Este texto foi publicado originalmente em https://www.bbc.com/portuguese/geral-62671970

Sabia que a BBC est� tamb�m no Telegram? Inscreva-se no canal.

J� assistiu aos nossos novos v�deos no YouTube? Inscreva-se no nosso canal!


receba nossa newsletter

Comece o dia com as not�cias selecionadas pelo nosso editor

Cadastro realizado com sucesso!

*Para comentar, fa�a seu login ou assine

Publicidade

(none) || (none)