S�o Paulo - Imagine o seguinte cen�rio: o ano � 2020 e a situa��o diplom�tica entre Estados Unidos e Coreia do Norte � tensa. Uma rede de TV recebe um v�deo in�dito, de fonte an�nima, que mostra o l�der Kim Jong-un discutindo com generais o lan�amento de um ataque nuclear. Na Casa Branca, o v�deo � analisado, mas a intelig�ncia n�o consegue verificar a autenticidade. O presidente americano tem de agir - e ordena um contra-ataque. Uma guerra come�a.
"Se houver incentivo financeiro ou pol�tico suficiente para que atores mal-intencionados fa�am isso, � inteiramente poss�vel que a fabrica��o de v�deos seja usada em futuras campanhas pol�ticas", diz Patrini, que trabalha no Delta Lab (Deep Learning Technologies Amsterdam), da Universidade de Amsterd� e Bosch.
Patrini afirma que, de t�o forte o impacto de um v�deo falso, a mensagem manipulada tende a ser aceita por quem quer acreditar nela - mesmo que comprovada a falsidade. "Os psic�logos nos advertem de duas fal�cias humanas: a tend�ncia a acreditar em informa��es falsas ap�s exposi��o repetida (efeito de verdade ilus�rio) e a acreditar em informa��es falsas quando apenas confirmam nossas cren�as anteriores."
O cientista da computa��o brasileiro Virgilio Almeida, professor associado de Harvard, alerta, no entanto, que a produ��o de v�deos falsos sem grande refinamento j� � acess�vel hoje. "Se pensarmos que j� em 2014 usaram bots (redu��o de rob�s em ingl�s), isso certamente vai ser utilizado. Mas as pessoas acreditam muito no que veem. Muitos n�o v�o acreditar, mas muitos v�o. O processo eleitoral passa a ser muito levado por isso", afirmou ele.
Se as elei��es deste ano j� podem ter o rebuli�o do compartilhamento de v�deos falsos, Patrini salienta que as poss�veis repercuss�es da manipula��o audiovisual v�o al�m da pol�tica. Considere, por exemplo, o uso de �udios e v�deos como provas em processos criminais. Se n�o pudermos mais confiar em sua autenticidade, como poderemos aceit�-los como evid�ncia?
Solu��es
Se o progn�stico das deepfakes � pessimista, isso se d�, em grande parte, porque ainda n�o h� t�cnica desenvolvida para identificar os audiovisuais falsos. "� muito dif�cil descobrir v�deos falsos e n�o existe detectores em larga escala. As t�cnicas de per�cia digital est�o muito atr�s", aponta Almeida.
Patrini sugere que a tecnologia de defesa contra deepfakes siga dois caminhos. O primeiro seria a cria��o de uma assinatura digital em v�deos - an�loga a marcas d'�gua em notas de dinheiro -, que garantiria a autenticidade da c�mera que deu origem a um filme e a aus�ncia de edi��es. No entanto, uma assinatura digital seria invalidada por qualquer tipo de edi��o, mesmo os "benignos" - incluindo mudan�a de contraste e pequenos cortes. Al�m disso, n�o haveria como assegurar a veracidade de v�deos antigos, anteriores a uma poss�vel implementa��o de assinaturas.
Outra solu��o vai na linha do "feiti�o contra o feiticeiro": usar intelig�ncia artificial e machine learning para criar detectores de v�deos falsos. A ideia � treinar computadores para identificar sinais de adultera��o que seriam invis�veis a olhos humanos. O pesquisador considera esta a melhor op��o.
"Assim como o aprendizado de m�quina nos possibilita meios poderosos de manipula��o da m�dia, ele pode resgatar e trabalhar como um discriminador, informando-nos quando o conte�do audiovisual parece ser uma falsifica��o."