mão masculina tecla em computador

m�o masculina tecla em computador

Pixabay
Tr�s pesquisadores brit�nicos usaram intelig�ncia artificial para identificar texto a partir do som do teclado. A precis�o do programa � de 95% quando a grava��o � feita por um microfone pr�ximo � pessoa que digita, segundo dados do estudo conduzido pelas universidades de Durham, Surrey e Royal Halloway.

Os professores brit�nicos alertam para o risco de pessoas mal-intencionadas usarem a t�cnica de intercepta��o do teclado para roubar senhas e tamb�m bisbilhotar informa��es sens�veis.

T�cnicas de espionagem que envolvem a interpreta��o de sinais emitidos por um aparelho s�o chamadas de ataques de canal lateral (SCAs, na sigla em ingl�s). O interceptador pode captar ondas eletromagn�ticas, consumo de bateria, sensores m�veis e tamb�m sons.

Os ataques de canal lateral s�o conhecidos. J� decodificaram com �xito processadores Intel, impressoras e a m�quina Enigma --aquela interceptada pelo pai da computa��o Alan Turing, como mostra o filme "O Jogo da Imita��o" (2014).

O que a pesquisa brit�nica --divulgada em pr�-print (ainda sem a revis�o por pares)-- mostra � que avan�os em aprendizado de m�quina aumentam o desempenho das t�cnicas de interpreta��o de sons.

Para fazer a an�lise, os pesquisadores primeiramente definiram o desenho da onda sonora e depois usaram uma t�cnica matem�tica para transform�-la em um sinal. A IA, ent�o, consegue receber esses sinais e sugerir as palavras mais prov�veis.

J� era poss�vel detectar o que era digitado em teclados mec�nicos --e barulhentos. O novo estudo testou teclados de notebook, que, embora mais silenciosos, t�m estruturas parecidas e, durante o uso, emitem sons semelhantes, o que facilitaria a reprodu��o da t�cnica de intercepta��o, segundo os autores.

Ainda assim, � muito dif�cil conseguir o mesmo resultado em teclados diferentes, segundo o professor de ci�ncia da computa��o da USP Marcelo Finger, que j� desenvolveu IAs que detectavam padr�es com base em amostras de som.

Senhas que contenham palavras inteiras s�o mais vulner�veis a ataques com intelig�ncia artificial. Mesmo que o modelo entenda errado o significado de uma tecla, as IAs podem corrigir voc�bulos por funcionarem com predi��o de palavras conhecidas --ou seja, indicando a pr�xima palavra mais prov�vel--, de acordo com Eerke Boiten, professor da Universidade de Leicester.

Finger afirma que a intelig�ncia artificial deve acertar mais em trechos maiores de digita��o, pela caracter�stica estat�stica de seu funcionamento. O algoritmo tem mais informa��es com que trabalhar e para corrigir as teclas erradas.

Outro fator de risco � que a prolifera��o de dispositivos digitais aumenta os microfones nas ruas e nas casas e, com isso, cresce a chance de haver grava��es com a qualidade necess�ria para a interpreta��o com maior fidelidade.

Smartphones, assistentes pessoais --como Alexas--, smartwatches e at� l�mpadas inteligentes, em alguns casos, podem gravar �udio. Os objetos mais simples s�o os mais vulner�veis a ciberataques.

De acordo com a empresa de tecnologia Ericsson, � dif�cil se proteger de ataques de canais laterais, uma vez que a estrat�gia explora caracter�sticas f�sicas dos aparelhos. Uma forma de prote��o � o uso, pelos fabricantes de eletroeletr�nicos, de estrat�gias para confundir os sinais emitidos pelos dispositivos.

No caso do Zoom, o algoritmo do estudo brit�nico consegue acertar 93% do que foi digitado --abaixo da precis�o m�xima do programa. Um filtro contra ru�do no aplicativo dificulta a diferencia��o do som das teclas.

A tecnologia corta parte das ondas de som, que s�o transformadas em c�digo intelig�vel pela intelig�ncia artificial. Para contornar essa barreira, os cientistas brit�nicos solucionaram o problema com uma t�cnica chamada aumento de dados.

A partir dos padr�es registrados com o som gravado em microfone e de opera��es matem�ticas, os pesquisadores conseguem preencher os trechos cortados pelo filtro. O aumento de dados tamb�m serviu para treinar o modelo de aprendizado de m�quina com informa��es virtuais.

A pesquisa foi iniciada pelo pesquisador Joshua Harrison, da Universidade de Durham, e teve como coautores os professores Ehsan Toreini, da Universidade de Surrey, e Maryan Mehrnezhad, da Royal Holloway University of London.

"Nosso trabalho joga luz a uma nova forma de ataque virtual poss�vel com machine learning [treinamento de programas a partir de exemplos]", diz Toreini, que orientou a elabora��o do artigo. Em pesquisa de ciberseguran�a, � comum testar brechas antes que criminosos as explorem.

Finger, da USP, afirma que o estudo ainda precisa ser reproduzido por outros cientistas para ter seus n�meros testados. "Mas a metodologia faz sentido."