m�o masculina tecla em computador
Os professores brit�nicos alertam para o risco de pessoas mal-intencionadas usarem a t�cnica de intercepta��o do teclado para roubar senhas e tamb�m bisbilhotar informa��es sens�veis.
T�cnicas de espionagem que envolvem a interpreta��o de sinais emitidos por um aparelho s�o chamadas de ataques de canal lateral (SCAs, na sigla em ingl�s). O interceptador pode captar ondas eletromagn�ticas, consumo de bateria, sensores m�veis e tamb�m sons.
-
10:56 - 27/08/2023 Como intelig�ncia artificial est� ressuscitando estrelas de cinema
-
15:50 - 15/06/2023 Intelig�ncia artificial auxilia no cuidado com crian�as e idosos em casa
-
11:01 - 13/06/2023 Por que garantir seguran�a da intelig�ncia artificial n�o � t�o f�cil como se pensa
O que a pesquisa brit�nica --divulgada em pr�-print (ainda sem a revis�o por pares)-- mostra � que avan�os em aprendizado de m�quina aumentam o desempenho das t�cnicas de interpreta��o de sons.
Para fazer a an�lise, os pesquisadores primeiramente definiram o desenho da onda sonora e depois usaram uma t�cnica matem�tica para transform�-la em um sinal. A IA, ent�o, consegue receber esses sinais e sugerir as palavras mais prov�veis.
J� era poss�vel detectar o que era digitado em teclados mec�nicos --e barulhentos. O novo estudo testou teclados de notebook, que, embora mais silenciosos, t�m estruturas parecidas e, durante o uso, emitem sons semelhantes, o que facilitaria a reprodu��o da t�cnica de intercepta��o, segundo os autores.
Ainda assim, � muito dif�cil conseguir o mesmo resultado em teclados diferentes, segundo o professor de ci�ncia da computa��o da USP Marcelo Finger, que j� desenvolveu IAs que detectavam padr�es com base em amostras de som.
Senhas que contenham palavras inteiras s�o mais vulner�veis a ataques com intelig�ncia artificial. Mesmo que o modelo entenda errado o significado de uma tecla, as IAs podem corrigir voc�bulos por funcionarem com predi��o de palavras conhecidas --ou seja, indicando a pr�xima palavra mais prov�vel--, de acordo com Eerke Boiten, professor da Universidade de Leicester.
Finger afirma que a intelig�ncia artificial deve acertar mais em trechos maiores de digita��o, pela caracter�stica estat�stica de seu funcionamento. O algoritmo tem mais informa��es com que trabalhar e para corrigir as teclas erradas.
Outro fator de risco � que a prolifera��o de dispositivos digitais aumenta os microfones nas ruas e nas casas e, com isso, cresce a chance de haver grava��es com a qualidade necess�ria para a interpreta��o com maior fidelidade.
Smartphones, assistentes pessoais --como Alexas--, smartwatches e at� l�mpadas inteligentes, em alguns casos, podem gravar �udio. Os objetos mais simples s�o os mais vulner�veis a ciberataques.
De acordo com a empresa de tecnologia Ericsson, � dif�cil se proteger de ataques de canais laterais, uma vez que a estrat�gia explora caracter�sticas f�sicas dos aparelhos. Uma forma de prote��o � o uso, pelos fabricantes de eletroeletr�nicos, de estrat�gias para confundir os sinais emitidos pelos dispositivos.
No caso do Zoom, o algoritmo do estudo brit�nico consegue acertar 93% do que foi digitado --abaixo da precis�o m�xima do programa. Um filtro contra ru�do no aplicativo dificulta a diferencia��o do som das teclas.
A tecnologia corta parte das ondas de som, que s�o transformadas em c�digo intelig�vel pela intelig�ncia artificial. Para contornar essa barreira, os cientistas brit�nicos solucionaram o problema com uma t�cnica chamada aumento de dados.
A partir dos padr�es registrados com o som gravado em microfone e de opera��es matem�ticas, os pesquisadores conseguem preencher os trechos cortados pelo filtro. O aumento de dados tamb�m serviu para treinar o modelo de aprendizado de m�quina com informa��es virtuais.
A pesquisa foi iniciada pelo pesquisador Joshua Harrison, da Universidade de Durham, e teve como coautores os professores Ehsan Toreini, da Universidade de Surrey, e Maryan Mehrnezhad, da Royal Holloway University of London.
"Nosso trabalho joga luz a uma nova forma de ataque virtual poss�vel com machine learning [treinamento de programas a partir de exemplos]", diz Toreini, que orientou a elabora��o do artigo. Em pesquisa de ciberseguran�a, � comum testar brechas antes que criminosos as explorem.
Finger, da USP, afirma que o estudo ainda precisa ser reproduzido por outros cientistas para ter seus n�meros testados. "Mas a metodologia faz sentido."
*Para comentar, fa�a seu login ou assine