
O professor Takeo Igarashi, do Grupo de Pesquisa de Interface do Usu�rio da Universidade de T�quio, e sua equipe exploram diferentes maneiras pelas quais os humanos podem interagir com os computadores. Eles sentiram que poderiam criar o pr�prio espelho digital que resolvesse algumas limita��es de tentativas anteriores. A resposta � o sistema de experimenta��o virtual, e a equipe espera que ele possa mudar a forma como as pessoas comprar�o roupas no futuro.
"O problema de criar um espelho digital � que o sistema precisa ser duplo", disse Igarashi. "Em primeiro lugar, � importante modelar uma ampla gama de roupas em diferentes tamanhos. Depois, � essencial que essas roupas possam ser sobrepostas de forma realista em um v�deo do usu�rio. Nossa solu��o � �nica na forma como funciona, usando um manequim rob�tico sob medida e uma IA de �ltima gera��o que traduz roupas digitalizadas para visualiza��o."
Tamanhos variados
Para digitalizar roupas, a equipe projetou um manequim que pode se mover, expandir e contrair de diferentes maneiras para refletir diversas poses e tamanhos corporais. O fabricante precisa vestir esse rob� com uma pe�a e, em seguida, permitir que ele fa�a uma variedade de gestos, enquanto as c�meras capturam imagens de todos os �ngulos poss�veis. Essas fotos s�o enviadas para uma m�quina de IA, que aprende como traduzi-las para que funcionem tamb�m em um usu�rio ainda n�o visto. No momento, a captura da imagem de um item leva cerca de duas horas, mas, depois que algu�m veste o manequim, o resto do processo � automatizado.
Em seguida, vem a intera��o do usu�rio. Algu�m que deseja experimentar roupas diferentes precisa ir at� a loja e ficar em frente a uma c�mera e uma tela. A pessoa coloca uma pe�a chamada vestimenta de medi��o, para que o computador estime como o corpo est� posicionado no espa�o. Conforme o usu�rio se move, a m�quina sintetiza uma imagem plaus�vel da vestimenta, que segue o seu movimento. A equipe reconhece que ainda h� diversas limita��es, mas est� entusiasmada com os resultados obtidos at� agora.