Parece que o mundo dos hacks kinect está prestes a ficar um pouco mais interessante.
Embora muitos dos projetos baseados em Kinect, vemos usam uma ou duas unidades, este sistema de telepresença 3D desenvolvido pela UNC Chapel Hill Student [Andrew Maimone] sob a orientação de [Henry Fuchs] tem todos os ritem.
A configuração usa até quatro sensores kinect em um único endpoint, capturando imagens de vários ângulos antes de serem processados usando filtros acelerados por GPU. O vídeo capturado pelas câmeras é processado em uma série de etapas, preenchendo furos e ajustando cores para criar uma imagem de malha. Uma vez que os fluxos de vídeo tiverem sido processados, eles são cobertos um com o outro para formar uma imagem 3D completa.
O resultado é uma incrível renderização em 3D em tempo real do sujeito e sala circundante que nos lembra deste traje papercraft. O vídeo 3D pode ser visualizado em uma estação remota que usa um sensor kinect para rastrear seus movimentos oculares, alterando a perspectiva do feed de vídeo em conformidade. O sistema Telepresence também oferece a capacidade de adicionar objetos inexistentes, tornando-se uma ferramenta fantástica para demonstrações de tecnologia remota e similares.
Confira o vídeo abaixo para ver um extenso passo a passo deste sistema 3D Telepresence.