Det ser ud til, at Kinect Hacks verden er ved at blive lidt mere interessant.
Mens mange af de kinect-baserede projekter vi ser, bruger en eller to enheder, har dette 3D-telepresence system udviklet af UNC Chapel Hill-studerende [Andrew Magaimone] under vejledningen af [Henry Fuchs] har dem alle beat.
Opsætningen bruger op til fire kinect sensorer i et enkelt endepunkt, der fanger billeder fra forskellige vinkler, før de behandles ved hjælp af GPU-accelererede filtre. Videoen fanget af kameraerne behandles i en række trin, påfyldning af huller og justering af farver for at oprette et meshbillede. Når videostrømmene er blevet behandlet, er de overlejrede med hinanden for at danne et komplet 3D-billede.
Resultatet er en fantastisk real-time 3D-gengivelse af motivet og omgivende rum, der minder os om dette papircraft kostume. 3D-videoen kan ses på en fjernstation, der bruger en Kinect-sensor til at spore dine øjenbevægelser, ændre video feeds perspektiv i overensstemmelse hermed. Telepresence-systemet tilbyder også evnen til at tilføje i ikke-eksisterende genstande, hvilket gør det til et fantastisk værktøj til fjernteknologiske demonstrationer og lignende.
Tjek videoen nedenfor for at se et omfattende gennemgang af dette 3D TelePresence-system.