In Att se världen genom dina ögon forskare har rekonstruerat 3D-scener från reflektionerna i ögonen. Resultaten är inte särskilt bra än, speciellt testet i naturen visar praktiskt taget bara en svart tärning eller vad som helst. Utdrag ur sammanfattningen:
Vår metod förfinar tillsammans hornhinnans poser, strålningsfältet som visar scenen och observatörens öga irisstruktur. Vi föreslår vidare en enkel regularisering före iristexturmönstret för att förbättra rekonstruktionskvaliteten. Genom olika experiment på syntetiska och verkliga bilder med människor med olika ögonfärger, visar vi genomförbarheten av vår metod för att återställa 3D-scener med hjälp av ögonreflektioner.
Tekniken är verkligen inte där än och detta påminner om verket som publicerades 2014 «Den visuella mikrofonen«, där identifierbar ljuddata extraherades från videon av vibrationer på ytan av en påse potatischips, eller naturligtvis till den antika «Zooma och förbättra«-Mem och jag är övertygade om att saker som potatischipsteknik har använts i underrättelsekretsar i flera år - varför sätta en mikrofon nära ett mål när man kan använda hyrvideokameror på långt avstånd? Jag tror också att det här är av stort intresse för en hel rad människor.
Dessutom är denna AI-drivna Eye-NeRF-pipeline helt klart ett tidigt experiment och vi är fortfarande långt från verkliga tillämpningar eller rubriker som "Död mans ögonreflektion i mordrättegång" eller liknande, men tekniken skulle kunna användas för använd snart för att förbättra till exempel Apples AR-applikationer. Några exempel sammanställs i följande video, följt av ett vilda test med Miley Cirus: