Anonim

Jednoduchá, lehká 4D kamera, která poskytuje robotům a autonomním vozům lepší vidění

Věda

David Szondy

19. srpna 2017

Dvě 138 stupňové panoramaty světla (horní a střední) a hloubkový odhad druhé panoramatu (dole) (Credit: Stanford Computational Imaging Lab / Laboratoř integrace fotonových systémů v UC San Diego)

Robot je jen tak dobrý jako jeho senzory, takže výzkumníci na Stanfordské univerzitě a UC San Diego vyvinuli novou kameru "4D", která výrazně posiluje robotické vidění. Tento nový systém, charakterizovaný jako první jediný objektiv s širokým zorným polem a světelnou kamerou, využívá sférické čočky a pokročilé algoritmy pro zachycení informací v rozsahu 138 stupňů, což umožňuje robotům nejen navigovat, ale také lépe pochopit jejich prostředí.

Od té doby, co se v 70. letech 20. století začaly objevovat moderní roboty, problém s tím, jak dát takovou viditelnost strojů, se postavil proti inženýrům. V průběhu let se zkoušela různá řešení, jako jsou stereoskopické kamery, laserové zobrazování, analýza barev, počítání pixelů a hluboké učení. Nyní se tým Stanford / UC San Diego obrací na nový typ fotoaparátu pomocí sférických čoček vyvinutých pro program DARPA 's Soldier CENtric Imaging with Computational Cameras (SCENICC).

Tato čočka byla vyrobena tak, aby poskytovala zorné pole, které zahrnuje téměř třetinu kruhu kolem fotoaparátu a vytváří snímky o 360 stupních při rozlišení 125 megapixelů na video rámeček. V původní verzi videokamera používala svazky optických vláken pro konverzi sférických obrazů na ploché ohniskové roviny. Pracovalo to, ale bylo to také drahé.

Nová kamera vydává svazky vláken ve prospěch kombinace objektivů vyvinutých společností UC San Diego a zpracování digitálních signálů a technologie fotografování světelného pole ze Stanfordu, což je to, co tým říká, že fotoaparát dodává "čtvrté rozměry".

Tato technologie světelného pole přebírá dvojosý směr světla, který vstupuje do objektivu, a mísí jej s 2D obrazem. Stejně jako v případě spotřebitelských světelných křivek z Lytro, to znamená, že obraz nyní obsahuje mnohem více informací o poloze a směru světla a dovoluje opětovným zaostřením obrazu po jeho zachycení. Kromě toho umožňuje robotovi vidět věci, které by mohly zakrýt jejich vizi, například déšť. Fotoaparát je také schopen zlepšit detailní snímky a lépe zjistit vzdálenosti objektů a textury povrchu.

"Mohlo by umožnit různým typům uměle inteligentních technologií pochopit, jak daleko jsou objekty, zda se pohybují a odkud jsou vyrobeny, " říká Gordon Wetzstein, profesor elektrotechniky ve Stanfordu. "Tento systém by mohl být užitečný v každé situaci, kdy máte omezený prostor a chcete, aby počítač pochopil celý svět kolem něj. "

Fotoaparát je v současné době zařízením důkazu koncepce, vědci však věří, že pokud je technologie zralá, pomůže robotům navigovat v malých oblastech, přistát na palubě, pomáhat samoobslužným vozům a umožnit systémům rozšířené virtuální reality produkovat bezproblémové, integrované vykreslování. Dalším krokem bude instalace kompaktnějšího prototypu do aktuálního robota.

Výzkum byl představen v červenci na konferenci o počítačovém vidění a rozpoznávání vzorků (CVPR) v roce 2017.

Na níže uvedeném videu jsou zobrazeny první snímky z monokentrické světelné kamery Wide-FOV.

Zdroj: UC San Diego

Dvě 138 stupňové panoramaty světla (horní a střední) a hloubkový odhad druhé panoramatu (dole) (Credit: Stanford Computational Imaging Lab / Laboratoř integrace fotonových systémů v UC San Diego)

Doporučená Redakce Choice