スタンフォード大学でロボットとVRのための広視野角4Dカメラが開発される | VR Inside

VR Inside

VR/AR/MRの未来を創るビジネスニュースメディア

スタンフォード大学でロボットとVRのための広視野角4Dカメラが開発される

スタンフォード大学でロボットやバーチャルリアリティに利用できる新しいカメラの研究が進められている。140度の視野角を持ち、奥行きの情報を持つライトフィールド映像を撮影できる4Dカメラだ。

開発された4Dカメラ

Gordon Wetzstein助教授(左)と研究員のDonald Dansereau

これまでのカメラは、人間が見る写真や映像を記録するためのものだった。だが、最近ではロボットが周囲の風景を認識するときやAR映像を生成するときにもカメラが利用されている。

スタンフォード大学の研究者が開発をすすめる新しいカメラは、ロボットが周囲を認識するための情報を取得することができる。さらに、視野角が140度と広いのも特徴だ。

人間のためのカメラではないが、自律型のロボット開発やバーチャルリアリティの分野では活用されるかもしれない。

コンピュータのためのカメラ

広い視野を持つ球面レンズ

広い視野を持つ球面レンズ

コンピュータの目

人類がカメラを発明したとき、そのカメラで撮影した写真を見るのは人間だった。現代の技術を使えば、現物を見ているのと変わらないほど高精細でリアルな写真を撮影するカメラを作ることも可能だ。

カメラに関する技術の発展は素晴らしいことだが、コンピュータが世界を認識するときに人間の目と脳が行っている方法を模倣する必要はあるのだろうか?

スタンフォード大学の電子工学科で博士研究員のポストにいるDonald Dansereauは、おそらくその必要がないと考えている。コンピュータは人間とは異なる、おそらくはより効率的な方法で映像を処理し、周囲の状況を把握することができるはずだ。

奥行き知覚

ロボットが人間の真似をしている例の一つが、奥行きの知覚だ。

人間は、左右2つの目を使って周囲を見ている。もちろん片方の目を閉じても見ることはできるのだが、2つあることで少し異なる視点からものを見ることができ、立体感を捉えやすくなる。

現在の技術では、ロボットもこれと同様のことを行っている。もちろん、ロボットに2つのカメラを搭載しているわけではない。そんなことをすればコストが2倍になってしまうからだ。

カメラを増やす代わりに、ロボット自身が移動して複数の視点から情報を集めている。

そうすることで、自分が置かれた環境について把握しているのだ。

1つのカメラによる情報収集

開発された新しいカメラを使えば、複数の視点から映像を撮影しなくてもほぼ同じ情報を取得できる可能性があるという。

研究者は、この技術が自動運転車やVR/ARといったバーチャルリアリティ関連の分野で利用できるのではないかと考えている。

光学とコンピュータのアルゴリズムを融合させることで、今までよりも多くの情報を得られるようになった。

4D画像

パノラマ画像

広がる窓

通常のカメラと、新しい技術を使って開発されたカメラとの違いは覗き穴と窓のようなものだという。

小さな覗き穴から外を見る場合、頭を動かして異なる角度から見ることはできないので奥行きや半透明なものに関する情報が得られない。しかし、大きな窓から外を見るならばそれが可能だ。

物体の前後関係を把握でき、正面からは見えなかった透明なガラスやプラスチックも、異なる角度から見れば光の反射や影で判別することができる。

ライトフィールド写真

このカメラの元になっているのは、ライトフィールドカメラとして知られているカメラの原理だ。これは1996年にスタンフォード大学の二人の教授、Marc LevoyとPat Hanrahanが説明している。

ライトフィールドカメラは、従来のカメラが撮影する2D画像だけでなくレンズに当たる光が来る方向と距離の情報を記録するものだ。これは4D写真と呼ばれるもので、撮影後にピントを合わせる距離を変更できるという特徴がある。

球面レンズ

ライトフィールドカメラのように4D映像を撮影できることに加えて、140度という広い視野を持っていることもこのカメラの特徴だ。

特別に設計された球面レンズがこの視野の広さを実現している。

これまでのカメラでは、球面レンズによって撮影された球状の画像を平面画像に変換する際に、処理が重くてエラーが起きやすいという問題があった。このカメラでは、光学とアルゴリズムの専門知識を組み合わせてこの問題に対処しているという。

利用されるイメージ

Apple CEO

ARKitを発表したAppleのCEO

自律システム

研究者は自動運転車や自律型のドローンなどでこのカメラが特に有用だと考えている。動かずに周囲の物体との距離を測定できれば、より精度の高い自動運転が可能になるからだ。

自動車やドローンは移動できるが、移動できないコンピュータが周囲の環境を把握したいときにもこのカメラは役に立つかもしれない。

AR

バーチャルリアリティの世界では、特にARとの相性が良さそうだ。

AppleがARKitを発表したことでさらに盛り上がっているARでは、周囲のオブジェクトとの位置関係を認識しなければならない。ARデバイスにこのカメラが搭載されれば、壁や家具を正確に認識するようになるだろう。

iPhoneに搭載された一般的なカメラよりも優れたレスポンスや精度が期待できる。

プロトタイプ

現在のプロトタイプはサイズが大きく、実用の場面を想定したテストを行うのが難しい。

しかし、チームはより小さく軽いプロトタイプを計画中だ。上手く小型化できれば、ロボットに搭載して実験を行うことができるという。

その実験が成功すれば、ウェアラブルカメラやスマートフォンの内蔵カメラとして使えるくらいに小さなプロトタイプが作られることだろう。

 

参照元サイト名:Stanford News
URL:http://news.stanford.edu/2017/07/21/new-camera-improve-robot-vision-virtual-reality/

ohiwa


ライター兼システムエンジニア。VR・ARには、「SFっぽい!」というシンプルな理由で興味を持つ。仕事以外ではボードゲームやTRPGで遊び、本を読んで花を育てるアナログ人間。万年筆と着物・和菓子が好き。

最新ニュースを読む