EyeHacker

このシステムは体験者が注意を向けた先の情報を活用することで,体験者周辺のリアルタイム伝送映像と録画映像とを気付かれないように時空間的に混ぜる.周囲の空間が視覚的に操作されてもそれに気付かなければ,その空間は体験者にとって「現実」であり続けるのだろうか?

UnityやTouchDesignerといったソフトウェアや,Vive Pro EyeやRICOH THETAといったハードウェアを連携させて制作した.修士課程にて所属していた研究室で取り組んでいた研究テーマ.

展示・発表

  • 東京大学2019年度五月祭.2019年5月.
  • 東大駒場リサーチキャンパス公開2019.2019年5月.
  • SIGGRAPH 2019 Emerging Technologies,Los Angeles,2019年7月.
  • 第24回日本バーチャルリアリティ学会大会技術芸術展示,東京,2019年9月.

論文

  • Daichi Ito, Sohei Wakisaka, Atsushi Izumihara, Tomoya Yamaguchi, Atsushi Hiyama, and Masahiko Inami. 2019. EyeHacker: gaze-based automatic reality manipulation. In ACM SIGGRAPH 2019 Emerging Technologies (SIGGRAPH ’19). ACM, New York, NY, USA, Article 12, 2 pages. [DOI]
  • 伊藤大智,高原慧一,坂本凜,泉原厚史,脇坂崇平,檜山敦,稲見昌彦,視線情報に基づき主観的現実の自動操作を行うシステムの検証,第24回日本バーチャルリアリティ学会大会,東京,2019年9月.[リンク]

その他

  • 研究室HPのプロジェクトページ
EyeHacker – INFORMATION SOMATICS LAB
周囲の空間が視覚的に操作されても変化に気付かなければ,それは「現実」なのだろうか?このシステムは体験者が注意を……
  • Webメディア掲載
東京大学、同じ空間の現在と記録映像を気付かれずに自動差し替えする視線追跡ベースのVRシステム(SRの拡張版)を発表 - Seamless
東京大学による研究チームは、ユーザの視線追跡に基づいて、ライブシーンと記録/編集シーンを時間的・空間的に混合させるVRシ…
タイトルとURLをコピーしました