フルダイブVRは確実な未来?! 最新の技術/研究成果など徹底解説


アニメの影響もあり、概念として一般的になりつつあるVR空間へのフルダイブ。

その研究開発は近年急速に進んでおり、一説では2030年代には実現すると言われています。作業現場や医療での利用はもちろん、軍事技術の側面も持つフルダイブについて考えてみましょう。

フルダイブ技術とは

フルダイブとは、VR(仮想現実)の究極の姿であり、仮想空間内に五感を接続してその世界に入り込んでしまうことを指します。

操作する者は仮想空間内のアバターと一体化し、コントローラーを操るのではなく自分の体と同じように意識そのものでアバターを動かすのです。

概念が浸透したSAO

フルダイブの発想自体は昔からあるものですが、フルダイブという言葉が有名になったのは、何と言っても人気ライトノベル「ソードアート・オンライン(通称SAO)」でしょう。

SAOのストーリーはオンラインゲーム「ソードアート・オンライン」においてフルダイブ用ゲームデバイス「ナーブギア」を使ってゲーム世界に入り込んだ主人公たちが、開発者の悪意によって現実世界に戻ってこれなくなるというものです。

ゲーム世界の中で死亡すると現実世界でも死んでしまい、脱出するにはゲームをクリアするしかない….というお話でした。

実現するのに理論上必要な3つの機能

さて、五感を直接仮想空間のアバターに接続するためには、大きく次の3つの機能が必要になると思われます。

⑴脳から出力される信号を読み取りアバターの操作をする(出力)

⑵アバターが感じる五感を操作者にフィードバックする(入力)

⑶必要以上の感覚のフィードバックを遮断する(調整)

1つ目と2つ目は分かりやすいかと思いますが、意外と3番目も非常に重要で、仮想空間内でモンスターを蹴った時、現実空間でも痛みを感じるようでは不都合があります。

アバターの痛みがダイレクトに返ってきてしまうと、シューティングゲームなど恐ろしくてできません。

また細かい部分で言うと、本人とアバターの体格差がありすぎる場合は調整するような技術も必要になってくると思います。

実際には183cmある人が150cm以下のアバターを使うと手足の感覚が違いすぎてまともに動かせないはずです。

実現に向けた大学研究の存在

フルダイブについては実際に研究が進められており、視覚、聴覚、触覚、嗅覚、味覚といった五感の情報通信技術や実現性については10年以上前から取組が始まっています。

東京大学名誉教授の舘暲教授が率いる開発チームでは、圧覚、低周波振動覚、高周波振動覚、皮膚伸び覚、冷覚、温覚、痛覚という7種類の感覚を組み合わせることにより、ロボットを通じてすべての触感を再現する“触原色原理”というコンセプトを応用して、遠くのものを本当に触っているかのような感覚を得ることにすでに成功しています。

2017年1月には舘氏を会長に据えた「Telexistence株式会社」が設立されました。

(↓コーポレート動画)

また、2013年に大阪大学医学部付属病院では、重症のALS患者を対象とし、出力型BMI(Brain machine interface)の安全性と機能性を検証する臨床研究を行いました。

この研究では脳に設置した電極を通じて脳波を解読することで、患者は考えただけで文字を入力し、ロボットハンドを操作することに成功しました。これはALS患者における世界で初めての例です。

ただし、現状は有線接続であるために研究の余地が残っており、同大学では無線によるBMIシステムの開発に取り組んでいます。

フルダイブを研究/実現しようとする海外企業たち

フルダイブを実現しようとする企業は当然日本だけではありません。軍事利用を目論んでアメリカは積極的に技術投資を行なっていますし、様々な国で臨床実験が行われています。それでは具体的なケースを見ていきましょう。

米軍が2016年に脳とPCをつなげる研究に70億円を投入

この計画は『脳に1㎠のインプラントを埋め込み、脳内のニューロンを電気信号に変換することで脳とデバイスをつなげる役割をさせる』というものです。

これが実現すると視覚障害者やALS患者に対する治療法としても有効です。

米国防総省の研究機関である国防高等研究計画局(DARPA)のフィリップ・アルベルダ氏は「人間の脳と近代の電子機器の間にチャンネルを開くことが目標」と発言しており、これはほぼフルダイブ技術となります。

米軍の研究であることから、これは明らかに遠隔操作のロボット兵士の開発にも直結していると考えられます。

(↓脳に電極を埋め込むシーンがあるので、グロいのが苦手な人は注意です)

-Neurable社によるVR内の脳波コントロール技術

2017年には、脳波コントロールに取り組んでいる米スタートアップのNeurableが、VR内の動作を脳波でコントロールできるBCI(brain-computer interface)システムを発表しました。

HTC VIVEのストラップの代わりに、7つの電極が付いた装置を装着し、この電極で脳の信号を読み取り、VR内を操作するものです。

同社では脳波コントロールにより、VR空間のアイテムを掴んで投げて闘うアーケードゲームを開発中で、2018年の公開を目指しています。まさにSAOの世界ですね。

(↓コントローラー無しで対象物が動いているのは驚きです)

-Telexistence社によるVRでの触覚フィードバック技術

先に紹介した日本のバンチャー起業であるTelexistence株式会社 (TX Inc.)は、テレイグジスタンス技術・VR・通信・クラウド・ハプティクス(触覚)を活用した、空間を超える遠隔操作技術を用いたロボット「MODEL H」の量産型プロトタイプを開発しました。

これは例えば遠隔地にあるロボットを、あたかも自分の身体であるかのように操作し、ロボットの視覚・聴覚・触覚などの感覚を実際に体感できる技術であり、遠隔医療にはもちろん、危険な場所での作業での応用が見込まれます。

 

-Hapto VRによる触覚のフィードバック技術

Hapto VRは、手にはめてゲームなどをプレイするためのBluetooth対応コントローラであり、現在クラウドファウンディングで開発中です。

手のひらの部分に20個の突起が設けられていて、これが動くことで何かに触れた感触を再現し、指の当たる部分には4つのボタンを備え、VRゲームのなかで物をつかんだり押したりといった操作に割り当てられます。

また、手の甲と手のひらの側にはセンサがあり、さまざまな動きをトラッキングできるようです。

フルダイブ技術の実現はいつなのか?

それではフルダイブ技術はいつ頃実現するのでしょうか。個別の研究は思った以上に進んでいることはすでに紹介しました。

Googleのレイ・カーツワイル氏は同社でAI開発の総指揮を取っており、アメリカの発明家で実業家、未来学者で人工知能の権威として知られている人物ですが、彼が2005年に発表した著書「Singularity is Near(邦題:ポスト・ヒューマン誕生)」の中でVR関連の予測をしています。

この本によると、2010年代にユーザーの網膜に直接映像を投射するVRメガネが登場するとしています。

また翻訳機能や日常タスクの管理といった「バーチャルアシスタント機能」が登場すると述べていますが、これはもうある程度実現していますね。

そして2020年代には、現実とVRが区別がつかないほど進化していると予測し、2030年にはフルダイブ技術が確立すると予測しているのです。

また彼はナノマシンを脳内に挿入して外部機器を通さずにVR空間を生成できるようになると考えているようですが、このあたりは倫理問題も絡んできそうなので不透明な状況です。

当然ながら、技術的に実現可能であればOKというものではなく、法律上や健康上の問題点は当然慎重に議論しなければなりません。

「VR空間での感覚の遮断」ができなければ、仮想空間上で撃ち殺されると現実世界の人間がショック死すると言ったことが起こえる可能性もありえます。

また遠隔医療などの「善意での利用」の場合も、ミスがあった場合に執刀医の責任なのか、それとも遠隔医療機器の動作不良なのか、非常に線引きが難しくなります。

これは自動運転車にも言えることなのですが、法的にクリアしていかなければならない問題と言えるでしょう。

まとめ

VR空間へのフルダイブのための技術は意外に進んでいることがおわかりいただけたかと思います。

しかし、上記の通り技術的にも法的にも考えなければならない点は非常に多く、技術の進歩に合わせてどのように発達していくか目が離せません。

そして最大の問題は、SAOの世界と違う意味で「VR空間に引きこもってしまって現実世界に帰ってこれなくなる」ということです。

仮想空間へのフルダイブは現実逃避ともなるため、人類にとって諸刃の剣になる可能性でさえあるのです。編集部ではこれからもフルダイブ技術への観測を続けていきたいと思います。

関連記事)5分で分かるVRの歴史 〜半世紀前から現在までの軌跡〜


フルダイブ 技術

この記事はいかがでしたか?よければシェアをお願いします。

XR-Hub 編集部