認知、判断、操作をスマートフォンで
――自動運転の技術について、もう少し教えてください。
谷口さん「そもそも自動車の運転には、教習所でも習うように、認知、判断、操作の3つのプロセスがあります。自動運転の場合、センサー等を使って、障害物の有無など周囲の環境を『認知』する。障害物があれば避ける、信号が赤なら止まるなどを『判断』する。そして、『操作』では、人間がブレーキを踏む代わりにモーターによってタイヤを止めています」
谷口さん「『EYECAN』では、いわばこうした3つのプロセスの制御をスマートフォン(iPhone)でおこなうことで、目的地まで正確にナビゲートします。
歩行時の『認知』はスマートフォンのカメラやLiDAR(ライダー)スキャナ(※)が行い、『判断』はスマートフォン本体のCPUやクラウド上の機能を利用します。
そして、人間を行きたい方向にガイドする『操作』では、言葉(音声)で指示を出して、耳で道案内を聞けるようにしているのです(技術的には、高精度三次元デジタルマップをデジタル基盤に用いて、ナビゲーションをおこなっています)。
ちなみに、自動運転(ロボット)では、リアルタイムで細かい指示を出して、ブレーキを段々にタイヤにかけるなど、複雑な仕組みになっています。今回は、自動車とは異なり、人間に合わせた制御が必要でした。また、スマートフォンに搭載された限られたセンサーなどの装置を使って機能させることなどが、開発上の難しかったところです」
(※)初期段階では、LiDARスキャナ機能が搭載されているiOS端末(iPhone13 Pro、iPhone12 Pro)が対象端末となる。
――「EYECAN」は2022年9月にベータ版を先行リリースし、年内のサービス開始を目指しています。
谷口さん「視覚障がいの人は行き慣れたところであれば――道順を覚える努力あってのことですが――白杖を使って行くことができるものです。しかしそれでも困るのは、信号。『EYECAN』は、安全に横断歩道を渡れるよう、信号認識機能を搭載しています。9月の先行リリースでは、とくに利用意向が高かった信号認識機能を搭載するベータ版が登場します。この機能をまずは体験してほしいと思います。
また、みなさんが願う『初めての場所に行きたい』という思いに対しても『EYECAN』でサポートしていきたい。そのためには、対象エリアのマップデータを取得し、デジタル基盤(高精度三次元デジタルマップ)を整える必要があります。『ラクロ』『デリロ』の導入場所ではすでにこれが整っていて、年内のサービス開始時は『EYECAN』をフル機能で利用できる予定です。一方で、『EYECAN』がどこでも使えるよう、そのインフラを全国で広められたらと思います」