論文紹介『Orbits - Enabling Gaze Interaction in Smart Watches Using Moving Targets』

ヒューマンコンピュータインタラクション論文紹介 Advent Calendar 2015 15日目の記事です。UbiComp2015で体験したデモの中からOrbits: Enabling Gaze Interaction in Smart Watches Using Moving Targetsを紹介します。投稿が遅くなりましてすみません...

概要

円軌道上を動く点を見つめるといった視線入力を受け取るスマートウォッチ上のインターフェイス。画面上に位置・回転方向・半径・角速度の異なる軌道を配置することで、複数の軌道のなかからどれを見ているかを特定する。安価なアイトラッカで動作する点、キャリブレーションが不要な点、画面サイズに非依存な点が優れている。

有効性の検証

実験1: 認識に多くのサンプルを使うと精度が向上するが入力に時間がかかる。注視の認識に最適なウインドウサイズを実験によって求めた。ターゲットを注視しているとき・ターゲットではなく文字盤を見ているとき・読書など他の行動をとっているときの視線を解析した結果、サイズは1秒間が良いと分かった。実験2: ターゲットの数・角速度・半径を変化させた際の認識率の変化を調査した。ターゲット数>角速度>半径の順に大きく影響することが分かった(軌道半径による影響は極めて小さい)。

先行研究との比較

画面が小さく片手でしか操作できないスマートウォッチのインターフェイスに関する研究は広く行われているが、その多くは指による入力の領域を拡張するものである。また、画面上の動かない点を注視するタイプの視線入力は正確な位置推定のためにキャリブレーションを要する。

次に読むべき論文

Pursuits: spontaneous interaction with displays based on smooth pursuit eye movement and moving targets. "軌道上を動く点を見つめる視線の認識"はこちらの論文のアイデア。

デモではアイトラッカにpupilを使っていた。見ている対象は重要ではなく眼球運動のパターンが追えれば良いので、実はJ!NS MEMEでも同じようなことができるのではないかと思った。