「指で戯れよう」(第二弾)
ちょうど半年前、ドロイド君と指で戯れる機能を実装しました。
今回は、それをパワーアップさせたので、再度動画にしてみました。
あら、ちょっと、かわいいんじゃない(親バカか)。
前作よりも動きがなめらかになるように改良し、かつインタラクティブな要素も増やしてみました。
おかげで、以前よりもコミュニケーションしてる感がでるようになったのではなかろうか。
スマホアプリ側の動作については、以前の記事の動画にて、もう少し丁寧に解説していますので、気になる方はそちらをご覧ください。
今回の主な変更点は、以下の2点です(ほぼ、スマホアプリ側の改善)。
----
・アルゴリズム改良による検知精度向上
⇒ ドロイド君の動きの安定化
・指のモーションを検知
⇒ ドロイド君の豊かな反応の実現
----
ちなみに、スマホには2013年末発売のNexus5を使っています。
もう5年も前の機種ですが、JNIやシェーダ(GLSL)で色々と処理を高速化しているので、処理落ちすることもなくまともに動いてくれてます(30FPS)。
今回のように、指先の位置をなんとなく検知する程度であれば、スマホのカメラでもそれっぽいものができるもんだなぁ、と感じました。
スマホ用の魚眼レンズはAmazonで1,500円程度で買えるので、導入コストが安いのとスマホを使った手軽さが売りになるでしょうか。
一方、指の形状を計測するデバイスとして、以前の記事で紹介したLeapMotionがあります。
こちらもモバイルプラットフォーム開発環境の構築プロジェクトが公式サイトで進行中のようなので、そちらが公開されたらまた何か面白い事できるかなぁ、なんて思っていたりします。
あと、魚眼レンズから被写体の位置を推定する方法について、調べてもあまり情報が出てこなかった(当たり前すぎるからか?)ので、後日別記事でまとめてみようと思います。
では、また次回をお楽しみに。