柔軟さが変化するディスプレイ
中の素材はなんだろうなぁ.
noopy
概要
noopyはロボットを使って実世界を思いのままにコントロールすることができるようなアプリケーションを開発しやすくするためのプラットフォームです.これまでのロボットキットというと自律的に迷路を走破したりラインをトレースしてスピードを競い合ったりと,ロボット単体で完結するものが一般的でした.一方,刻々と変化する環境や人とのインタラクションが想定される状況において,ロボット単体の能力だけでは環境を正しく認識し最適なサービスを提供するということは難しいと考えています.
そこでnoopyでは環境に配置されたセンサやロボット同士が連携し,互いの能力を協調させて同一のタスクを達成するような実世界アプリケーションを開発しやすいようにデザインされています.noopy基板では実世界にアクチュエーションするためのDCモータやサーボモータがハンダ付けすることなく簡単に接続することができます.また,無線(Bluetooth)により周辺機器との連携を実現しています,ファームウェアはarduinoと同様に記述することができ,柔軟に機能を変更したり拡張することができます.
もちろんキット単体でも楽しめますが,基本的には加藤氏が開発したmaterealとの連携利用を想定しています.materealは,汎用的なWEBカメラとビジュアルマーカを用いて,ロボットの2次元位置制御を簡単にプログラミングできるツールキットです.例えば,"robot.moveTo(100, 100);"と記述するだけで,カメラで撮影されている画面内の座標(100, 100)の位置にロボットを移動させることができるのです.ロボット以外の物体にもビジュアルマーカを貼付ければ,その物体をロボットが運搬するといったタスクの記述も簡単にできます.
ロボットの位置を認識し,意図した場所へ移動させるような作業はロボット単体でやりくりしようとすると高価なセンサが必要であったり,プログラミング能力が必要だったりとホビーレベルでは手の届かない技術でしたが,noopyとmaterealを組合わさればこれらをわずか労力で実現でき,高度なアプリケーション開発に力を注ぐことができるのです.
ロボットのフレームはレーザーカッターがあれば誰でも加工できるようになっています.レーザーカッター用のデータは近々公開する予定です.
アプリケーション
具体的にnoopyとmaterealを用いて開発したアプリケーションを紹介します.
Make Tokyo Meeting 06
東工大で開催されたMake Tokyo Meeting 06を見学してきました.Makeは楽しい!技術をエンドユーザに提供する人々と,それを使って作ったモノで自己表現,自慢をする人々が融合している雰囲気でした.個人が個性を発信できるような世界というのを実感しました.
展示されていたもので,特にグッときたものを紹介.これはメジャーをロボット化してしまったというもの.カワイイですね!家庭にあるモノって基本は静止しているものがほとんどですが,こういったものがワシャワシャ動き出すことによって,生活を華やかにしてくれそうですね.私も「実体のある動き」というのが昔から好きで,小中学生のころはラジコンにはまり,今はロボットの研究をしています.物体のマニピュレーション,表現,時には人に乱暴してしまう「動き」.「動き」にはまだまだ追求することがたくさんある気がします.
電飾化粧
こちらはGIZMODO JAPANの記事から.まぶた等の動きをセンサが認識し,LEDがそれに合わせて光るそうです.これが未来の化粧の姿なのか...
ウェアラブルで光るといえば神戸大塚本研究室,藤本さんらの研究.体全身にLEDを配置し,ダンスパフォーマンスを行います.未踏事業に採択され,オーサリングソフトを開発したそうです.このソフトのおかげでプログラミングが楽になり下の動画ような素晴らしいパフォーマンスができるようになったとのこと.「テクノロジの力で人間の表現を拡張する」というのがやりたいそうです.最高にかっこいいですね!
ロボットもそれ単体では表現に限界がありますが,うまく何かを組み合わせることで本来持っている能力の拡張ができます.つい最近発表されたHRP-4Cは人間のバックダンサーによってそれを実現していると捉えることもできます(人間と能力を比較されてしまうというデメリットもありますが).
私が所属している稲見研究室で開発されたAugmented Coliseumもまさにそれですね.
