今日は明治大学の中のキャンパスでインタラクション2017という学会に行ってきました。
http://www.interaction-ipsj.org/2017/
詳しくはこちら。
一般公開されているインタラクティブ発表を見に行きました。
発表とか聞きたかったけど登録しないとだったし、発表なんてするものないし登録とかするわけもなく。
まだ学部1年だしね、発表することとか特にないのは仕方ないね。
モチベーションとしては面白いものをつくるためのアイディアの源を何か得られないかなとか進路とかの参考にしようとかその程度だったのだけど想像以上に面白かったので。
2つほど面白かったのをつらつらと書いていきます。
1つ目が力覚提示の装置。
ウェアラブル6自由度力覚提示デバイスSPIDAR-Wのフレームの軽量化とエンドエフェクタの改良
写真とったけど人が写ってるのでちょっとあげられないので
http://www.interaction-ipsj.org/proceedings/2016/data/pdf/1B38.pdf
こちらをご覧ください。ネット上ではよく見かけるワイヤーを使った力覚提示装置。
実際に体験してみたのは今回が初めてだったけど結構明確に力を感じられてすごいなと思った(語彙力)。
詳しくは論文を読んだほうがはやいと思うので略。
2つめがこちら
複数色CG物体生成を可能にする「不思議なスケッチブック」の拡張
今回の展示で一番すごいなと感じた。論文は以下。
これの拡張版が展示されていました。絵に描いたものをリアルタイムで3Dモデルとして表示する。
この手の絵をスキャンかけて実際のゲームで使う、とかはチームラボあたりもやっていたけど(http://www.team-lab.com/sketchaquarium)
まさかリアルタイムでできるなんて、って感じでかなり感動してました。しかもかなりいろいろ面白い要素が詰まっていました。
論文のものは単一色を一つの形状として解析してモデルに書き出しているけど、今回の展示では輪郭を検出していて、モデルを書き出しているようでした。
なにがいいかというと。単一色で一つのものとして解析すると、下の写真のような建物を書いたとき、ビルの窓を青色で表現しても、枠と窓が一体として認識されないためバラバラにモデルができて、絵で表現したものとは違うものがCG上で出来上がってします。それを今回の展示では輪郭を切り取ることで、建物は建物一つとして解析してちゃんとモデルに絵の作者が意図したようにモデルが出来上がるとか。
ほかにもインタラクティブな要素は詰まっていて本当にすごいなと感動しておりました。
今日はこれくらいで。