<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>HACKist &#187; Unity</title>
	<atom:link href="https://hackist.jp/?cat=36&#038;feed=rss2" rel="self" type="application/rss+xml" />
	<link>https://hackist.jp</link>
	<description>HACKistは日々、博報堂アイ・スタジオで挑戦している、ちょっと変わった新しい実験をお知らせしていきます。</description>
	<lastBuildDate>Wed, 30 Sep 2020 02:59:58 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=4.2.4</generator>
	<item>
		<title>The Falling Moon [HACKist 4th Exhibition]</title>
		<link>https://hackist.jp/?p=8397</link>
		<comments>https://hackist.jp/?p=8397#comments</comments>
		<pubDate>Mon, 11 Dec 2017 01:41:59 +0000</pubDate>
		<dc:creator><![CDATA[HACKist]]></dc:creator>
				<category><![CDATA[Connective Design]]></category>
		<category><![CDATA[Unity]]></category>
		<category><![CDATA[Virtual Reality]]></category>

		<guid isPermaLink="false">http://hackist.jp/?p=8397</guid>
		<description><![CDATA[はじめに 2017年10月26日から29日の4日間。HACkistの4度目の展示である【HACKist 4th Exhibition &#8211; Connective Design：テーマとテクノロジーをつなぐデザイ [&#8230;]]]></description>
				<content:encoded><![CDATA[<p><img class="aligncenter size-large wp-image-8398" src="http://hackist.jp/wp-content/uploads/22496251_10211836188519009_7436412438603839648_o-1024x545.jpg" alt="【写真】The Falling Moon メインビジュアル" width="1024" height="545" /></p>
<p><iframe width="820" height="360" style="border: none; overflow: hidden;" src="https://www.facebook.com/plugins/video.php?href=https%3A%2F%2Fwww.facebook.com%2Fhakuhodoistudio.istis%2Fvideos%2F1727134293964530%2F&amp;width=820&amp;show_text=false&amp;appId=1676946285859516&amp;height=360" scrolling="no" frameborder="0" allowtransparency="true" allowfullscreen="allowfullscreen"></iframe></p>
<h2>はじめに</h2>
<p>2017年10月26日から29日の4日間。HACkistの4度目の展示である【HACKist 4th Exhibition &#8211; Connective Design：テーマとテクノロジーをつなぐデザインの実験】が行なわれました。</p>
<p>今回のエントリーはその中の作品の一つである【The Falling Moon：VRアドベンチャー】と銘打ったVR体験コンテンツについて触れたいと思います。月の落下により崩壊する世界のラスト3分間を体験するVRアドベンチャーです。VRでのリッチな視覚＆身体体験ではなく、情報量を絞りREAL空間とVR空間を繋ぐことで「VRのナラティブ性」について深くアプローチすることを目的としています。</p>
<h2>VRを考える上で見えてきた課題</h2>
<p>VRコンテンツを作る上で幾つかの実例をやってみた結果、構築された世界への没入感は相当高いレベルである反面、身体情報の視覚、聴覚、触覚のみでそれを体験しなければならず、現実と比較して「何かが足りない」という印象を持ちました。<br />
さらにヘッドマウントディスプレイを装着することで、いかにもこれからVRを始めますよ！という線引きがありその感覚にも改善点があるような印象を受けました。</p>
<p>この「何かが足りない」という漠然とした課題。</p>
<p>プロジェクトの大半の時間を割き、メンバーでディスカッションを続けた結果、VRでのリッチな視覚＆身体体験ではなく、情報量を絞りREAL空間とVR空間を繋ぎ「VRのナラティブ性」についてアプローチすることで課題に対しての一つの解が提案できると考えました。</p>
<h2>アイディアと制作期間</h2>
<p>VRの体験時間を3分と設定。短すぎても伝わらないし、長すぎてもVR酔いの懸念がある中で導き出した時間。<br />
限られた時間の中で行う体験をどう現実世界の体験とシンクロさせるかでした。</p>
<p>こればかりは考えても限りがある部分でしたので、実際のものを作っては複数人でのデバッグ+意見交換というセットを何度も行い、ストーリーの軸を決めるor修正の繰り返し。何度もゼロベースから作り直しを行う為に制作スピードが求められます。<br />
課題抽出のディスカッションの間の数日を使いいくつものサンプルが作られ、そして消えていくというまさにコンテンツタイトル通りの制作スタイルを貫いた感があります。</p>
<p><img class="aligncenter size-full wp-image-8431" src="http://hackist.jp/wp-content/uploads/testplay01.png" alt="【写真】VR開発のテストプレイ" width="820" height="520" /></p>
<p>プランが固まり最終的に使うプログラム部分や会場のセッティング、オペレーションなどを確認しつつ仕上げを行い、展示前日のギリギリまで調整を続けていました。</p>
<p><img class="aligncenter size-full wp-image-8408" src="http://hackist.jp/wp-content/uploads/hint.png" alt="【写真】展示会場のセッティング写真" width="820" height="640" /></p>
<p><img class="aligncenter size-full wp-image-8425" src="http://hackist.jp/wp-content/uploads/oars.png" alt="【写真】VRコンテンツのコントローラーとなるオール" width="820" height="650" /></p>
<p><img class="aligncenter size-full wp-image-8410" src="http://hackist.jp/wp-content/uploads/hint2.png" alt="【写真】体験終了後に配られる世界を救うためのヒント" width="820" height="400" /></p>
<p><img class="aligncenter size-full wp-image-8412" src="http://hackist.jp/wp-content/uploads/playImage01.png" alt="【写真】プレイイメージ１ VRの中にある施設全景" width="820" height="500" /></p>
<p><img class="aligncenter size-full wp-image-8413" src="http://hackist.jp/wp-content/uploads/playImage02.png" alt="【写真】プレイイメージ２ 落ちてくる月" width="820" height="500" /></p>
<p><img class="aligncenter size-full wp-image-8414" src="http://hackist.jp/wp-content/uploads/playImage03.png" alt="【写真】プレイイメージ３ モノリスの起動" width="820" height="500" /></p>
<h2>展示期間中の運用</h2>
<p>ヘッドマウントディスプレイの装着やコンテンツの説明、安全面の確保などでどうしても運用には人の手が必要となってきます。それをネガティブにはとらえず展示期間中に気づいたことを運用スタッフ間で共有し、オペレーション手順の改善やプログラムの更新などを随時行えたのは大きな成果だと思っています。（初日と最終日ではVR世界も少し変わっていたことでしょう）</p>
<p>オペレーションについては事前に想定していた管理用のインターフェースがあり、その状態を見ることでスタッフ間の引き継ぎも数分で行えるなどの事前準備が効いていました。これについては次の機会で触れようと思います。</p>
<h2>展示を終えて</h2>
<p>今回は「VRのナラティブ性」に対してのアプローチでした。振り返って反省点や追加で作りたい部分などはあるのですが、それを差し引いてもやはりVRは非常に強力な体験装置です。<br />
ただどうしても一人でやることが前提になってきます。今回のように1:1の体験。それはそれで重要なのですが、1:N。多数の人が同時に体験できるものについて考えても面白いと思います。</p>
<p>今回の展示会を経て、ユーザー体験の重要性を非常に強く意識でき、その取り組みに関われて非常に良い刺激を受けることができました。<br />
この経験を生かしてまた面白いものを作っていけたらと思っています。</p>
<p>ご来場いただいた皆様、そして関係者の皆様！ありがとうございました！！！</p>
<h2>Credit</h2>
<p>クリエイティブディレクター／アートディレクター／デザイン<br />
望月 重太朗</p>
<p>デザイナ／テクニカルディレクター／VR構築<br />
小井 仁</p>
<p>演出／シナリオ<br />
下田 彦太（CluB_A）</p>
<p>ミュージック／サウンドデザイン<br />
太田 昌孝（MUSE CREA inc）</p>
<p>ボイス<br />
李そじん（青年団、東京デスロック）</p>
<p>レコーディング<br />
村井 宏志（r STUDIO）</p>
<p>デザインアシスタント<br />
諏訪真</p>
<p>運用／アシスタント<br />
阿部 世理</p>
]]></content:encoded>
			<wfw:commentRss>https://hackist.jp/?feed=rss2&#038;p=8397</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Unityでの群行動アルゴリズムを使った演出を考えてみる</title>
		<link>https://hackist.jp/?p=8388</link>
		<comments>https://hackist.jp/?p=8388#comments</comments>
		<pubDate>Mon, 31 Jul 2017 02:35:39 +0000</pubDate>
		<dc:creator><![CDATA[HACKist]]></dc:creator>
				<category><![CDATA[Unity]]></category>

		<guid isPermaLink="false">http://hackist.jp/?p=8388</guid>
		<description><![CDATA[こんにちは。Unityがだんだん好きになってきた小井です。 今回は「Unityでの群行動アルゴリズムを使った演出を考えてみる」と銘打っていますが、主に扱うのは群知能アルゴリズムをUnityに移植して遊んでみた記録になりま [&#8230;]]]></description>
				<content:encoded><![CDATA[<p>こんにちは。Unityがだんだん好きになってきた小井です。</p>
<p>今回は「Unityでの群行動アルゴリズムを使った演出を考えてみる」と銘打っていますが、主に扱うのは群知能アルゴリズムをUnityに移植して遊んでみた記録になります。</p>
<p><strong>群知能</strong> &#8211; 人工知能技術の一つで自然界の例として、鳥の群れ、動物の群れ、魚の群れなどの再現を行うのに非常に優れた考え方の一つです。主だって使ったのは基本的なVector3計算とRigidBody,Quaterianという基本項目だけになってしまうのですが、Unityのプログラムを組みに当たって非常に重要な項目を多く含むと思われたため頑張ってみました。<br />
群知能アルゴリズムと聞くと流行りの機械学習系かと思う方もいらっしゃるかもしれませんが、そうではなく基本的なルールをいくつか設定することで複雑でエレガントな演出が実行されます。</p>
<p>そのルールとは・・・</p>
<p><strong>ルール1</strong><br />
鳥オブジェクトは、自分以外の鳥オブジェクトと一定の距離を保つ。</p>
<p><strong>ルール2</strong><br />
鳥オブジェクトは、自分の属する群れと同じ方向に向かって飛ぶように向きと速度を常に調整する。</p>
<p><strong>ルール3</strong><br />
鳥オブジェクトは、自分の属する群れと離れすぎないように群れの中心に向かって進む。</p>
<p>基本的なルールは上記の3つになるのですが、製作者のセンスといいますか、幾つかの別ルールを追加しても面白い動きを見せてくれます。前置きが長くなりました。記録した動画を用意しましたので見ていきましょう。</p>
<h2>[Unity] Boids 3D</h2>
<p><iframe width="640" height="360" src="https://www.youtube.com/embed/5_MfJwgxaiI?rel=0" frameborder="0" allowfullscreen="allowfullscreen"></iframe><br />
ルール1から3までをそのまま組み込んだものがこちらの3Dモードです。今回は視認しやすいよう軌跡を描いています。<br />
簡単なルール3つだけで何か意志を持ったかのような動きが見て取れますね。</p>
<p>今回Boidsを作るにあたって、2つのバージョンでスタディを進めています。一つは物理的な衝突判定を前提としたモード。<br />
そしてもう一つは衝突判定を考慮しないモードです。Boidsの特性上、鳥同士が衝突するということは少ないのですが、ゲームエンジンの一つとして組み込んだ場合他のオブジェクトとの衝突判定があった方が総合的に使いやすいと思われたので両方のモデルで製作しています。ただ、2つのバージョンといっても基本となるアルゴリズムは前述した3つのルールを組み込んでいるため同じ処理になります。</p>
<h2>[Unity] Boids 2D</h2>
<p><iframe width="640" height="360" src="https://www.youtube.com/embed/oU5My3ubS6U?rel=0" frameborder="0" allowfullscreen="allowfullscreen"></iframe><br />
3Dバージョンを作ったのはいいのですが、ディスプレイの中で3Dを扱うとユーザーの情報取得難度が上がり、よくわからない！ということも多くあります。そこで2Dバージョンに調整を行いました。気づいてはいましたが・・・平面的な情報の方がよくわかりますね。それぞれの鳥はお互いの距離を適切に保ちつつ、他の群れと遭遇した場合はお互いに影響を及ぼしあいながら進行を繰り返している様子がわかります。</p>
<p>動きを組み込んだ後のブラッシュアップ項目の一つに必ずと言っていいほど処理負荷の軽量化が挙げられますが、<br />
最初挙げた3つのルールの見直しや、Unity上でのプログラムの最適化などを行えばさらに数倍効率的に動くのではないでしょうか。</p>
<p>基本的な動きのパターンが出来たところで、このプログラムが何に使えるかという点ですが、比較的柔軟に使えるような気はしています。鳥や動物の群れ、魚群、飛行機の編隊飛行にもうまくやれば対応できるかもしれません。</p>
<h2>[Unity] Boids Zombi</h2>
<p><iframe width="640" height="360" src="https://www.youtube.com/embed/4XboZZrAWuQ?rel=0" frameborder="0" allowfullscreen="allowfullscreen"></iframe><br />
このアルゴリズムをつかってゾンビの群れを操ってみました。実際に使うとなれば、例えばゾンビの周辺にプレイヤーがいた場合は、その群れに属するゾンビが一斉に襲ってくる！といった展開がまず考えられるかと思います。ちなみにVRにも移植してみたのですが、これかなり怖いですね！！</p>
<p>Unityといえばアセットストアを使って効率化してみたいなスタイルが主流かと思いますが、時々こういったアルゴリズムを触ってみて楽しんでみるのもいいのではないでしょうか。</p>
]]></content:encoded>
			<wfw:commentRss>https://hackist.jp/?feed=rss2&#038;p=8388</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>INVISIBLE FORCEの裏側について[HoloLens+Unity]</title>
		<link>https://hackist.jp/?p=8356</link>
		<comments>https://hackist.jp/?p=8356#comments</comments>
		<pubDate>Mon, 03 Jul 2017 09:28:09 +0000</pubDate>
		<dc:creator><![CDATA[HACKist]]></dc:creator>
				<category><![CDATA[Mixed Reality]]></category>
		<category><![CDATA[Unity]]></category>
		<category><![CDATA[WebGL]]></category>

		<guid isPermaLink="false">http://hackist.jp/?p=8356</guid>
		<description><![CDATA[ご無沙汰しております。小井です。 今回は少し時間が経ってしまいましたが、3月のSXSW2017で提案した「INVISIBLE FORCE」について少しお話をさせてもらいます。 SXSWの記事はこちら「【SXSW2017】 [&#8230;]]]></description>
				<content:encoded><![CDATA[<p>ご無沙汰しております。小井です。<br />
今回は少し時間が経ってしまいましたが、3月のSXSW2017で提案した「INVISIBLE FORCE」について少しお話をさせてもらいます。<br />
SXSWの記事はこちら「<a href="http://hackist.jp/?p=8114">【SXSW2017】HACKist、四度目のオースティンの大地を踏む</a>」</p>
<p>この作品は見えない力の表現となっていて、HoloLensをつかい、Unity,Max,IoTといった技術を連動させた作品となっています。<br />
細かい技術要点は多々あるのですが、今回担当した視覚効果の部分について触れていきたいと思います。</p>
<h2>体験設計と基本的なパーツの実装</h2>
<p>体験の流れとして、HoloLensで見えるMR空間内にバリアを展開。それにユーザーがエネルギー弾を投げてバリアを破壊するという一連の流れの生成と演出になります。このオーダーに対して次の動画のようなデモをいくつか作り、チーム内でイメージの共有を進めました。</p>
<p><iframe width="640" height="360" src="https://www.youtube.com/embed/2PI4c1OdEcY" frameborder="0" allowfullscreen></iframe></p>
<p>このバリア、初めはWebGLでサンプルを作っています。Unityで作るのになぜWebGLをつかってサンプルをつくるのか？という疑問があるかもしれません。<br />
その理由として、INVISIBLE FORCEを作り始めたのが1月中旬。3月上旬のSXSWまで時間がなく一番慣れ親しんだ言語がGLSLだったというのもあります。（余談ですが、この時点でUnityを触り始めて2月半ほどでした・・・）デザイナーさんと詰めていく過程をGLSLでやり、最終的なアウトプットに対してはHLSLで実装したといえばわかりやすいでしょうか。<br />
また、柔らかなイメージのバリアなので、弾が当たった瞬間に弾くようなエフェクトではなく、受け流すような動きを演出として加えています。<br />
これで基本的な部分ができました。</p>
<h2>GPGPUをつかってバリア破壊のエフェクトをつくる</h2>
<p>次はバリア破壊のエフェクト。イメージしたのは柔らかい球体が割れていく様。シャボン玉や風船が割れる瞬間をスーパースローカメラでとらえたような絵を再現する事にしました。バリアにエネルギー弾が当たったところからゆっくりとバリアが無くなっていくイメージです。</p>
<p><iframe width="640" height="360" src="https://www.youtube.com/embed/McwPDVfMZ40" frameborder="0" allowfullscreen="allowfullscreen"></iframe></p>
<p>いくつか実装の方法は思いついたのですが、この時は一番シンプルなバリアと弾の接触した座標からの距離を使った3D演算をShader側で行う事で達成しました。いわゆるGPGPUの一種です。<br />
Shaderに処理を委ねたのは、計算内容が3Dによったものだったのでマシンの処理負荷を考慮した結果でした。</p>
<h2>INVISIBLE FORCE製作を振り返って</h2>
<p>やはり3Dコンテンツの制作は、デザイン先行しての制作になりにくく（いわゆるグラフィックデザインが先行しにくいためです）、全体の体験を設計した後にチーム内のイメージ共有、そしていきなり実装というケースが多いかと思います。今回もまさにその環境だったのですが、イメージにできるだけ合わせた実装を行なった後にチームで細かくすり合わせを繰り返すことで作り込みと完成度を高めていくことができました。コミュニケーションってやっぱり大事ですね！</p>
<p>MRとして今回製作していますが、基本的なことを押さえていればVRコンテンツにもすぐ応用が利き、改めてUnityの汎用性の高さを確認できました。<br />
余談ですが、先日VRを作ってみようと思い、月曜に作り始めたら火曜には簡単なでのレベルのVRゲームができたので改めてご紹介できればと思っています。</p>
<h2>Shaderの汎用性</h2>
<p>Shader（本記事の中ではGLSL、HLSLといったShader言語で開発）は基本的に3DCGにおいて、陰影処理や模様を作り出す機能の総称なのですが今回はこれに加え3DCGの形状も変化させてみました。これはGPGPUというテクニックの一つで、PCの中でグラフィックを計算する部分を使ってグラフィック以外の計算をさせる事で高速に処理を行う方法です。これはビジュアライズ分野以外にも多く使われており、最近よく耳にする機械学習の分野においてもこのGPGPUの処理方法が使われています。<br />
このようにShaderは非常に多くの汎用性があるため今後より掘り下げた使い方を模索していこうかと思っています。</p>
]]></content:encoded>
			<wfw:commentRss>https://hackist.jp/?feed=rss2&#038;p=8356</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>DE DE MOUSE リリースパーティー「for 2EPs」HACKistVJ レポート</title>
		<link>https://hackist.jp/?p=6342</link>
		<comments>https://hackist.jp/?p=6342#comments</comments>
		<pubDate>Thu, 20 Aug 2015 04:51:57 +0000</pubDate>
		<dc:creator><![CDATA[HACKist]]></dc:creator>
				<category><![CDATA[Kinect]]></category>
		<category><![CDATA[openFrameworks]]></category>
		<category><![CDATA[Unity]]></category>
		<category><![CDATA[VJ]]></category>
		<category><![CDATA[WebGL]]></category>

		<guid isPermaLink="false">http://hackist.jp/?p=6342</guid>
		<description><![CDATA[こんにちは、HACKistブログには初登場の西尾です。 今までHACKistでは2014年4月「DIGITAL SDRAMBLE＠神宮前ROCKET」と、 2015年5月「DIGITAL FRAGMENTS＠神宮前Gal [&#8230;]]]></description>
				<content:encoded><![CDATA[<p>こんにちは、HACKistブログには初登場の西尾です。</p>
<p>今までHACKistでは2014年4月「<a href="http://www.hackist.jp/digital_scramble/" target="_blank">DIGITAL SDRAMBLE＠神宮前ROCKET</a>」と、<br />
2015年5月「<a href="http://www.hackist.jp/digital_fragments/" target="_blank">DIGITAL FRAGMENTS＠神宮前Galaxy Gingakei</a>」などの<br />
展示イベントオーガナイズ＆運営などを行わせていただいております。<br />
HACKistのよく言えばプロデューサー、内情は裏方兼いじられ担当として日々奮闘中です。</p>
<p>今回は、去る2015年7月23日に代官山UNITで行われた、<br />
DE DE MOUSE リリースワンマンパーティー「<a href="http://dedemouse.com/liveschedule_list/liveschedule_2015/one-man_release_party_0723.html" target="_blank">for 2EPs</a>」に<br />
HACKistがVJで出演させていただいた様子をレポートさせていただきます。<br />
きっかけは、先述の「<a href="http://www.hackist.jp/digital_fragments/" target="_blank">DIGITAL FRAGMENTS＠神宮前Galaxy Gingakei</a>」に<br />
DE DE MOUSEさま(以下敬称略)にご出演いただいたことでした。<br />
その際のHACKistVJとのコラボレーションをよりアップデートした形とのことで、<br />
リリースパーティーという大舞台にオファーいただきました。</p>
<p><center><iframe width="700" height="390" src="https://www.youtube.com/embed/vCJukWUBp7s" frameborder="0" allowfullscreen="allowfullscreen"></iframe><br />
今回の「for 2EPs」HACKistVJのダイジェスト動画です。<br /></center>1stセット「youth 99 side」ではrokapenisさんと山口崇司さん（d.v.d.）が<br />
DE DE MOUSEの立つ大きな箱に映像を投影する迫力あるパートで、その後いよいよ<br />
HACKistがVJ演出を行う2ndセット「milkyway drive side」が始まります！</p>
<p>と、その前に今回の機材セッティングについて簡単にご説明します。<br />
今回はUNITメインスクリーンの両端にHACKistが開発したトランスペアレントスクリーンを2つ設置しました。<br />
合計の3画面にて、全てに同じ映像を出力するのではなく、1つの映像を３画面で映し出すことにより<br />
奥行きのある表現を可能としました。</p>
<p><img class="alignleft size-full wp-image-6363" src="http://hackist.jp/wp-content/uploads/IMG_2532_2.png" alt="IMG_2532_2" width="700" height="483" /></p>
<p>また、DE DE MOUSEの動きと音楽をKinectとマイク入力でセンシングして、<br />
それを映像に反映させるインタラクティブな仕組みを導入しました。<br />
特にKinectの認識においては、事前のリハでDE DE MOUSEのライブ中の動きをとって学習させて、<br />
より精度を上げた形でのインタラクティブな演出を行いました。</p>
<p><img class="alignleft size-full wp-image-6381" src="http://hackist.jp/wp-content/uploads/dedegakushu.png" alt="dedegakushu" width="700" height="277" /></p>
<p><center>こちらはKinectでの動き学習中の画像です。</center><center></center>&nbsp;</p>
<p>各自のインプット＆ソフトウェア構成は下記となります。<br />
１、小井パート　:　 Kinect → WebGL<br />
２、公文・貴田パート　：　Kinect → openFramework + MAX/MSP<br />
３、茶谷パート　：　Kinect → Unity5<br />
４、qawasakiパート　：　Audio(Mic) → Unity5</p>
<p>3つのスクリーンを従え、DE DE MOUSEの2ndセットが始まります。<br />
冒頭の画面には無数の岩のような手の動きに合わせて動くパーティクルが漂っていて、<br />
DE DE MOUSEが手を掲げるとパーティクルが集まり、ブレイクに合わせて元気玉のように放つ！<br />
という直感的なインタラクションで会場は沸き立ちます。</p>
<p><center><br />
<blockquote class="instagram-media" style="background: #FFF; border: 0; border-radius: 3px; box-shadow: 0 0 1px 0 rgba(0,0,0,0.5),0 1px 10px 0 rgba(0,0,0,0.15); margin: 1px; max-width: 450px; padding: 0; width: calc(100% - 2px);" data-instgrm-captioned="" data-instgrm-version="4">
<div style="padding: 8px;">
<div style="background: #F8F8F8; line-height: 0; margin-top: 40px; padding: 50% 0; text-align: center; width: 100%;"></div>
<p style="margin: 8px 0 0 0; padding: 0 4px;"><a style="color: #000; font-family: Arial,sans-serif; font-size: 14px; font-style: normal; font-weight: normal; line-height: 17px; text-decoration: none; word-wrap: break-word;" href="https://instagram.com/p/6jR3WusGlx/" target="_top">7/23 DE DE MOUSE ”for 2EP”</a></p>
<p style="color: #c9c8cd; font-family: Arial,sans-serif; font-size: 14px; line-height: 17px; margin-bottom: 0; margin-top: 8px; overflow: hidden; padding: 8px 0 7px; text-align: center; text-overflow: ellipsis; white-space: nowrap;">nisoppさん(@nisopp)が投稿した動画 &#8211; <time style="font-family: Arial,sans-serif; font-size: 14px; line-height: 17px;" datetime="2015-08-19T04:17:24+00:00">2015 8月 18 9:17午後 PDT</time></p>
</div>
</blockquote>
<p><script src="//platform.instagram.com/en_US/embeds.js" async="" defer="defer"></script><br />元気玉の動画です。</center></p>
<p>ちなみに、少しネタばらしをすると実はこの時パートのVJはWEBブラウザで再生されていました。<br />
VJの小井はGIGAZINEなどネットメディアで話題となった「<a href="http://nulldesign.jp/metrogram3d/" target="_blank">metrogram3D</a>」の作者で、<br />
WEBブラウザ上では表現が難しい滑らかな動きをそのプログラミングスキルで実現しています。<br />
今回もスクリーン３画面を横断した1ブラウザでのVJプレイとなりました。</p>
<p><img class="alignleft size-full wp-image-6347" src="http://hackist.jp/wp-content/uploads/0d470de430036f457b59b6c1191f0a36.png" alt="5S7A1819_2" width="700" height="467" /></p>
<p>その後も小井が作る吸い込まれるように滑らかな動きとDE DE MOUSEの楽曲の旋律が重なり、<br />
心地よい興奮が続きます。<br />
*小井の作品は、9/27まで「<a href="http://www.2121designsight.jp/m/program/motion_science/" target="_blank">動きのカガク展＠六本木21_21 DESIGN SIGHT</a>」でもご覧いただけます。</p>
<p>冒頭パートが終わると曲は「supernova girl」になり、楽曲も四つ打ちになりよりクラブ仕様に。<br />
画面にはなんとDE DE MOUSEの分身が巨大化して画面に登場し、ポリゴンやワイヤーフレーム調など<br />
様々なエフェクトがかかった姿に変身していきます。<br />
ダンサブルなビートに様々な姿のDE DE MOUSE映像とストロボの照明が交錯することで、<br />
楽曲のキラキラとした世界をうまく演出できたのではないでしょうか。</p>
<p><img class="alignleft size-full wp-image-6350" src="http://hackist.jp/wp-content/uploads/af9aee28b41d84f8b047463701f7af7b.png" alt="(候補)DSC01683_2" width="700" height="468" /></p>
<p>2ndセットも中盤となり、「fading last night」の叙情的なメロディーに合わせて<br />
映像もファンタスティックな世界観へとチェンジしていきます。<br />
誰もいないビル街を彷徨い続け、花火が上がったりとよりグラフィカルに、<br />
まるで自分がその場所にいると錯覚するような幻想的な情景です。<br />
その後もDE DE MOUSEの動きに合わせて灼熱の星から火の玉が飛び出したり、<br />
雲を操ったりと2ndセット終盤に向けて徐々に上がっていくテンションを演出していきます。</p>
<p><img class="alignleft size-full wp-image-6351" src="http://hackist.jp/wp-content/uploads/DSC01156_2.png" alt="DSC01156_2" width="700" height="468" /></p>
<p>終盤、曲調がガラっと変わりハードでアップテンポな曲となると、<br />
それに合わせてBPMを検出し音とシンクロした映像へと切り替わります。<br />
楽曲によって青・赤・白など単色でシンプルながら力強く映像が躍動し、<br />
まるで音が物体として可視化されているような錯覚を覚えました。</p>
<p>そして、HACKistがPVを制作した「milkyway drive」のVJもライブで行いました。</p>
<p><img class="alignleft size-full wp-image-6352" src="http://hackist.jp/wp-content/uploads/42717da6103363a95d56592797019fe7.png" alt="DSC01564_2" width="700" height="468" /></p>
<p>イベント前に、「milkyway drive」のPVだけではなく、Unityの拡張機能を活用して、<br />
自分だけのPVを作ることができるインタラクティブPVを制作しました。<br />
空を飛び交う文字や空の色を色々変えたりすることが可能です、PCよりお楽しみください。</p>
<p><center><iframe width="700" height="390" src="https://www.youtube.com/embed/zyeExonGqNw" frameborder="0" allowfullscreen="allowfullscreen"></iframe><br />
「milkyway drive」PV</center><a href="http://dedemouse.com/app/milkywaydrive" target="_blank">http://dedemouse.com/app/milkywaydrive</a><br />
↑インタラクティブPVはこちらから(PCのみ)</p>
<p>最後のアンコール「sun end girl」では2セットという長丁場の締めにふさわしい、<br />
ステージの上にあがったまるでロックスターのような演奏でした。<br />
HACKist担当の2ndセットはこちらで終わりです！</p>
<p><img class="alignleft size-full wp-image-6367" src="http://hackist.jp/wp-content/uploads/DSC01697_2.png" alt="DSC01697_2" width="700" height="468" /></p>
<p>長文となってしまいましたが、今回HACKistとしては<br />
音楽アーティストのDE DE MOUSEとコラボレートしたVJ演出を行う<br />
という全く新しい取り組みでした！<br />
最初に話を頂いた時はどうなるものかと思われましたが、<br />
500人規模のお客さまの前で最高の演出をしたと、自画自賛ですが思っています。</p>
<p>最後となりましたが映像をより際立たせていただいた照明のMichinari Maruiさま、<br />
イベント運営スタッフの皆さま、お越しいただいたお客さま、そして今回話をいただいたDE DE MOUSEさま、<br />
本当にありがとうございました！</p>
<p>またこういった取り組みは、近いうちにやるかもしれません。というか、やっていきたいです！！<br />
それではまた近々！！</p>
<p><img class="alignleft size-full wp-image-6353" src="http://hackist.jp/wp-content/uploads/4c42f30580e652a17f1406716fd6e6d9.png" alt="5S7A1769_2" width="700" height="467" /></p>
<p>&#8212;<br />
DE DE MOUSE 「for 2EPs」 -milkyway drive side- HACKistスタッフリスト<br />
Creative Director: 望月重太朗<br />
VJ: Junpei Qawasaki, 小井仁, 公文悠人,貴田達也,茶谷亮裕<br />
Producer: 西尾奏<br />
Special Thanks: 進藤俊彦</p>
]]></content:encoded>
			<wfw:commentRss>https://hackist.jp/?feed=rss2&#038;p=6342</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>表情の変わるイラストレーション「Vincent」の裏側</title>
		<link>https://hackist.jp/?p=5869</link>
		<comments>https://hackist.jp/?p=5869#comments</comments>
		<pubDate>Mon, 29 Jun 2015 11:21:18 +0000</pubDate>
		<dc:creator><![CDATA[HACKist]]></dc:creator>
				<category><![CDATA[Arduino]]></category>
		<category><![CDATA[DIGITAL FRAGMENTS]]></category>
		<category><![CDATA[sensor]]></category>
		<category><![CDATA[Unity]]></category>

		<guid isPermaLink="false">http://hackist.jp/?p=5869</guid>
		<description><![CDATA[こんにちわ。Qawasakiです。 今回は「Vincent」という作品の中身について説明をしたいと思います。 Vincentは元々、インタラクティブ閃光玉（天）で行った立体造形物へのマッピングがひと段落したところで、ある [&#8230;]]]></description>
				<content:encoded><![CDATA[<p>こんにちわ。Qawasakiです。</p>
<p>今回は「Vincent」という作品の中身について説明をしたいと思います。<br />
Vincentは元々、インタラクティブ閃光玉（天）で行った立体造形物へのマッピングがひと段落したところで、あるコンペティション向けに違うプロトタイプを作るというところから始まりました。</p>
<h2>◼︎インタラクティブ閃光玉（天）</h2>
<p><iframe width="500" height="281" src="https://www.youtube.com/embed/yudDeOL5isQ?feature=oembed" frameborder="0" allowfullscreen></iframe></p>
<p>テントは独自製作（プロトタイプはIKEAの天蓋）で、そこに対して間に分配器挟んだ２台のRICHOの超単焦点プロジェクターで投影してます。中にも入って体験できるように背面投影と透過スクリーンです。<br />
造形物投影に合わせるのはMadMapperを使っております。<br />
（作る段階で細かく設定しないと明るさによっては映像綺麗に出ないという課題はあるです）</p>
<p>余談ですが最近、分配器の代わりにTripleHead2Goというものを手に入れた（遅い）のでちょっとした建売住宅とか中規模ライブハウスくらいまでならばマッピング出来る気持ちではあります。<br />
この流れだと確かにOputiTrackさえあれば規模問わないインタラクティブ可能だな、と。持ってないけど。</p>
<p>序盤から話は逸れましたが、この次の作品という位置付けでVincentがあります。</p>
<p>アイデアとして、アナログなイラストとデジタル技術を組み合わせたハイブリッドアートの分野で、人をセンシングしてイラストにインタラクションが起きるというアイデアを少しずつ昇華させて進めているものです。</p>
<p>最初に作ったプロトタイプはこちら。<br />
（ムービー用の曲もオリジナルですよー）</p>
<h2>◼︎Vincent -Approach the World Truth- </h2>
<p><iframe width="500" height="281" src="https://www.youtube.com/embed/tIpW5FoX3gI?feature=oembed" frameborder="0" allowfullscreen></iframe></p>
<p>フェルメールの絵画を真っ白なキャンバスにプロジェクションして投影します。<br />
そこに距離センサを設置して人が近づいたのを検知してグリッジのエフェクトがかかり、別の絵に変わります。</p>
<p>通常、絵画を見るときに人は「見る」という行為、つまり視覚でコミュニケーションしますが、それに加えてさらに詳細な絵画の情報得るために「近づく」という行為が発生します。<br />
Vincentのプロトタイプでは「近付くことで見える真実がある」というコンセプトを元に人が絵画に近寄るとフェルメールと同じ時代に別の画家が描いた貧困をテーマとした絵に切り替わり、最終的には元となる真珠の耳飾りの少女の絵が涙を流す、というインタラクションが発生します。</p>
<p>ここに至るまでにイラスト（絵画）を動かすっていう視点で幾つかサンプルも作ったりしてます。</p>
<p>こんなとか、<br />
<iframe width="500" height="281" src="https://www.youtube.com/embed/wnaJurtxPxY?feature=oembed" frameborder="0" allowfullscreen></iframe></p>
<p>こんなのとか。<br />
<iframe width="500" height="375" src="https://www.youtube.com/embed/AI6-WbhiN24?feature=oembed" frameborder="0" allowfullscreen></iframe><br />
実際の絵になるべく馴染むようにCG合体したらどんなになるかなーと思って試したものの、ただ絵を動かすだけだと体験は弱い。。こういう動くプロトをラピッドで数パターンか作っては捨て作っては捨て、考えて、いまの状態に至ってます。</p>
<h2>◼︎システム構成</h2>
<p>Vincentのシステム構成は下記になります。<br />
<img class="alignleft size-full wp-image-6156" src="http://hackist.jp/wp-content/uploads/system.jpg" alt="system" width="820" height="260" /></p>
<p>割とシンプルで、超音波センサーが拾った値を制御用PCにシリアル通信で送って演出に反映させています。<br />
基本、インタラクティブ閃光玉（天）の構成にセンサーが入った感じです。<br />
閃光玉（天）はセンサーの代わりにMIDIによるリアルタイム演出操作が出来ます。</p>
<p>今回の展示はプロトのように２つの絵画の切り替わりではなく、アニメーションという要素を加えました。<br />
アニメーションといってもデジタルなものではなく、いわゆるセルアニメの手法である「コマ割り」です。</p>
<h2>◼︎ILLUST</h2>
<p>今回は手書きのイラストをこうやって18枚くらい用意しました。</p>
<p><img class="alignleft size-full wp-image-6155" src="http://hackist.jp/wp-content/uploads/illust.jpg" alt="illust" width="820" height="600" /></p>
<p>Unity側でテクスチャを距離に応じて切り替えていくのですが、コマ割りだけに順番がおかしくなるわけにはいきません。なので、距離も絶対値じゃなくていくつかの閾値を設けて達したらアニメーションとして0.1秒くらいで自動アニメするようにしています。</p>
<p><iframe width="500" height="281" src="https://www.youtube.com/embed/G1ol9eJqKWs?feature=oembed" frameborder="0" allowfullscreen></iframe></p>
<h2>◼︎CODE</h2>
<p>参考までにUnityのスクリプトを載せるとこんな感じ。<br />
<img class="alignleft size-full wp-image-6283" src="http://hackist.jp/wp-content/uploads/code1.png" alt="code" width="820" height="415" /></p>
<p>_Distance変数がセンサー値で、これは「ツチボタル」や「Siricon」去年展示の「ランドリーバード」などのArduinoのセンサーで有名なMaker番長の茶谷くんが作ったモジュール使わせてもらってます。</p>
<p>Arduinoからシリアル通信を受け取るマネージャーなど、いくつかのスクリプトがあってシングルトンクラスになっていてどこからでも参照出来るので、とっても便利です。これをテクスチャ変更するスクリプト内で呼び出して値を調整していたりします。</p>
<p>ただ、センサー値の取得を秒間1000回やってパーティクルを500以上同時に動かすとなると処理落ちして辛いので、結局秒間１０回にしてます。今回は10回/秒のセンサー値でも対応出来るのですが、もっとリアルタイム性の高いコンテンツの場合、ここは検討しないといけないところです。</p>
<p>あと、Arduinoやセンサースペックの影響だと思うのですが、値のブレは結構あります。今回はセンサー値はそのままにVincent用のローパスフィルターを別で作成して精度を上げてます（独自ローパスは秘密）。<br />
演出の限界はシングルトンのせいなのか、単純にCPU性能高めれば良いのかは謎。</p>
<p>本当は絶対値に応じたスムーズなアニメーション変化が出来れば良いのですが、時間の都合で上記のコードのようなテクスチャ切り替えを愚直に繰り返してます。。</p>
<p>仕上げにMainCameraにImageEfectでBlurを少しかけてスムーズに見えるようにしていて、この辺りはUnityの恩恵で楽にはなっているものの、現状の仕組みのままならば環境はopenFrameworksの方が向いているなぁと思ったりしています。そういう意味ではUnityとoFは両方使って初めて意味があるなーという気づきがありました。</p>
<p>Unityは表現が多彩で扱いやすいです。でも複数のアプリを連結させてバックエンドで動かしたりコードから直接描画する分にはoFの方が有利です。プログラマ界隈の外人風に言うとC++はパワフルだね！という感じです。<br />
厳密にはUnityでJSでスクリプト書いても最終的には変換されるのですが、そこの段取りの分、遅い的な。</p>
<p>でも、最近oF使うことも多いのですが画像系をたくさん描画すると結局、ガタガタすることはある。<br />
参考までにこちらも軽くプロトタイプしたマイク音量拾ってサークル描画するやつ。<br />
<iframe width="500" height="281" src="https://www.youtube.com/embed/pGcUmxcUTBs?feature=oembed" frameborder="0" allowfullscreen></iframe></p>
<p>1000個まではMacbookProでも余裕。</p>
<p>UnityもoFも表面上使うだけだとどっちでもダメですね。<br />
差別化はかるためにもunityではシェーダーくらいかけるようにしよう。<br />
そんな感じで色々気づくことあるのでUnityとoF、どっちかしかやってない人はどっちもやったほうがいいと思います。</p>
<p>展示後にセンサー使わないでポリゴンをバリバリ使うコンテンツを作ったら結局、限界を迎えたのでそもそものUnity内のプログラム構造に問題あるのかもとか思ってて、プロトタイピングはこういう積み重ねが割と大事だなーと思っております。</p>
<p>展示みていただいた方の中には「KINECTとかで深度とればもう少し精度上がるのでは」というコメントをいただきましたが、Vincentは今の使い方だけでなく汎用的に使えるものを目指しているので、安価なセンサーを使っている、という感じです。PCも小型のMINI PCにすればコストは低く、持ち運びも簡単になるなと思ってます。</p>
<p>KINECTとMacbookProのままだとスペックも余剰でコストも高く応用利かないので、そういうのはVincentの思想と合わないという理由で採用していないです。</p>
<h2>◼︎まとめ</h2>
<p><strong><br />
Vincentは、取り立ててすごい技術を使ってるわけでも無く、超新しいテクノロジーでもないです。<br />
理由は前述したような近付くことでのハイブリッドアートの体験の実現をターゲットにしてた、というところが大きいですが、技術的な側面として、全体的な構成が「スケーラブルであること」は気にしています。いわゆる仕組みとして横展開出来るものをつくっています。今後は実運用で使ってもらえるところを探して根本はブレずに少しずつ状況に応じたブラッシュアップはしたいなーと思っています。</p>
<p>以上、全体を通して雑文的になって「わけわかんねーこと言ってるな、こいつ」という感じだと思いますが、要はこういうテクノロジー全般を俯瞰しつつ日々、生きておりますのでこういうのイベントで使いたいとか、同じ仕組みで独自のもの使いたいとかあればお気軽にお声がけくださいという感じで締めのご挨拶と代えさせていただきます。<br />
</strong></p>
<p><Staff><br />
ArtDirection/Illust/Design: Eri Hosokawa<br />
Programming: Junpei Qawasaki<br />
Sensor: Akihiro Chaya</p>
<p>では。</p>
]]></content:encoded>
			<wfw:commentRss>https://hackist.jp/?feed=rss2&#038;p=5869</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>世界中の絶景を体験できる「ZEKKEI VR」</title>
		<link>https://hackist.jp/?p=5777</link>
		<comments>https://hackist.jp/?p=5777#comments</comments>
		<pubDate>Fri, 03 Apr 2015 05:18:06 +0000</pubDate>
		<dc:creator><![CDATA[HACKist]]></dc:creator>
				<category><![CDATA[Unity]]></category>
		<category><![CDATA[Virtual Reality]]></category>

		<guid isPermaLink="false">http://hackist.jp/?p=5777</guid>
		<description><![CDATA[はじめまして、エンジニアの進藤です。 今ホットな分野といえば、何を思い浮かべるでしょうか。 色々なものがありますが、個人的にはVR（バーチャルリアリティ）分野だと思います Oculus Riftの発表以降、ずっと注目を集 [&#8230;]]]></description>
				<content:encoded><![CDATA[<p>はじめまして、エンジニアの進藤です。</p>
<p>今ホットな分野といえば、何を思い浮かべるでしょうか。<br />
色々なものがありますが、個人的にはVR（バーチャルリアリティ）分野だと思います<br />
Oculus Riftの発表以降、ずっと注目を集めてきたVRですが、最近でもOculus Riftの強力なライバルになると噂される「HTC Vive」というHMDが発表されたりするなど、今でも大きな盛り上がりを見せています。</p>
<p>そんなVRですが、HACKistにもラボに遊びに来た皆様を楽しませている「ZEKKEI VR」というコンテンツがあります。<br />
今回はそのZEKKEI VRについてご紹介いたします。</p>
<h3>ZEKKEI VRとは</h3>
<p>「ZEKKEI VR」とは、Oculus Riftとストリートビューを組み合わせたVRコンテンツで、その名の通り世界中の絶景を見ることができるものです。<br />
Oculus Riftを通して見ることで、あたかもその場にいるかのように体験することができます。</p>
<p><iframe width="560" height="315" src="//www.youtube.com/embed/6wEYI5It2NE" frameborder="0" allowfullscreen></iframe></p>
<h3>5つの絶景</h3>
<p>ZEKKEI VRには次の5つの地点が登録されています。</p>
<ul>
<li><strong>ベネチアの運河の上</strong></li>
</ul>
<p><img src="http://hackist.jp/wp-content/uploads/ve.jpg" alt="ヴェネツィア" width="820" height="550" class="alignnone size-full wp-image-5790" /><br />
観光地として人気なベネチア。その運河の上でゴンドラに乗りながら綺麗な町並みを見ることができます。</p>
<ul>
<li><strong>瀬戸大橋の上</strong></li>
</ul>
<p><img src="http://hackist.jp/wp-content/uploads/seto.jpg" alt="瀬戸大橋" width="820" height="550" class="alignnone size-full wp-image-5791" /><br />
地上175ｍからの絶景。瀬戸大橋の上からの風景、VRとは分かっていても思わず身がすくみます。</p>
<ul>
<li><strong>鍾乳洞</strong></li>
</ul>
<p><img src="http://hackist.jp/wp-content/uploads/syo.jpg" alt="石垣島鍾乳洞" width="820" height="550" class="alignnone size-full wp-image-5792" /><br />
高所の次は地下の石垣島鍾乳洞。天井から無数の鍾乳石が垂れ下がるその光景はさながら地獄のようです。</p>
<ul>
<li><strong>南極点</strong></li>
</ul>
<p><img src="http://hackist.jp/wp-content/uploads/nankyo.jpg" alt="南極点" width="820" height="550" class="alignnone size-full wp-image-5793" /><br />
世界の最南端である南極点。普通には見ることのできない世界の果ての風景を見ることができます。</p>
<ul>
<li><strong>地下鉄の駅</strong></li>
</ul>
<p><img src="http://hackist.jp/wp-content/uploads/metro.jpg" alt="地下鉄" width="820" height="550" class="alignnone size-full wp-image-5794" /><br />
数々の絶景の最後は、なんと普通の地下鉄のホーム。見慣れたはずの光景でもVRを通して見ると普段と違う感覚を味わえます。</p>
<h3>ジャンプで瞬間移動</h3>
<p>風景の移動はジャンプによって行うことができます。<br />
ジャンプをするとOculus Riftに内蔵された加速度センサーが反応し、軽快なジャンプ音とともに視界が白い光につつまれて別の絶景ポイントへワープすることができます。</p>
<p><iframe width="560" height="315" src="//www.youtube.com/embed/5YZvOyVu44w" frameborder="0" allowfullscreen></iframe></p>
<h3>最後に</h3>
<p>コンテンツとしては非常にシンプルなものですが、それでもVRならではの「その場にいる感」を確かに味わうことができます。<br />
HACKistのラボスペースにて展示していますので、気になる方はぜひ遊びに来て下さい。</p>
<p>次々に新しいデバイスが発表される注目のVR分野。<br />
HACKistでも力を入れて追っていきますので、どうぞご期待下さい！</p>
<p><img src="http://hackist.jp/wp-content/uploads/zekkei.jpg" alt="ZEKKEI VR" width="820" height="550" class="alignnone size-full wp-image-5796" /></p>
]]></content:encoded>
			<wfw:commentRss>https://hackist.jp/?feed=rss2&#038;p=5777</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>おしり向けインターフェース【 SIRICON 】を作ってみました！</title>
		<link>https://hackist.jp/?p=5239</link>
		<comments>https://hackist.jp/?p=5239#comments</comments>
		<pubDate>Mon, 01 Dec 2014 10:13:41 +0000</pubDate>
		<dc:creator><![CDATA[HACKist]]></dc:creator>
				<category><![CDATA[Arduino]]></category>
		<category><![CDATA[Device]]></category>
		<category><![CDATA[Physical Computing]]></category>
		<category><![CDATA[Unity]]></category>

		<guid isPermaLink="false">http://hackist.jp/?p=5239</guid>
		<description><![CDATA[こんにちわ！ ちゃやです！ みなさんはプリケツと言われたことがありますでしょうか？ ぼくは大学生までサッカー部だったので、よくお前はプリケツだなーと言われていました。 それと今回の作品は本当はあまり関係ないのですが、 お [&#8230;]]]></description>
				<content:encoded><![CDATA[<p>こんにちわ！ ちゃやです！</p>
<p>みなさんはプリケツと言われたことがありますでしょうか？<br />
ぼくは大学生までサッカー部だったので、よくお前はプリケツだなーと言われていました。</p>
<p>それと今回の作品は本当はあまり関係ないのですが、<br />
おしりをユーザインタフェースにすることが出来たらそんな僕のプリケツも役に立つのではと思い、<br />
おしり向けインターフェース　【 SIRICON 】 を作ってみました！</p>
<p><img src="http://hackist.jp/wp-content/uploads/siricon2_640_360.png" alt="siricon_logo" width="640" height="360" class="alignleft size-full wp-image-5287" /></p>
<h2>◆おしり向けインターフェース　【 SIRICON 】 とは。。。？</h2>
<p>SIRICON とは、おしりをインターフェースにすることで様々なことを可能にするクッション型デバイスです。<br />
SIRICON には「Controller」、「Condition」、「Concentration」の3つの機能があり、<br />
あなたの生活をあなたのおしりによってより便利にしてくれます。</p>
<p><iframe width="500" height="281" src="https://www.youtube.com/embed/ECdddB4FmeA?feature=oembed" frameborder="0" allowfullscreen></iframe></p>
<p>「Controller」機能を実装したSIRICONのデモ版を、<br />
11月23日、24日に東京ビッグサイトで行われていたMakerの祭典、<br />
Maker Faire Tokyo 2014にて展示してきました！</p>
<p><iframe width="500" height="281" src="https://www.youtube.com/embed/ZbV8vKQW7TQ?feature=oembed" frameborder="0" allowfullscreen></iframe></p>
<p>おしりの圧力を感知するクッション型デバイスを作成し、<br />
左尻と右尻の圧力差分によってゲーム内のキャラクターを左右に動かしています。</p>
<p><img src="http://hackist.jp/wp-content/uploads/help.png" alt="help" width="640" height="360" class="alignleft size-full wp-image-5296" /></p>
<p>仕組みはとっても簡単で、<br />
クッション内に仕込まれた圧力センサーからArduinoを経由してPCに値を送り、<br />
Unityでそれを処理してゲームに反映しています。</p>
<h2>◆SIRICON の3つの機能</h2>
<p><img src="http://hackist.jp/wp-content/uploads/ae46b1f460ee46f789c27b264a6cb4215.png" alt="func" width="640" height="360" class="alignleft size-full wp-image-5298" /></p>
<p><strong>① SIRI + Controller</strong><br />
おしりの動きによってクッションにかかった圧力をセンサーで読み取り、<br />
それをコンピュータやゲームの入力装置として使います。<br />
ハンズフリーで操作ができるのでダンベルで鍛えながらのパソコン操作も夢ではありません。</p>
<p><strong>② SIRI + Condition</strong><br />
クッション内の重量センサーであなたの体重の推移を毎日チェック。<br />
ライフログデバイスとして機能します。<br />
無意識のうちに記録してくれるので、体重計と向かい合って覚悟を決める時間が短縮できます。</p>
<p><strong>③ SIRI + Concentration</strong><br />
座って作業をする時、人は集中力が切れてくると姿勢が乱れてしまいます。<br />
SIRICONは圧力センサーにかかる圧力分布のデータから、<br />
集中力が切れてきたときや、正しい姿勢のレコメンドをしてくれます。<br />
正しい姿勢で作業に集中できて、適切なタイミングで休憩をとれるようになります。</p>
<p>SIRICONによって、クッションに座るという日常の行為に対して、<br />
今までになかった体験を拡張していければと思います！</p>
<p>それでは！！</p>
<p>Credit／<br />
Develop/Product：茶谷　亮裕<br />
Special Thanks：長谷川昇平、細野智美、佐野彩香、進藤俊彦、加藤愛、HACKistメンバー</p>
]]></content:encoded>
			<wfw:commentRss>https://hackist.jp/?feed=rss2&#038;p=5239</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
