<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>HACKist &#187; MachineLearning</title>
	<atom:link href="https://hackist.jp/?cat=42&#038;feed=rss2" rel="self" type="application/rss+xml" />
	<link>https://hackist.jp</link>
	<description>HACKistは日々、博報堂アイ・スタジオで挑戦している、ちょっと変わった新しい実験をお知らせしていきます。</description>
	<lastBuildDate>Wed, 30 Sep 2020 02:59:58 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=4.2.4</generator>
	<item>
		<title>モノとコミュニケーションをするためのインタフェース「PLUS ANIMA」</title>
		<link>https://hackist.jp/?p=7573</link>
		<comments>https://hackist.jp/?p=7573#comments</comments>
		<pubDate>Mon, 29 Aug 2016 02:53:15 +0000</pubDate>
		<dc:creator><![CDATA[HACKist]]></dc:creator>
				<category><![CDATA[MachineLearning]]></category>
		<category><![CDATA[openFrameworks]]></category>

		<guid isPermaLink="false">http://hackist.jp/?p=7573</guid>
		<description><![CDATA[PLUS ANIMA (プラスアニマ) という作品の紹介をさせていただきます。 2016/3 SXSW 2016、2016/5  第3回HACKist展 で展示させていただいたものです。 ※ もし作品を「うちの施設におい [&#8230;]]]></description>
				<content:encoded><![CDATA[<p>PLUS ANIMA (プラスアニマ) という作品の紹介をさせていただきます。 2016/3 SXSW 2016、2016/5  第3回HACKist展 で展示させていただいたものです。</p>
<p>※ もし作品を「うちの施設においてみたい」という方がいらっしゃいましたら、ご一報ください。連絡方法はこの記事の下のほうです。</p>
<h1>PLUS ANIMA ってなに？</h1>
<p>PLUS ANIMA はモノとコミュニケーションをするためのインタフェースです。</p>
<p>「モノとおしゃべりできたらな〜」と思ったことありませんか？ 「食べ物」にオススメの調理法を聞ききたい。「カメラ」の詳しいスペックがよくわからないから説明をしてもらいたい。「博物館の土偶」から歴史の話を詳しく聞きたい。「ぬいぐるみ」と寂しい時におしゃべりしたい。などなど&#8230;etc</p>
<p>PLUS ANIMA は ディープラーニング ＋ プロジェクションマッピング の技術によって、モノに魂 (ANIMA) を宿し、擬人化した演出をすることで、「人とモノとの直接的なコミュニケーション」の実現をします。</p>
<p>PLUS ANIMA では「魂が宿ってるかのように振る舞い、擬人化され、コミュニケーションのとれるモノ」が、今までの人とモノとの関係をアップデートし、人がモノと触れ合う行為をより楽しく、直感的に拡張すると考えて、取り組んでいます。</p>
<p>くわしくはこちらの動画をご覧ください。<br />
<iframe width="853" height="480" src="https://www.youtube.com/embed/dkZqA3Ip0Ic" frameborder="0" allowfullscreen="allowfullscreen"></iframe></p>
<h1>どうやって使うの？</h1>
<p>使い方はとてもシンプルです。</p>
<p><img class="aligncenter wp-image-7608 size-large" src="http://hackist.jp/wp-content/uploads/plusanima-howtouse-1024x268.png" alt="plusanima-howtouse" width="1024" height="268" /></p>
<p>ようは、「モノをテーブルにおくだけ」で、モノに魂がやどり、勝手にしゃべりかけてきます。<br />
モノからの質問には YES or NO ボタンに手をかざすと、返答できます。</p>
<h2 id="toc_2">どんなユースケースを想定しているの？</h2>
<p>「モノを擬人化し、おしゃべりさせる」テクノロジーはさまざまな場面での使い方が想定できます。その中で、私達がおもに考えている 教育、セールス、エンタテイメントの 3 つのシーンでのユースケースをご紹介します。</p>
<h3><img src="https://s.w.org/images/core/emoji/72x72/1f3eb.png" alt="🏫" class="wp-smiley" style="height: 1em; max-height: 1em;" /> 教育施設（博物館、科学館など）での使い方</h3>
<p>博物館、科学館などの教育施設の展示品が子供たちへ自分自身の成り立ちついて説明をすることで、より直感的にその展示物への理解を深めることができる、と考えています。<br />
<img class="aligncenter size-full wp-image-7604" src="http://hackist.jp/wp-content/uploads/plusanima-education.png" alt="plusanima-education" width="292" height="192" /></p>
<p>歴史的な壺や、化石が、たとえば、「私はマンモスの牙です。私が若い頃は、こんな体してたんですよ〜。私に含まれる化学成分が◯△✕だから、縄文時代のものだとわかり&#8230;etc」と映像とともに、自身の成り立ちについて、わかりやすく解説してくれるコンテンツを作ることができます。</p>
<h3 id="toc_4"><img src="https://s.w.org/images/core/emoji/72x72/1f3ea.png" alt="🏪" class="wp-smiley" style="height: 1em; max-height: 1em;" /> セールスでの使い方</h3>
<p>小売店で商品が自分自身についてのセールストークをしたり、生活者の商品についての疑問点を解消したり、また、生活者の声を集めてPDCAを回すための装置としても、役立つのではと考えています。<br />
<img class="aligncenter size-full wp-image-7607" src="http://hackist.jp/wp-content/uploads/plusanima-shopping.png" alt="plusanima-shopping" width="295" height="191" /></p>
<p>たとえば、食品売り場で、じゃがいもを乗せたら、「にんじんも一緒に買って、カレーにして食べるとおいしいよ」と、調理法や一緒に買うとよい品をレコメンドしてくれたり。</p>
<p>家電売場で、カメラ同士が会話をはじめて、「カメラAくんは高いよね。でも、画質が僕に比べるといいよね。」などと、わかりやすく商品スペックの比較をしてくれたり。</p>
<h3 id="toc_5"><img src="https://s.w.org/images/core/emoji/72x72/1f3a2.png" alt="🎢" class="wp-smiley" style="height: 1em; max-height: 1em;" /> エンタテイメントでの使い方</h3>
<p>モノを擬人化させることで、アミューズメント施設の世界観を効果的に演出するためのツールとしての利用法を考えています。</p>
<p><img class="aligncenter size-full wp-image-7605" src="http://hackist.jp/wp-content/uploads/plusanima-entertainmant.png" alt="plusanima-entertainmant" width="286" height="184" /></p>
<p>風船をもって、てくてく歩いていると、あるエリア内では、ふつうの風船に、突然、魂が宿り、顔がついて、「Welcome!」と風船がしゃべりはじめ、来場者を驚かせたり。その風船が施設内を案内してくれたり。といったユースケースを想定しています。</p>
<h2 id="toc_6">どんなテクノロジーが裏側で動いているの？</h2>
<p>「モノにまるで魂が宿ってる」という演出を行うための裏側のテクノロジーについて説明します。</p>
<h3 id="toc_7"><img src="https://s.w.org/images/core/emoji/72x72/1f440.png" alt="👀" class="wp-smiley" style="height: 1em; max-height: 1em;" /> ディープラーニングによる物体認識</h3>
<p>PLUS ANIMA ではモノにセンサーやタグなどは一切埋め込んでいません。<br />
<img class="aligncenter size-medium wp-image-7589" src="http://hackist.jp/wp-content/uploads/plusanima_nosensor-300x174.png" alt="plusanima_nosensor" width="300" height="174" /></p>
<p>事前に学習させておいたモノの画像データをもとに、テーブル上部に設置されたカメラで撮った画像から、「そのモノがはなに？」という物体認識をしています。そのため、モノにセンサーやタグなどをつける必要がなく、商品をありのままの状態で演出させることができます。</p>
<h3 id="toc_8">✨ プロジェクションマッピングによる演出</h3>
<p>深度カメラ、RGBカメラの２つのカメラでモノの輪郭、色、をリアルタイムにセンシングし、プロジェクションマッピングの技術を用いて、モノへの演出をリアルタイムにジェネレートしています。</p>
<p><img class="aligncenter size-full wp-image-7770" src="http://hackist.jp/wp-content/uploads/plusanima-projection.png" alt="plusanima-projection" width="434" height="331" /></p>
<h3 id="toc_9"><img src="https://s.w.org/images/core/emoji/72x72/1f351.png" alt="🍑" class="wp-smiley" style="height: 1em; max-height: 1em;" /> モノの形状解析からのパーソナリティ・トークシナリオ生成</h3>
<p>独自アルゴリズムにより、モノの外見的特徴（色、サイズ、形）にあわせたパーソナリティ（性別、年齢、性格）を生成しています。また、そのパーソナリティに応じて、モノのトークシナリオを、動的に生成しています。</p>
<p><img class="aligncenter size-full wp-image-7771" src="http://hackist.jp/wp-content/uploads/plusanima-characterize.png" alt="plusanima-characterize" width="664" height="227" /></p>
<h2 id="toc_10">よくあるご質問</h2>
<p>SXSW 2016や、HACKist展で展示をしていた際に、よく頂いたご質問を紹介させていただきます。</p>
<h3 id="toc_11">Q. テーブルの上にはどんなモノをのせても認識しますか？</h3>
<p>A : あらかじめ学習させておいたものは精度が高く認識ができます。あらかじめ学習していないものでも、インターネット上から一番近そうなモノの名前を頑張って探してくるので、なんらかの認識結果が出ます。</p>
<h3 id="toc_12">Q. あらかじめの学習はどのようにしますか？</h3>
<p>A : モノをさまざまな角度から動画で撮影し、認識用のデータをわたし達のほうで作らせていただきます。</p>
<h3 id="toc_13">Q. 2 つ以上モノをおくとどうなりますか？</h3>
<p>A : 現状はあとにおいたモノが喋りはじめる仕様になっています。いづれは 2 つの似ているモノを置いたら、スペックの比較ができるような機能があるとよいと思っています。</p>
<h2 id="toc_14">PLUS ANIMA を実験的に導入して頂ける施設の方を大募集しております！</h2>
<p>こんな感じでつくった PLUS ANIMA ですが、まだ実験的プロトタイプ段階で、世の中でまだ活用頂く機会に恵まれていません。</p>
<p>そこで、 「PLUS ANIMAを導入してみたい」 という施設の方がいらっしゃったら、ご一報いただけると幸いです。「擬人化されたモノの可能性」を一緒に探って、人とモノとの新しい関係性について考えられたら嬉しいです。</p>
<p>もしご興味ある方がいらっしゃったら、<a href="http://www.i-studio.co.jp/contact/">このページのお問い合わせメニューから</a>、ご連絡ぜひお待ちしております！</p>
<h3 id="toc_15">/ Staff List</h3>
<ul>
<li>クリエイティブディレクター : 望月重太朗</li>
<li>企画 ＆ プログラマー : 貴田達也 、茶谷亮裕</li>
<li>デザイナー : 手塚健太郎、中川美香</li>
<li>プロデューサー : 山本恭裕、館由依子</li>
<li>おたすけプログラマー : 菅沼慎平</li>
</ul>
<p>&#8212;</p>
<p>3月に行われた SXSW2016 での展示の様子を Gizmode さんの Twitter でご紹介いただきました！</p>
<blockquote class="twitter-tweet" data-width="500"><p lang="ja" dir="ltr">「Hello World!（<a href="https://t.co/uHCpFfS5iQ">https://t.co/uHCpFfS5iQ</a>）」by HACKist ものを置くとそれを判別して、話し始めるテーブルです。YES／NOのボタンも出てくるのでものと会話しているような気分に <a href="https://twitter.com/hashtag/SXSW?src=hash">#SXSW</a> <a href="https://t.co/ijdLqU0j0z">pic.twitter.com/ijdLqU0j0z</a></p>
<p>&mdash; ギズモード・ジャパン (@gizmodojapan) <a href="https://twitter.com/gizmodojapan/status/709408833232240641">March 14, 2016</a></p></blockquote>
<p><script async src="//platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<p>SXSW2016 での展示の風景です。<br />
<img class="aligncenter size-full wp-image-7824" src="http://hackist.jp/wp-content/uploads/PLUSANIMA_SXSW.jpg" alt="PLUSANIMA_SXSW" width="1000" height="563" /></p>
]]></content:encoded>
			<wfw:commentRss>https://hackist.jp/?feed=rss2&#038;p=7573</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>「人工知能ラッパー」でDE DE MOUSEさんとコラボしました</title>
		<link>https://hackist.jp/?p=7483</link>
		<comments>https://hackist.jp/?p=7483#comments</comments>
		<pubDate>Mon, 13 Jun 2016 03:10:50 +0000</pubDate>
		<dc:creator><![CDATA[HACKist]]></dc:creator>
				<category><![CDATA[MachineLearning]]></category>
		<category><![CDATA[openFrameworks]]></category>
		<category><![CDATA[VJ]]></category>

		<guid isPermaLink="false">http://hackist.jp/?p=7483</guid>
		<description><![CDATA[どうもプログラマーの貴田です。 2016/5/21と5/28、原宿Galaxy銀河系にて行われた３回目のHACKist展「DIGITAL DIVREZ」内の、DE DE MOUSEさんとのコラボレーションイベントように「 [&#8230;]]]></description>
				<content:encoded><![CDATA[<p>どうもプログラマーの貴田です。</p>
<p>2016/5/21と5/28、原宿Galaxy銀河系にて行われた３回目のHACKist展「DIGITAL DIVREZ」内の、DE DE MOUSEさんとのコラボレーションイベントように「人工知能ラッパー」をつくりました。</p>
<p>&nbsp;</p>
<h2 id="toc_0">「人工知能ラッパー」ってどんなの？</h2>
<p>「人間のラッパーさんのように、即興でラップできる人工知能を作りたい」という大目標を掲げつつも。</p>
<p>今回はその超初期段階として、DE DE MOUSEさんの曲のビートに合わせ、ぼくがライブ中に与えた任意のフレーズに沿って、即興でリアルタイムに以下をジェネレートするシステムを作りました。</p>
<ul>
<li>歌詞 : ライム（韻）を踏んだリリック</li>
<li>歌いまわし : フロウ</li>
<li>VJ : 映像</li>
</ul>
<p>&nbsp;</p>
<h2 id="toc_1">どんなライムやリリックを生成してくれるの？</h2>
<p>こんかい、歌詞パートでは2種類の歌詞生成アルゴリズムを用意しました。</p>
<p>１つ目は、「シンプルにライム（韻）を踏んだワードを繰り返す」というもの。たとえば、「あんこ」と入力すると、こんな感じの結果がでます。</p>
<div>
<pre class="crayon-plain-tag">$ node app1 あんこ
サンゴ
音頭
ちゃんこ
鮮魚
酸素
コント
金魚
珊瑚
チャンコ
散歩
端午
インコ
店舗
元祖
雲母
田んぼ
暗渠
販路
タンゴ</pre>
</div>
<p>&nbsp;</p>
<p>2つ目は、「ライム（韻）を踏んだリリックを生成する」というもの。例えば、「&#8221;筋肉の歌&#8221;を作詞して！」と人工知能にお願いすると、こんな感じの結果がでます。</p>
<div>
<pre class="crayon-plain-tag">$ node app2 筋肉の歌
強烈な腹筋
饒舌なスッピン
神経もやられ退屈がfill me
神経もやられ怪物がfill me
朝から筋肉
伽耶から筋肉
唄はじまる
修羅はじまる
金色の甘い股関節
金色の甘いシャヴァネル
筋力アップだ!バーロー!
金属カムだ!バーロー!
デカく幅広い骨盤
セッタく幅広い骨盤
その眼球
その晩秋
繋ぎながら楽しい曲をCOMPOSE作詞作曲
繋ぎながら楽しい曲をCOMPOSE葉月茶道
歌声はなかなか先生、とても
カラオケはなかなか先生、とても
これは七年前の唄
これは七打点前の通夜
あなたの笑顔がかわいい第一関節
ちゃんばらの笑顔がかわいい第しり半月</pre>
</div>
<p>それっぽい雰囲気のフレーズがでるときもありますが、意味不明なはちゃめちゃなフレーズが出るときもあるところがかわいいところでした。</p>
<p>&nbsp;</p>
<p>２つ目のアルゴリズムはこんな感じでした。</p>
<ul>
<li>テーマを入力（筋肉の歌）</li>
<li>そのテーマをmecabで名詞だけ抽出（筋肉、歌）</li>
<li>word2vecで関連語取得（筋肉、全身、神経、腹筋、筋力、股関節、歌、唄、作詞、声、主題歌）</li>
<li>その関連ワードをもとに、過去8万曲程度の歌詞を形態素解析したものを、マルコフ連鎖でつなげなおしてフレーズ生成（強烈な腹筋）</li>
<li>そのフレーズに韻を踏ませる（饒舌なスッピン）</li>
</ul>
<p>&nbsp;</p>
<h2 id="toc_2">どんなフロウだったの？</h2>
<p>フロウは人間と比べる全然できてないのですが、このパートでは、max/mspやsay・soxコマンドを使って、以下のようなことをやりました。</p>
<ul>
<li>バース（小節）の頭に、フレーズの頭が来るようにテンポ同期</li>
<li>フレーズレベルの音程、速さ、リバーブ、エコーなどのサウンドエフェクト調整</li>
</ul>
<p>ラップにはフレーズのはじまりを小節の頭からあえてちょいずらしするテクニックや、フレーズの中で韻を踏んでる部分だけ強調して発話するテクニックなど、いろいろ奥が深いので、そのあたりの再現もっと頑張りたいところでした。</p>
<p>&nbsp;</p>
<h2 id="toc_3">ライブは、実際、どんな感じだったの？</h2>
<p>本番のときの映像撮ってなかったので、togetter的にエゴサーチ結果貼り付けさせて頂きます！</p>
<blockquote class="twitter-tweet" data-width="500"><p lang="ja" dir="ltr">AIはラッパーの夢を見るか<a href="https://twitter.com/hashtag/Hackist?src=hash">#Hackist</a> <a href="https://twitter.com/hashtag/DEDEMOUSE?src=hash">#DEDEMOUSE</a> <a href="https://t.co/abHpdzxOsg">pic.twitter.com/abHpdzxOsg</a></p>
<p>&mdash; shoko (@sho1115) <a href="https://twitter.com/sho1115/status/736560915085025280">May 28, 2016</a></p></blockquote>
<p><script async src="//platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<blockquote class="twitter-tweet" data-width="500"><p lang="ja" dir="ltr">人工知能ラッパー登場した<br /> <a href="https://twitter.com/hashtag/HACKist?src=hash">#HACKist</a> <a href="https://t.co/ydbfj1CsTh">pic.twitter.com/ydbfj1CsTh</a></p>
<p>&mdash; Atsunori s (@freeman_as) <a href="https://twitter.com/freeman_as/status/736535628007886853">May 28, 2016</a></p></blockquote>
<p><script async src="//platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<blockquote class="twitter-tweet" data-width="500"><p lang="ja" dir="ltr">DEDEMOUSE×HACKist<br />先週よりも進化していた人工知能ラッパーのやつ<a href="https://twitter.com/hashtag/%E3%83%94?src=hash">#ピ</a> <a href="https://t.co/70Rzqlg2sV">pic.twitter.com/70Rzqlg2sV</a></p>
<p>&mdash; ふあゆー (@riinuht) <a href="https://twitter.com/riinuht/status/736672423873904640">May 28, 2016</a></p></blockquote>
<p><script async src="//platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<blockquote class="twitter-tweet" data-width="500"><p lang="ja" dir="ltr">DIGITAL DIVERZ今週もたのしかったー(｢･ω･)｢ <br />人工知能ラッパーが1週間で目覚ましい進化を見せてくれたのがびっくり！<br />もしかして人工知能にも心があるのかもな。なんてことを思った。<a href="https://twitter.com/hashtag/HACKist?src=hash">#HACKist</a> <a href="https://t.co/J0OohIBMG3">pic.twitter.com/J0OohIBMG3</a></p>
<p>&mdash; zun (@zun_ver0) <a href="https://twitter.com/zun_ver0/status/736556085616607232">May 28, 2016</a></p></blockquote>
<p><script async src="//platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<blockquote class="twitter-tweet" data-width="500"><p lang="ja" dir="ltr">DEDEMOUSE × HACKist 人工知能ラッパー<br />これ面白かった！もっと進化したの見てみたいなー！<br />気付いたら最後まで撮ってたけど、近すぎで全部入らず、音割れも。<a href="https://t.co/X3Oe8R3gWL">https://t.co/X3Oe8R3gWL</a></p>
<p>&mdash; 坂井愛 (@SAKAI168) <a href="https://twitter.com/SAKAI168/status/736719061598404609">May 29, 2016</a></p></blockquote>
<p><script async src="//platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<blockquote class="instagram-media" style="background: #FFF; border: 0; border-radius: 3px; box-shadow: 0 0 1px 0 rgba(0,0,0,0.5),0 1px 10px 0 rgba(0,0,0,0.15); margin: 1px; max-width: 658px; padding: 0; width: calc(100% - 2px);" data-instgrm-captioned="" data-instgrm-version="7">
<div style="padding: 8px;">
<div style="background: #F8F8F8; line-height: 0; margin-top: 40px; padding: 28.125% 0; text-align: center; width: 100%;"></div>
<p style="margin: 8px 0 0 0; padding: 0 4px;"><a style="color: #000; font-family: Arial,sans-serif; font-size: 14px; font-style: normal; font-weight: normal; line-height: 17px; text-decoration: none; word-wrap: break-word;" href="https://www.instagram.com/p/BF9Jwl3QeGR/" target="_blank">#HACKist #dedemouse #AI</a></p>
<p style="color: #c9c8cd; font-family: Arial,sans-serif; font-size: 14px; line-height: 17px; margin-bottom: 0; margin-top: 8px; overflow: hidden; padding: 8px 0 7px; text-align: center; text-overflow: ellipsis; white-space: nowrap;">Amari.さん(@amari_amamam)が投稿した動画 &#8211; <time style="font-family: Arial,sans-serif; font-size: 14px; line-height: 17px;" datetime="2016-05-28T15:12:10+00:00">2016 5月 28 8:12午前 PDT</time></p>
</div>
</blockquote>
<p><script src="//platform.instagram.com/en_US/embeds.js" async="" defer="defer"></script></p>
<blockquote class="instagram-media" style="background: #FFF; border: 0; border-radius: 3px; box-shadow: 0 0 1px 0 rgba(0,0,0,0.5),0 1px 10px 0 rgba(0,0,0,0.15); margin: 1px; max-width: 658px; padding: 0; width: calc(100% - 2px);" data-instgrm-captioned="" data-instgrm-version="7">
<div style="padding: 8px;">
<div style="background: #F8F8F8; line-height: 0; margin-top: 40px; padding: 50.0% 0; text-align: center; width: 100%;"></div>
<p><a style="color: #000; font-family: Arial,sans-serif; font-size: 14px; font-style: normal; font-weight: normal; line-height: 17px; text-decoration: none; word-wrap: break-word;" href="https://www.instagram.com/p/BFrJOzLHkxw/" target="_blank">DE DE MOUSEと人工知能ラッパー。 これ、とてもおもしろい。 #dedemouse #デデマウス #hackist #ai #人工知能 #ラッパー #人工知能ラッパー</a> フナさん(@funa_22)が投稿した写真 &#8211; <time style="font-family: Arial,sans-serif; font-size: 14px; line-height: 17px;" datetime="2016-05-21T15:21:13+00:00">2016 5月 21 8:21午前 PDT</time>
</div>
</blockquote>
<p><script src="//platform.instagram.com/en_US/embeds.js" async="" defer="defer"></script></p>
<p>&nbsp;</p>
<p>今回、作った子の裏キャラ設定として、以下のようなのを考えておりました。</p>
<ul>
<li>文脈ははちゃめちゃだけど、語彙力はすごい</li>
<li>おっちょこちょいのフィメール（女子）ラッパー</li>
<li>「ヘイ」「ヨー」などテンポをとるフレーズは人工知能女子らしく「ピ ピ ピ」て言わせました</li>
</ul>
<p>&nbsp;</p>
<h2 id="toc_4">やってみた感想と、次回出演機会募集のお知らせ</h2>
<p>人工知能によるラッパーさんの再現はまだまだ到底むずかしくて、言葉遊びを楽しむレベルのものになってしまった感じがありますが、終わったあとに、お客さんから「おもしろかったー」て声が聞こえてきたのは嬉しかったです。</p>
<p>わたし達としては初めての試みでしたが、１回やってみて改善点もたくさん見えたので、これで終わるのはもったいないと思っていて、今後もこの子を育てていきたいのですが、いまのところ、次回出演予定がありません！笑</p>
<p>なので、出演オファーやコラボのご相談など、もしありましたら、<a href="http://www.i-studio.co.jp/contact/">このページ</a>のお問い合わせメニューから、ご連絡ぜひお待ちしております！</p>
<h2 id="toc_5">※ 参考にさせて頂いたもの</h2>
<p>ラップを学んだり、過去に「コンピュータにラップさせる」にチャレンジされていた方の事例を参考にさせていただきました。</p>
<ul>
<li>テレビ番組 フリースタイルダンジョン</li>
<li><a href="http://www.amazon.co.jp/%E3%83%A9%E3%83%83%E3%83%97%E3%81%AE%E6%95%99%E7%A7%91%E6%9B%B8-DVD%E3%81%A7%E5%AD%A6%E3%81%B6%E8%B6%85%E5%AE%9F%E8%B7%B5%E7%9A%84%E3%83%A9%E3%83%83%E3%83%97%E8%AC%9B%E5%BA%A7-DVD%E4%BB%98-%E4%B8%8A%E9%88%B4%E6%9C%A8-%E4%BC%AF%E5%91%A8/dp/4845621614">ラップの教科書 DVDで学ぶ超実践的ラップ講座 </a></li>
<li><a href="https://www.youtube.com/watch?v=dxT6r7__u9U">Your Cosmos ライゾマティクス忘年会 2014/12/26 IDOL</a></li>
<li><a href="http://qiita.com/suzuki86/items/2a2801944a3e393464c7">文章中から韻を踏んでいるフレーズの組み合わせを検出する gem を作りました</a></li>
<li><a href="http://blog.sushi.money/entry/2015/04/11/183319">自動で韻を踏むソフトウェア作った</a></li>
<li><a href="http://ramenandicon.hatenablog.com/entry/2016/02/01/091327">勝手にラップをつくって歌うロボットをつくってみた</a></li>
<li><a href="http://rhymesearch.pv.land.to/search.cgi">ライムサーチ（韻踏み検索） </a></li>
</li>
</ul>
<p>みんなで人工知能ラッパーを作って、人工知能ラッパー同士でのバトルとか勃発すると面白そうです<img src="https://s.w.org/images/core/emoji/72x72/1f60b.png" alt="😋" class="wp-smiley" style="height: 1em; max-height: 1em;" /><img src="https://s.w.org/images/core/emoji/72x72/1f60b.png" alt="😋" class="wp-smiley" style="height: 1em; max-height: 1em;" /><img src="https://s.w.org/images/core/emoji/72x72/1f60b.png" alt="😋" class="wp-smiley" style="height: 1em; max-height: 1em;" /></p>
<h4></h4>
<h4 id="toc_6">人工知能ラッパー制作チーム クレジット /</h4>
<ul>
<li>企画・プログラム：貴田達也</li>
<li>ビジュアルプログラミング：登山元気、菅沼慎平</li>
<li>アートディレクション：竹尾梓</li>
</ul>
<h4 id="toc_7">おまけ映像</h4>
<p>PC内での実行結果です。現場でターミナル開いてコマンドを打って本当にリアルタイムにワード生成してました。<br />
<iframe width="840" height="630" src="https://www.youtube.com/embed/qge_5vvmBvA" frameborder="0" allowfullscreen></iframe></p>
]]></content:encoded>
			<wfw:commentRss>https://hackist.jp/?feed=rss2&#038;p=7483</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>AIによるVJ映像生成システム「AI VJ」</title>
		<link>https://hackist.jp/?p=7443</link>
		<comments>https://hackist.jp/?p=7443#comments</comments>
		<pubDate>Wed, 25 May 2016 06:49:57 +0000</pubDate>
		<dc:creator><![CDATA[HACKist]]></dc:creator>
				<category><![CDATA[MachineLearning]]></category>

		<guid isPermaLink="false">http://hackist.jp/?p=7443</guid>
		<description><![CDATA[みなさま、お久しぶりです！ ちゃやです！ なかなかブログ書けてませんでしたが、意外にもちゃんと活動してました！ 今回は最近始めた映像効果実験プロジェクト「D・E・E・P」とその第一弾作品「AI VJ」のご紹介をさせていた [&#8230;]]]></description>
				<content:encoded><![CDATA[<p>みなさま、お久しぶりです！ ちゃやです！</p>
<p>なかなかブログ書けてませんでしたが、意外にもちゃんと活動してました！<br />
今回は最近始めた映像効果実験プロジェクト「D・E・E・P」とその第一弾作品「AI VJ」のご紹介をさせていただきます。</p>
<p>【 D・E・E・P 】<br />
D・E・E・PはDigital Enhancement Effective Programの略称で、 デジタルを使った映像効果の実験プロジェクトです。</p>
<p>最近、HACKistのメンバーも増えてきたので、<br />
HACKist_のようにジャンルごとにチームやプロジェクトを分けて取り組んでも良いかなと思って、<br />
映像効果の実験プロジェクトを立ち上げました。</p>
<p>早速その第一弾として私が取り組んだ作品を紹介させていただきます。<br />
AIによるVJ映像生成システム、その名も「AI VJ」です!!　そのまんまですね。</p>
<h2>◆ 「AI VJ」 とはどんなもの？</h2>
<p>巷で流行っているAI(人工知能)を利用したVJの生成システム及びそれを使って生成された作品です。<br />
人工知能にVJ映像のデータを大量に機械学習させて、VJらしい映像を生成させています。</p>
<p><iframe width="640" height="480" src="https://www.youtube.com/embed/Ff2ZnWTUhdE" frameborder="0" allowfullscreen></iframe></p>
<p>こちらがそのシステムを使って生成したVJ映像。<br />
人間が作った映像には統一感や美しさではまだまだ勝てませんが、<br />
AIで生成した独特な映像の感じがよく表現されている気がします。</p>
<h2>◆ どのように作ったのか </h2>
<p>AIでVJ映像を作ったと聞くと一見難しそうに聞こえてしまうかもしれません。<br />
そもそもAIや機械学習ってなんだろうという方もいらっしゃると思います。<br />
今回のVJ映像のAI作成はざっくり言うと下記のようなことをしています。</p>
<p><img src="http://hackist.jp/wp-content/uploads/745e6ae05dd4a58126f1c84bde077d4c-1024x514.png" alt="スクリーンショット 2016-05-24 21.02.03" width="1024" height="514" class="aligncenter size-large wp-image-7452" /></p>
<p>機械に大量のデータ(上記では猫)を与えて、その画像の特徴を機械に教えこませて、<br />
機械にその特徴を含んでいる画像を作らせる、ということを行っています。<br />
人間も初めて見た知らないものについては、これは何であるかを教えてもらって覚えると思うのですが、<br />
機械はまだまだ人間ほど賢くないので、上記のようにそれを何回も反復して覚えます。<br />
そうして作成したモデル(AIの脳のようなもの)を用いて画像を生成しています。</p>
<p>興味のある方は、<a href="http://qiita.com/buchayaty/items/0929ba64c2f2b0187a24" target="_blank">こちら</a>に更に詳しい技術詳細が記載してあるので是非御覧ください。</p>
<h2>◆ どんな映像が出来上がったか </h2>
<p>今回は色々なジャンルのVJ映像データを集めて学習させました。<br />
完全に主観ではありますが、フォトリアル系、モーションタイポ系、MAD系などなどを分類して学習させました。</p>
<p>例えば、これはモーションタイポ系の映像を学習させて作った映像。<br />
なんとなく文字を描こうとしている感が見受けられます。</p>
<p><iframe width="640" height="480" src="https://www.youtube.com/embed/v_FBswdToYc" frameborder="0" allowfullscreen></iframe></p>
<p>こちらは初音ミクのmmdの映像を学習させて作った映像。<br />
言われれば初音ミクと分かるけどあまりうまく行かなかった例。<br />
<iframe width="640" height="480" src="https://www.youtube.com/embed/JUM9qQdpiPw" frameborder="0" allowfullscreen></iframe></p>
<p>こちらはパーティクルや光の演出がよく登場する映像を学習させて作った映像。<br />
学習させた映像の内容がよく反映されていて割と上手くいった例。<br />
<iframe width="640" height="480" src="https://www.youtube.com/embed/u-WRUe1QWOI" frameborder="0" allowfullscreen></iframe></p>
<p>この他にもたくさん映像を生成したのですが中にはかなり特徴を捉えている映像もあり、<br />
上手に学習させてあげれば狙った方向性の映像を生成することも可能な気がしています。</p>
<h2>◆ こちらのシステムを活用して実際にVJします！ </h2>
<p>なかなか面白い映像が生成されるシステムがせっかく出来たので、<br />
それを活用して実際にVJをさせていただきます！</p>
<p>現在絶賛開催中の HACKist 3rd Exhibition 「DIGITAL DIVERZ」 内のイベントにて行われるDEDEMOUSEさんとのLiveで、<br />
&#8220;Prototyping and Music&#8221;というコンセプトのもと、色々な実験開発したものをご紹介する変わったLiveをするのですが、<br />
こちらのシステムを活用したVJ映像もその場でご紹介させていただきます。</p>
<p>詳細はこちらの<a href="http://www.hackist.jp/digital_diverz/pc/" target="_blank">サイト</a>から。</p>
<p>実は既に、5/21日に一度実施をしておりまして、5/28日に再度やらせて頂く運びとなっています。<br />
「AI VJ」 以外にも 個性的なプロトタイプ作品を紹介予定ですので、<br />
興味がある方は是非いらしてくださいませ！<br />
会場で会えましたら幸せです！</p>
<p>それでは！！</p>
]]></content:encoded>
			<wfw:commentRss>https://hackist.jp/?feed=rss2&#038;p=7443</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
