RolandがAlexaで音声操作可能な電子ピアノを発表 CES2019にて

RolandがAlexaで音声操作可能な電子ピアノをCES2019にて発表した模様です。 同社のラインナップであるGO:PIANOにAlexaによる音声操作機能が新たに搭載されます。 電子ピアノを演奏中、鍵盤から手を離さずに音色や音量の変化などの操作をしたりできる他、伴奏曲を選んだり、自分の演奏を録音やその演奏データを友人へ送信、などという事ができるらしいです。 秋頃リリースされるとの事ですが、価格など詳細はまだ不明ですので続報を待ちましょう。

RolandがAlexaで音声操作可能な電子ピアノを発表 CES2019にて Read Post »

音声合成手軽に 国情研、学習データ1時間のAI開発

国立情報学研究所のシン・ワン特任研究員と高木信二特任助教、山岸順一准教授は、自然な音声を手軽に合成できる人工知能(AI)技術を開発した。学習に必要な音声データは約1時間と少ない。ソースコードを無償公開した。ウェブサービスの音声対話機能などへ提案していく。 音声合成で長く使われてきた「ソースフィルター・ボコーダ法」と脳神経回路を模したニューラルネットワーク型の機械学習を組み合わせた。大規模なニューラルネットワーク型の機械学習に比べて学習データを減らし、ボコーダ法の音声の自然さが反映された。 合成音声の品質は5段階の主観評価で4以上。他の手法と比較して劣らなかった。学習用データが1時間程度ですむため、多数の人の声を作りやすい。今後、リアルタイム合成技術の開発を進める。

音声合成手軽に 国情研、学習データ1時間のAI開発 Read Post »

GAN(敵対的生成ネットワーク)を使用してオリジナルのスニーカーデザインを作成

先日AIが作ったアートが約4800万円で売れたと話題になったニュースがありました。 AIの出力した肖像画が約4800万円で売れる。まさかのアンディ・ウォーホル超えhttps://www.gizmodo.jp/2018/10/portrait-painted-by-ai-sells-for-432000.html GAN作をつかまされた、、、などと洒落にまでされていましたが、ここで使用された機械学習の技術がGAN(Generative Adversarial Network 敵対的生成ネットワーク)です。 GANについては改めて解説(授業では詳細に)しますが、このGANを使った面白いプロジェクトがあったのでご紹介します。 なんとGANを使用してオリジナルのスニーカーデザイン作成を試みたらしいです。生成された画像は下記です。 いかがでしょうか?AmazonやZapposから売れ筋のスニーカー画像をピックアップしたとのこと。ところどころナイキのロゴなども見えますね。現状”GAN作”らしいぐちゃぐちゃさがありますが、今後の可能性は(特にAI完結を思わなければ)面白いのではないでしょうか? 直接音楽ではないのですが、次回のAI自動作曲研究LABでは、この技術を使用して、歴史に残るロックやジャズのジャケットを学習させ、新しい音楽用ジャケットの作成にトライしてみようかと思います。(コードを書く時間がなければやりません汗。そこは悪しからずという事で、、、)いずれ我々がリリースする音楽作品のジャケットやアートワークはGAN作となりそうです。

GAN(敵対的生成ネットワーク)を使用してオリジナルのスニーカーデザインを作成 Read Post »

Deep Learningを使用して自分の声を有名人の声に変換

こちらのSoundCloudのオーディオファイルを聞いてみてください。 https://soundcloud.com/andabi/sets/voice-style-transfer-to-kate-winslet-with-deep-neural-networks 男性(匿名)の方の声を有名な女優Kate Winsletにディープラーニングを使用して変換しています。すごいですね! tensorflow(ディープラーニングライブラリー)numpy(数値計算ライブラリー)Librosa(オーディオ処理ライブラリー)で実現されている様です。 私たちの声も簡単に有名人の声に変換できるのかもしれません。自分の鼻歌を有名歌手(Ed Sheeranとか?)に変換に作品にできる未来はもうすぐそこかもしれません。歌声にも著作権(肖像権)ができそうですね。1コピーごとに数パーセントとか笑

Deep Learningを使用して自分の声を有名人の声に変換 Read Post »

Pythonでグラフの描画に使えるMatplotlibとさらに高度で便利なライブラリー

Pythonでデータ処理をする際、グラフで描画と言えばまずはMatplotlibhttps://matplotlib.org/が有名でしょうか。 それ以外にもあまり知られてはいないものの(十分知られているかもですが、、、汗)さらに高度で便利なグラフ描画ライブラリーがありますので紹介します。 seabornhttps://seaborn.pydata.org/index.html#matplotlibをベースに、より多彩で高度なグラフ描画を可能にするライブラリーです。 下記画像の様に非常な多彩で高度なグラフ描画が可能になっています。 Ipyvolumehttps://ipyvolume.readthedocs.io/en/latest/ 3Dのグラフ(動かせます)を描画できるライブラリーです。JupyterNotebook上で import ipyvolume as ipv import numpy as np x, y, z = np.random.random((3, 10000)) ipv.quickscatter(x, y, z, size=1, marker=”sphere”) 上記の様な簡単なコードで複雑な3Dグラフを作成できます。 アニメーショングラフも描画可能です。 Gymhttps://gym.openai.com/envs/#classic_controlグラフ描画とは少々異なりますが、、、機械学習、特に強化学習の検証でよく使用されるCartPole-v1はGymが活用されています。 import gym env = gym.make(‘CartPole-v0’) env.reset() for _ in range(1000): env.render() env.step(env.action_space.sample()) # take a random action 機械学習を勉強した事のある方は見覚えがあるかもしれません。 Pythonは色々なライブラリーが次々とリリースされアップデートされていくのがすごいところですね。canplayの最新音楽トレンド分析は、1月からAI音楽データサイエンスの講義としてもアップグレードします!この様なライブラリーの使用方法もどんどん解説していきますね!

Pythonでグラフの描画に使えるMatplotlibとさらに高度で便利なライブラリー Read Post »

Web Audio APIとWeb MIDI APIのアップデート

Web Audio APIとWeb MIDI APIのEditor’s Draft(公式マニュアルの様なもの)が揃ってアップデートされています。 Web Audio APIhttps://webaudio.github.io/web-audio-api/Web MIDI APIhttps://webaudio.github.io/web-midi-api/英語ではありますが、これまでよりも内容が詳細に説明おり、非常にわかりやすくなっております。 Webブラウザ上に、AudioやMIDIのモジュールをパッチングで組み合わせる感覚でプログラミングしていくのでモジュラーシンセなどを使用した事がある方、または好きな方にとっては把握しやすく非常に楽しいです。下記の図が理解できる方ならプログラムは比較的簡単にできると思います。 コードを書くだけでオーディオやMIDIのノード(パーツの様なもの)をパッチングしていくのはプログラミングというよりももはやモジュラーシンセ的ですらあります。 グラフィックの部分は色々工夫が必要となるかもしれませんが、単にシンセや楽器を作るだけなら思うよりもはるかに簡単にできます。 また言語はJavascriptですので、Magentaなどと組み合わせてAI活用の新たなシンセプログラムなどを生み出せる可能性もあり色々な可能性があるのではないでしょうか。

Web Audio APIとWeb MIDI APIのアップデート Read Post »

Spotifyの音楽ストリーミングデータを解析!現代の音楽トレンドはこれだ!

Spotifyの音楽ストリーミングデータから読み解く音楽トレンド canplayの最新音楽トレンド分析講義の内容を一部紹介です。 講義では様々な音楽データからAIによる最新の音楽データ分析方法と、分析したデータによる音楽トレンドや、音楽制作のトレンドを洗い出します。 この様なAI時代、データ時代に向けた先進の内容を取り扱う音楽講義は日本初ではないか(まず他では提供する事は不可能でしょう)と自負しております。 音楽制作のプロ、音楽ビジネス関係者、プロフェッショナルほど価値を活かせる講義です。是非ご受講を 使用するデータセットはSpotifyの2017年トップ音楽配信ランキングデータです。 (canplayの生徒様には授業で配布させていただきます。) データセット読み込み用コードはこちら 必要なモジュールをインポートします。numpyやpandasでデータ読み込みや解析を。matplotlibで解析データのグラフ化を。行います。 データセットは100曲のトップソングからできています。確認のためトップ10ソングの書き出し。.head(10) メソッドで引数の中に曲数(今回は10曲)を指定します。 Shape of You Ed Sheeran Despacito – Remix Luis Fonsi Despacito (Featuring Daddy Yankee) Luis Fonsi Something Just Like This The Chainsmokers I’m the One DJ Khaled HUMBLE. Kendrick Lamar It Ain’t Me (with Selena Gomez) Kygo Unforgettable French Montana That’s What I Like Bruno Mars I Don’t Wanna Live Forever (Fifty Shades Darker) – From “Fifty Shades Darker (Original Motion Picture Soundtrack)” ZAYN トップはEd Sheeranでした。 先に記載した通り実際のデータは100曲をセットにしてあります。 で

Spotifyの音楽ストリーミングデータを解析!現代の音楽トレンドはこれだ! Read Post »

Rapを学習し自動リリック生成するAIのプログラムでKanye Westを学習させたらこんなリリックできました

Rapを学習し、自動でリリック生成するAIプログラムが海外のテック系記事に掲載されていたので和訳します。 ラップでなくても普通の歌でも詩でも使用できるのですが、ラップは歌に比べると単語単語が独立している傾向があるため(そうではない場合もありますが、、、)時間経過を伴う意味の整合性について、解決がより簡単な可能性があるかもしれません。 今回はKanye Westをデータセットにして使用していました。 データセットにはKanye Westのアルバム・The College Dropout・808s & Heartbreak’・Yeezus・Late Registration・Graduation・My Beautiful Dark Twisted Fantasy・Watch the Throne・The Life of Pabloから各トラックを選択しました。 まずはいきなり結果をこんなリリックです。 生成1000回目Am our 200 shought 2 and butOne we -fuckister do fresh smandlesJuco pick with to sont party agmagleThen I no meant he don’t ganiscimes mad is so cametie wantWhatMama sumin’ find Abortsimes, man らしいといえばらしいですが意味は不明です笑 生成3000回目Moss for a kice the mowing?[Verse 1]I play this better your pictures at here friendsEver sip headHigh all I wouldn’t really what they made thiriseAnd clap much [verse 1]などというものを学習し生成しています。(実際は使用しないでしょうけど、、、)エラーらしい意味不明な表現は1000回目より減っている様です。 生成25000回目Through the sky and I did the pain is what what I’m so smartCall extry laneMake man flywing yet then you a rep

Rapを学習し自動リリック生成するAIのプログラムでKanye Westを学習させたらこんなリリックできました Read Post »

AIプログラミングで困ったらこれを参照!AI、ディープラーニング、機械学習などで使用できる使える解説図色々

AI、ディープラーニング、機械学習などで使用できる色々な解説図をご紹介します。 画像は小さく見辛いかもしれませんのでダウンロードの上拡大してお使いください。 まずは・ニューラルネットワークの解説チャートcanplayの講義で一番最初に取り上げる基礎中の基礎Perceptronや、RNN、LSTM、VAEを始め、色々なニューラルネットワークが非常にわかりやすくチャート化されています。 ・ニューラルネットワークをグラフィック化したもの さらに詳しくチャート化したものです。 どの様な流れで、どこでどんな数式が使われているか視覚的にわかりやすいですね。 次は機械学習、ディープラーニングでよく使う数式をシートにまとまたもの ここからは機械学習で頻繁に使用される色々なライブラリーの関数やメソッドの一覧シート これは本当に便利です。 keras Numpy Pandas SciPy Matplotlib ggplot2 Scikit-Learn Scikit-Learnはアルゴリズムも視覚的にグラフ化されています。 いかがですか? canplayの講義でも解説していますが、機械学習、ディープラーニングについて、何かわからない事があった場合、これらの図を是非参考にしてみてはいかがでしょうか?かなり”使える”ものが多いと思います。 是非ご活用ください。

AIプログラミングで困ったらこれを参照!AI、ディープラーニング、機械学習などで使用できる使える解説図色々 Read Post »

ヤマハ、アーティストの演奏を保存、再現する「Real Sound Viewing」をライブで活用

ヤマハが技術開発を進めている、アーティストの演奏を保存し再現するシステム「Real Sound Viewing」が、H ZETTRIO(エイチ・ゼットリオ)のライブで使用された。12月24日、市川市文化会館で開催されたライブで、「アーティストが自分自身とセッションする」音楽表現を披露したという。  Real Sound Viewingは、演奏を保存し、アコースティック楽器で再現するシステム。楽器に振動を加える特殊な装置を取り付けることで、さまざま楽器の生の音での自動演奏を実現する。 システムを構成するのは、「音のデジタル処理技術」や「電気信号を振動に変換してアコースティック楽器と同じ発音方式で響かせる技術」と、スクリーンに映像を映し出し演奏する姿を再現する技術。この組み合わせにより、アーティストが演奏する姿をリアルな映像で再現し、臨場感あるアコースティック楽器の「生の音」で演奏音を再現するという。  今回のライブでは、事前に記録したH ZETTRIOメンバーのドラムとのウッドベースの演奏をシステムで再現し、さらにアーティスト本人がその演奏とセッションすることで、「アーティストがバーチャル本人とセッションする」というクリスマスサプライズ企画を演出した。

ヤマハ、アーティストの演奏を保存、再現する「Real Sound Viewing」をライブで活用 Read Post »