投稿者名:canplay

【リリース情報】桜色に染まる頃 – Taro​

MUDEA生徒 アーティスト名 Taro のデビュー曲

桜色に染まる頃

が配信となりました。
昨年〜今年にかけて開催された、専門学校との取り組みをMUDEA生徒へも開放。
擬似コンペの中から選抜されデビュー配信となった1曲です。

Spotifyなど、各音楽配信サービスで聞いていただけます。

【リリース情報】桜色に染まる頃 – Taro​ Read Post »

MUDEA ai受講生中村かよこさんのAIを活用した音楽作品が、11月1日ー12月1日にイギリスで開催されるAI関連のアート作品の展覧会に採択、展示

MUDEA aiおよびMUDEAの受講生である中村かよこさんのAIを活用した音楽作品が、明日11月1日ー12月1日にイギリスで開催されるAI関連のアート作品の展覧会に、採択、展示されることになりました。 https://sunpav.my.canva.site/ Artstsの中に中村さんのお名前があります。 日本人では唯一の採択の様です。 素晴らしい成果ではないでしょうか! リアル開催のためイギリスに行かないと見れないのかと思いますが、オンライン公開されないかとも思っております。どんな作品なのか?作品に込めた思いやコンセプトなども気になります。 日本から音楽、アートの領域で海外へ向けて発信、活躍できるのは素晴らしいですね。今後の益々の活躍を楽しみにしております。

MUDEA ai受講生中村かよこさんのAIを活用した音楽作品が、11月1日ー12月1日にイギリスで開催されるAI関連のアート作品の展覧会に採択、展示 Read Post »

magenta colab notebookでの実行

MagentaをGoogle Colab Notebookで実行する方法の動画とファイルを公開しました。 動画を参考にしながら下記の流れで実行してください。 配布ファイルは magenta_notebook.ipynb https://canplay-music.com/download/30410/ です。zipファイルを解凍してください。 basic_rnn.mag は http://download.magenta.tensorflow.org/models/basic_rnn.mag よりダウンロードしてください。  1・colaboratoryを開いてください。(googleアカウントが必要です) https://colab.research.google.com/notebooks/welcome.ipynb?hl=ja 2・配布したmagenta_notebook.ipynbを開いてください。ファイルからノートブックをアップロードをクリックしファイルを選択。 3・最初のセル、 pip install magenta を実行(左のプレーボタンをクリック) 4・終了したら RESTART RUNTIME をクリックします。 右上に初期化中と表示。 終わるとRAMとディスクが表示されます。 5・ダウンロードしたbasic.rnnファイルをアップロードします。 右のフォルダアイコンからcontentを選択。 アップロードをクリックしてbasic.rnnファイルを選択の上、アップロード。 (アップロードファイルのcolaboratoryへの保存はできないため、毎回アップロードの作業が必要です、、、)   6・melody_rnn_generateコマンドを実行してください。 生成が完了するとcontent内にmidiファイルが生成されますのでダウンロードして再生できます。 なお、今回の実行内容については質問、サポートは受け付けておりませんのでご了承ください。 *是非入学のご検討をお願いいたします。

magenta colab notebookでの実行 Read Post »

Magentaで開発 AI作曲 出版記念 音楽の人工知能 CANPLAYイベント開催決定

Magentaで開発 AI作曲 出版記念 音楽の人工知能 CANPLAYイベント開催決定 日本初のAI作曲&音楽AIプログラミング本となる Magentaで開発 AI作曲 2021年7月20日発売(オーム社) の出版を記念し音楽の人工知能CANPLAYのイベントを開催します。 Magentaで開発 AI作曲は、CANPLAYの6つの講義のもっとの初級編となる MUSIC AIプログラミングの内容を書籍化したものでCANPLAYの公式教科書となります。 (現在入学者全員にプレゼント中です) イベント内容 ・Magentaで開発 AI作曲の紹介(内容、出版の経緯や7種類のAI作曲、独自モデル開発まで)・CANPLAYの入学説明会・CANPLAYの開発コンサルティングでどんな音楽AIができるのか?実績を紹介・Magnetaで開発 AI作曲のAI生成曲公式NFTについて 開催日時 7月31日(土曜日) 15:00〜16:00(終了時間予定) 開催場所 オンライン(ZOOM) 日本中どこにいてもご自宅で受講していただけます。 参加費 無料 定員 10名(抽選です。当選者には前日までに当選報告メールをさせていただきます) お問い合わせは下記リンク先の問い合わせフォームよりお気軽にどうぞhttps://canplay-music.com/inquiry/ Magentaで開発 AI作曲著者斎藤喜寛 Yoshihiro Saito 音楽の人工知能 CANPLAY代表 Magentaで開発AI作曲著者の作曲家機械学習リサーチャー(現在の専門領域は 時系列データの機械学習 金融工学 x 機械学習、ブロックチェーン連合学習)音のAI企業経営者金融 x ブロックチェーン x AI企業経営者 近年の音楽AI・TECH作品・KIOXIA(旧東芝メモリ) CM曲のAI作曲と開発・手塚治虫復活プロジェクトTEZUKA2020 CM曲のAI作曲と開発・パナソニックAIソリューションセンター環境実験音楽・三菱地所CLT PARK HARUMIのインタラクティブ(サラウンド)音楽制作(EXDREAM社にて制作) 抽選お申し込み

Magentaで開発 AI作曲 出版記念 音楽の人工知能 CANPLAYイベント開催決定 Read Post »

CANPLAYのMUSIC AIプログラミング科目を書籍化した教科書 「Magentaで開発 AI作曲」 7月20日発売です

CANPLAY代表の斎藤です。 ようやく情報解禁です。発売日が7月20日に決定しました。 Magentaで開発 AI作曲 音楽をAIプログラミングで作るための基礎となる実践方法をまとめた解説本です。 https://www.amazon.co.jp/dp/4274227316 ちょっと難しそうなタイトルと違い、プログラミング本としてはこれまでにないほど簡単な内容(のはず)ですので、AIや音楽だけでなく、初めてプログラミングを学ぶ方にも最適な初級プログラミング本になっています。 音楽理論の基礎をAIを使用して学べる内容もありますので新しい音楽教育などにも活用していただけると嬉しいです。 AI作曲のためのPythonライブラリとしてCANPLAYのMUSIC AIプログラミングで使用している GoogleのMagenta https://magenta.tensorflow.org/ の全7種類の音楽生成モデルを、使用するために必要な音楽理論の基礎までを交えて解説しています。 1・単音のメロディー生成2・ドラムパートの生成3・3パートのバンド演奏の生成4・コード進行に沿ったアドリブメロディーの生成5・バッハ風ハーモニー曲の生成6・現代音楽やフリージャズの様な和音曲7・人間の演奏の様なピアノ曲 の音楽生成ができます。 サンプルコードの他、生成曲動画、MIDIファイル、URLリンクにはQRコードと添付ファイルも通常のプログラミング本よりも丁寧で実践しやすくなっています。 AI作曲、というタイトルもあり、Amazonのジャンル分類では音楽本となっており、出版社様でも音楽本として推していただているのだと思います。しかし著者としては、初級プログラミング本だと思っておりますので初めてAIやプログラミングをされる方、特に音楽ファンの方のプログラミングの入口としてご活用いただければと願っています。 本書は、CANPLAYの初級科目となるMUSIC AI プログラミングの内容をまとめたもので、CANPLAYの教科書として使用されます。現在入学者全員にプレゼント中です。 そして今PR動画用の音楽を本書の内容でAI作曲していますが、この音楽をNFT(ノンファンジブルトークン)というコピー不可能なデジタルコンテンツ技術を使用し、限定1個のデジタル音楽作品として販売の計画もしています。CANP

CANPLAYのMUSIC AIプログラミング科目を書籍化した教科書 「Magentaで開発 AI作曲」 7月20日発売です Read Post »

機械学習とのコラボレーションで制作されたヒップホップEP | GoogleのMagentaでトラックメーキング

Spotify, Apple Musicで100万人以上のリスナーを持つラッパー/音楽プロデューサーであり、Googleのクラウドカスタマー部門のエンジニアでもある MJx MUSIC ことMichael “MJ” JacobがGoogleの音楽生成機械学習ライブラリ Magentaを使用しトラックメーキングしたヒップホップ EP Natural Causes をリリースしました。MJx MUSIC本人は機械学習との共同プロデュースであると解説しています。 下記のURLからSpotifyで視聴する事ができます。 制作について本人が語っている動画もご覧ください。 この取り組みは数ヶ月前から行われており、トラックメーキングをしてる動画も以前公開されています。 制作についても解説があり非常に興味深い内容でした。 ・使用したモデルはMagentaのMelody RNNとDrums RNN・単音のキャッチーなリードメロディー(Melody RNN)とキック/スネア/ハイハット のドラムの組み合わせ・自身が所有するこの十年のヒップホップアーティストの楽曲をMIDI化し学習データとして使用・学習時間は10〜12時間、回数として良い結果だったのは15,000エポック・モデル作成は20回以上行い、MIDIのデータクレンジングも丁寧に行う・数百ほどのMIDIファイルをチョイス、その組み合わせで制作 とのことです。 以前から言及してきたことですが、最初に機械学習で作られた音楽のヒット曲が生まれる、または活用が普及する(規模はここではあまり問わずです)のはヒップホップの可能性が高いと考えています。シンプルなループ、例えば1小節のループでも楽曲が成り立つ事。(機械学習では長い展開のある音楽の生成が難しい)元々がサンプリング文化であり、近年ではタイプビート活用が普及している様に、トラックを何かから拝借する様な行為に抵抗感が少ない事、既存のルールにしばれる事が他のジャンルに比べ少ない事、などの理由からです。また、テクノロジー時代にフルタイムのプログラマー/エンジニアが、そのスキルを活用して、週末ミュージシャンとして活躍する未来も十分予想できますが、その先駆けとなる例が、今回のMJx MUSICの作品なのかもしれません。 音楽そのものに対する個人的な感想はここでは述べません。こういった取り組みが

機械学習とのコラボレーションで制作されたヒップホップEP | GoogleのMagentaでトラックメーキング Read Post »

電子音楽の歴史を巡るバーチャルツアーとシンセサイザーの名機を自宅でAR体験 Google Arts & CultureのMusic, Makers & Machines

Google Arts & Cultureとは、Googleが世界中の美術館とコラボレーションし、アート作品を3DやARでリアルにオンライン鑑賞できる、仮想美術館ツアーの様なプロジェクトです。 現在のコロナの状況下、リアルに世界を巡りアート作品を見るなどという事は困難ですが、それを自宅にいながら実現する事ができます。 この度このGoogle Arts & Cultureに、電子音楽編が加わりました。 電子音楽関連の施設・スタジオ・博物館などのバーチャルツアー、シンセサイザーやその発展に貢献した開発者、アーティストなど電子音楽の歴史を解説する他、歴史的名機のシンセサイザーを自宅でAR体験できるAR Synthといったコンテンツまであり、凄まじいボリュームです。 いやすごいです! まさに自宅にいながら世界の電子音楽博物館ツアーをバーチャル体験できます。 どんなコンテンツがあるのか、いくつか(全ては紹介しきれないので)取り上げ紹介してみたいと思います。 A Sample of Electronic Music History 電子音楽の歴史を解説するコンテンツです。 https://artsandculture.google.com/story/dAXxiIiMWfSD4A 世界最初の電気機械楽器とされるTelharmonium マークI, II, IIIと3つのモデルが作られたそうですが、画像のマークII, IIIは重さ200トンもあった!!そうです からこれがないと語れない!Minimoogまで。様々な電子楽器、シンセサイザーが紹介されています。 20世紀中期の前衛音楽、電子音楽にとって重要な役割を果たしたWDR STUDIO(西ドイツ放送協会電子音楽スタジオ)のバーチャルツアーはまさに博物館ツアーをバーチャル体験できるGoogle Arts & Cultureらしいコンテンツです。 巨大なモジュラーシンセ?以外にEMSのVocoderやYAMAHAのSY99が置いてあるのが確認できます。 10台のシンセサイザーの名機を3Dで360度見ることのできるページもすごいですね。 Fairlight CMIなどは発売当時1600万円!本物は見たことがなかったのでぐるぐるあらゆる角度から見てしまいました。 Telharmoniumについては個別に詳細解

電子音楽の歴史を巡るバーチャルツアーとシンセサイザーの名機を自宅でAR体験 Google Arts & CultureのMusic, Makers & Machines Read Post »

ディープニューラルネットワークでジャズのアドリブを生成するBebopNet

ディープニューラルネットワークでジャズのアドリブを生成するBebopNetです。https://shunithaviv.github.io/bebopnet/ リンク先のページで色々なサンプルを聞く事ができる他コードも公開されているのでご自身で実践する事が可能です。 ISMIR2020で発表した際の動画ありますので英語ですが、ご興味のある方はご覧になってみてください。 Githubの公開コードページはこちらPyTorchで実装されている様です。https://github.com/shunithaviv/bebopnet-code 実はジャズはAI音楽生成の実践ではかなり頻繁に取り上げられています。理由は”それっぽい”生成がポップミュージックなど周期性のより明確な音楽に比べ容易だからです。(と、我々の実践から感じています) CANPLAYでも2017年にはジャズのアドリブ生成を行っており、2018年頃から研究会などで発表しています。一例としてよりフリージャズ的な生成曲の動画をご覧ください。 いかがでしょうか?実はこの生成曲は数千曲のクラシックなどジャズではない音楽のデータセットをわずか4エポックしか学習させていない結果です。面白い事に十分に学習させるとこの様なジャズらしさは薄れ、どんどんクラシック的な学習した曲に近づいていきます。この様にジャズの様なジャンルは、学習回数が少なくても、あるいは仮にデータ数が少なくても、それらしい生成曲になるのが面白いです。 もっとも音楽的に魅力的かは人それぞれかと思いますが。。。。 何か音楽AIのご参考になれば幸いです。

ディープニューラルネットワークでジャズのアドリブを生成するBebopNet Read Post »