近年、急激に進化するAI(人工知能)技術。AIが生成する文章やイラストのクオリティは日に日に向上し、人が創作したものと見分けがつかないレベルとなっている。さらに全世界のアーティストや音楽関係者に衝撃をもたらしているのが、「AIによる音楽の生成」だ。文章(プロンプト)を指定するだけで、現実のミュージシャンそっくりな曲を数分で生成できる作曲AIサービスが次々に登場し、法的なルール作りの必要性の議論が始まってもいる。人間のクリエイティビティを脅かさないAI作曲の未来について、駒澤大学の平井辰典先生に伺った。
人の手を経ず、無尽蔵に作曲する生成AI
――平井先生は学生時代に応用物理を専攻され、現在は情報学をフィールドに「音楽」に特化した研究をされています。なぜ物理学から情報学、しかも音楽の研究に進まれたのでしょうか?
平井 高校生の頃から物理が好きで、宇宙の始まりに興味を持っており、もともとは宇宙物理を勉強したいと思って物理学科を選びました。物理学科や数学科の学生にありがちなんですが、実際に大学に入学して勉強してみると自分の学びたいイメージとのギャップが大きくてついていけなくなってしまい、このまま物理学で大学院に行くのはちょっと厳しいと感じたのです。
そのとき、応用物理学科の森島研究室というところでCGを研究していることを知りました。決め手となったのが、その研究室ではを研究していたことです。既存の動画コンテンツを音楽に合わせて自動生成する技術で、ダンス動画を切り貼りするようなものを生成していました。私は小さい頃からずっと音楽が好きで、好きな音楽とからめて研究ができる場所があると知り、その研究室に入ることになりました。
それが音楽に焦点を当てた研究のスタートです。研究室の本流であるCGからは外れていたのですが、自分のやりたいことを突き詰めたいと思いながら研究を続け、今に至るという感じです。
――ちなみにどんな音楽が好きだったんでしょうか?
平井 中学、高校の頃からずっとバンドをやっていて、ロック音楽が好きです。ギターをメインに楽器もいろいろとやってます。Hi-STANDARDとか、Going Steadyなどの曲をコピーしたり、オリジナル曲も作ったりして演奏していました。
――「生成AIによる作曲の支援」が、先生の研究テーマの一つだそうですね。生成AIによる自動作曲は現在、どのような状況にあるのでしょうか?
平井 ここ1年くらいの間にものすごい速さで進化し、すでに人の耳では、人間が作曲した曲とAIが生成した曲の区別がつかなくなっています。ネット上のサービスにアカウント登録すれば誰でも使えて、「こういう曲を作って」という文章プロンプトを打ちんで生成ボタンを押すと、ものの1〜2分でそのお題に合った曲が生成されます。
――すごいですね。
平井 人間の手を経ることなく、無尽蔵に音楽を作れるようになっています。AIによる作曲ではボーカルの声も一緒に作ってくれますが、1年ぐらい前は、まだ最先端のAIでも声やビート、メロディに何となく不自然なところがありました。音楽というのは非常に微妙な感覚でできているので、少しでも不自然なところがあると、すぐに気づきます。しかしこの1年で、そういう不自然さがほぼ無くなり、人が作った曲と区別がつかないレベルになっています。
*AIによる作曲の例 AI音楽生成ツール「Udio」の公式PR動画
――ポップスに限らず、ピアノやバイオリン協奏曲、オーケストラなどのクラシック音楽も作れてしまうのでしょうか。
平井 基本的には何でも作れます。ただしAI技術全般に共通することですが、既存のデータを学習して新しい曲を生み出しますので、学習データが足りないジャンルは生成が難しい。例えば民族音楽などは現状、データが不足していますが、それも学習量が増えていけば問題なく作れるはずです。また作曲AI自体がアメリカの企業を中心に作られているので、英語の曲の学習データが圧倒的に多く、日本語の曲を作ると、まだ不自然さが感じられます。英語に関しては、ボーカルの発音もすごく自然で、人間が歌っているものと聞き分けられないほど自然です。
人の創造活動を脅かさない技術のあり方とは
――それほど進化しているんですね。たとえばYouTube動画のクリエイターは、著作権の関係で自分の動画に既存の音楽を使うことが許されていませんでした。音楽をオリジナルでどんどん作れるとなれば、非常に便利でしょうね。
平井 それが実は、まだグレーなんです。現在、有名なAI音楽生成サービス2つが、大手レコード会社から訴えられています。
――そうなんですか!それはなぜですか?
平井 AIの学習に自分たちの会社に所属するアーティストの曲が使われていることが訴えの理由です。AIのデータとして著作物を使うことについて明確に禁止している国と、禁止していない国があり、国によってまったく違います。そのため、AIによる作曲の著作権についてはまだ国際的なルールが確立していません。
これまでも新しいIT技術の多くは、まず画期的なサービスが先にできてから、後に法整備が行われてきました。AI作曲についても同様で、これからルールが定まっていくと思います。
平井先生
一方で、生成AIによる作曲のクオリティがあまりにも高くなってしまったがために、本物のミュージシャンがいらなくなってしまうんじゃないか、という危機感を音楽業界は抱くようになっています。
そのきっかけとなったのが、あるユーザーがカナダ出身のドレイクというミュージシャンを真似してAIに曲を作らせて、Spotifyなどの配信サービスに投稿した事件です。その曲があまりにもドレイクに似た曲と声だったために、聞いた人の多くが新曲と勘違いして人気が出てしまったのです。それでドレイク本人が怒って配信会社を訴え、曲を取り下げる事態となりました。同じようなことはあらゆるアーティストに起こる可能性があり、そうなればミュージシャンという職業が成立しなくなってしまう可能性があります。
こうした問題について、私も研究者として危機感を抱いています。生成AIが音楽産業に大きなダメージを与えて、人間が音楽活動をできなくなるのなら、それは害悪でしかありません。
そこで私の研究では、AIによる自動作曲ではなく、AIによる作曲支援の研究に力を入れています。あくまで人間が音楽を作るという大前提のもと、AI技術によってアイディア出しを助けたり、作曲の手間を軽減することをめざしています。
――具体的にどのような支援を行ってらっしゃるんでしょうか?
平井 生成AIを使うと、自分が作った曲のデータを学習させることによって、自分の「癖」や「好み」を持ったオリジナルの自分だけのAIを作ることができます。それを使うことにより、「自分だったらこのメロディの続きをどう考えるか」、AIのサポートを受けながら多種多様に作曲することができます。
作曲活動というものは基本的に一人で閉じこもって行う作業でしたが、AIを使うことで「自分の心」という存在と「壁打ち作業」ができるようになるのです。「AIが曲を作って終わり」ではなく、作る過程を助けることに主眼を置いています。
――その研究は、実用化の段階に進んでいるのでしょうか?
平井 作曲家が使う作曲ソフトの追加機能として使えるプログラムの形で、私のホームページからダウンロードできるようになっています。ソフトウェアを動かすのに少し専門的な知識が必要ですが、誰でも使えるようなかたちで公開しています。
<参考>
平井先生による作曲支援プログラムをダウンロードできるサイト ※英語ページ
https://github.com/TatsunoriHirai/ownMelodyGenerativeModel?tab=readme-ov-file
音楽表現の新しいフィールド「微分音」
――平井先生は、他にも「微分音による作曲」を研究していると伺ったのですが、これはどんな研究なのでしょうか。
平井 まず微分音とは何かというと、私たちが慣れ親しんだピアノの白鍵と黒鍵の12音階よりもさらに細かく分けられた音になります。
現在ジャンルを問わず音楽に携わる人の大半は、ドレミのメロディを使って作曲するのが当たり前になっていますよね。ピアノをはじめとした楽器も、ドレミを演奏することを前提とした設計となっています。それは、12音階を基調とする西洋音楽の音楽理論がグローバルスタンダードとなって久しいからです。
しかしその結果、これまでの音楽の歴史のなかで、ドレミの組み合わせはほぼ出尽くしてしまっている。ミュージシャンがこの時代に新曲を作ろうと思っても、一部は過去の曲に似てしまうことが避けられない状況です。それに加えて、前述のように生成AIが無尽蔵に曲を作れるようになってしまいました。
――ドレミという狭いフィールドの中で、新しい曲を作ってオリジナリティを発揮するのは、いまや非常に厳しいわけですね。
平井 はい。新しい音楽表現を開拓する上で、まだ手つかずの領域が広大に残っているのが、微分音による作曲なのです。音楽表現ではこれまでに、シンセサイザーが楽器の音色の開拓に革命をもたらしました。コンピュータで音を合成することで、ピアノやバイオリン、ギター、ドラム、どんな音でも再現することができますし、プロも当たり前にシンセサイザーを用いて作曲しています。音色の表現という方向性では、人間が想像できる音は何でも作れる状況になっています。
一方で、せっかく広がった多様な音色の表現も、結局ドレミで演奏するのであれば、メロディとしてはありきたりなものになってしまいます。しかし微分音を使えば、今までに生み出された曲とはまったく違うものができるのですたとえば、今世界中でヒップホップが人気ですが、その理由の一つにラップのメロディ(フロー)がドレミではなく微分音から成っていて、常に新しい音表現が実現できていることがあるのではないかと考えています。
――微分音で作曲するとなると、和音などについても従来の考え方が通用しなくなるのではないでしょうか。
平井 音楽理論を一から全部作り変えるようなイメージです。従来の12音の平均律では、明るく聞こえるメジャーコードと暗く聞こえるマイナーコードがわかっていますが、微分音でそれに当たるものを探すために、私の研究室では微分音をどう組み合わせれば明るく聞こえたり、暗く聞こえたりするのかを学生とともに研究しています。
微分音にも音楽理論がないわけではなく、1オクターブを17分割した17平均律の音楽理論などがこれまでに音楽家の手によって構築されてきました。しかし微分音に特化した楽器はあまりないので、微分音専門のメジャーなミュージシャンもいません。しかし楽器はなくてもコンピュータを用いれば微分音による作曲は可能なので、これからきっと盛り上がる分野だと私は考えており、そのための支援技術について研究しています。
それにもともと、最も根源的な「楽器」である人の歌声は、12音のメロディのように音の低さ、高さがきっちり決まっているのではなく、連続した周波数を持っています。つまり、ドレミに合わせて歌うのが本来は不自然なのです。今はドレミにぴったり合わない歌声は「音痴」とされていますが、微分音による作曲がメジャーになれば、自分の歌声のピッチに調和した曲を作曲しやすくなるかもしれません。
――なるほど、とても面白いですね。今後プロのミュージシャンもオリジナリティを出すために、微分音を活用した曲を発表していくことが考えられそうです。
平井 私の研究室では、ミュージシャンがライブでも微分音の曲を演奏できるように、XR(仮想現実)技術を用いた楽器の開発も研究対象としています。仮想空間に微分音を奏でられる特殊なキーボードを映し出し、ヘッドマウントディスプレイなどでそれを見ながら演奏することを想定しています。
仮想空間に映し出したキーボードで微分音の曲を演奏
また、AIを活用した微分音を用いた作曲のサポートも始めています。研究室では生成AIのモデル学習などの用途で使える100曲の微分音楽曲を人の手で作成し、研究目的であれば誰でも使えるようになっています。(※ ダウンロードには申請が必要です)
皆さんには微分音のこともぜひ知っていただいて、新しい音楽の可能性に興味を持ってもらい、実践してもらえたら嬉しいと思います。
<資料>
平井先生による微分音楽曲データセット。微分音のサンプル(2種類)もページ下部で聞くことができる。
https://www.komazawa-u.ac.jp/~thirai/MicrotonalMusicDataset/index-j.html
微分音以外にも、音楽でオリジナリティを出すための試みとしては「変拍子」を使うという方法もあります。変拍子はロックやポップスなどで使われる4拍子や3拍子とは違い、1小節を5拍子や7拍子で区切るもので、これまでのメジャーな曲とはまったく違うリズムを生み出すことができます。音楽表現として可能性にあふれており、いずれは変拍子も研究対象にするかもしれません。
――お話を伺って、先生の研究は、AIなどの新しい技術や、微分音などの未開の領域を探求することで、1000年以上にわたって積み重ねられてきた西洋音楽を中心とする音楽の世界を広げようとしていることがわかりました。ありがとうございました。
* * *
平井先生へのインタビューの後で実際に音楽生成AIサービスを使ってみたところ、瞬く間に好きなアーティストと非常に良く似たテイストの楽曲が生成され、驚いた。しかし聴き込んでみると確かに似てはいるものの、「何か決定的な要素が足りない」という感じも受けた。
それはおそらく、生成AIが「過去の楽曲を学習したデータから新たな曲を生み出す」ことはできても、完全にオリジナルの「意思」にもとづく作曲が原理的にできないことが理由なのではないかと感じた。AIによる作曲が普及すればするほど、人が曲に込める「意思」が重要になるのではないか。取材を終えた今、そんなふうに感じている。