音楽と人工知能 - 百科事典

音楽と人工知能(音楽とAI)は、AIを使用して音楽を生成する音楽ソフトウェアプログラムの開発です。他の分野の応用と同様に、音楽におけるAIも心理的なタスクをシミュレートします。顕著な特徴は、AIアルゴリズムが過去のデータに基づいて学習する能力で、例えばコンピュータ伴奏技術では、AIが人間のパフォーマーを聞き、伴奏を演奏することができます。人工知能は、インタラクティブな作曲技術も駆動しており、コンピュータがライブパフォーマンスに応じて音楽を作曲します。音楽におけるAIの応用は、音楽の作曲、プロデュース、パフォーマンスだけでなく、音楽のマーケティングや消費方法にも及びます。いくつかの音楽プレイヤープログラムは、音楽の音声コントロールに音声認識や自然言語処理技術を使用して開発されました。現在の研究には、音楽の作曲、パフォーマンス、理論、デジタル音響処理におけるAIの応用が含まれています。作曲家/アーティストのジェニファー・ウォルシーやホリー・ヘアンドンは、数年間にわたってパフォーマンスや音楽作品で音楽AIの側面を探求しています。人間が「AIを模倣する」もう一つの独自のアプローチは、ジョルジュ・レンツの43時間のサウンドインスタレーション「String Quartet(s)」に見られます(ChatGPT-4との音楽とAIに関するインタビューを参照)。

20世紀の美術史家エルヴィン・パノ夫斯基は、すべての芸術には3つの意味のレベルがあると提案しました:初級的な意味、つまり自然な主題;中級的な意味、つまり慣習的な主題;そして、主題の本質的な内容である三级意味。AI音楽はこれらのうち最も重要なものを探求し、通常その背後にある「意図」がなく、機械生成の作品を聴く作曲家に明らかな意味の欠如に不安を感じさせる音楽を作成します。

歴史
1950年代と1960年代には、人工知能で作られた音楽は完全にオリジナルではありませんでした。既に人間が定義し、AIに提供したテンプレートから生成されていました。これがルールベースのシステムとして知られています。時間が経つにつれて、コンピュータがより強力になり、機械学習や人工神経ネットワークが音楽産業に貢献するようになりました。これにより、AIに大量のデータを提供し、既定のテンプレートではなく音楽の作成方法を学習させることができました。2000年代初頭までに、人工知能の進歩がさらに進み、生成対決ネットワーク(GAN)や深層学習が使用され、よりオリジナルで、以前よりも複雑で多様な音楽をAIが作曲するのを助けました。OpenAIのMuseNetやGoogleのMagentaなどの注目すべきAI駆動プロジェクトは、AIがさまざまな音楽スタイルを模倣する作曲を生成する能力を示しました。

= 時系列 =
人工知能が音楽に初めて登場したのは、パフォーマンスを音楽記譜に正確に記録する問題でした。Père Engramelleの「ピアノロール」のスケッチは、手書きで簡単に音楽記譜に変換できるように、音符のタイミングと長さを自動的に記録する方法です。これは1952年にドイツのエンジニアJ.F. UngerとJ. Hohlfieldによって最初に実装されました。

1957年に、ILLIAC I(イリノイ自動コンピュータ)が「Illiac Suite for String Quartet」という完全にコンピュータ生成の音楽作品を作成しました。この作品は作曲家レオナルド・アイザーソンと数学者レジャレン・ヒラーによってプログラムされました。1960年に、ロシアの研究者ルドルフ・ザリポフは、ウラル-1コンピュータを使用したアルゴリズムによる音楽作曲に関する世界初の論文を発表しました。

1965年に、発明家レイ・クルーズウェルは、音楽パターンを認識し、それらから新しい作曲を合成するソフトウェアを開発しました。そのコンピュータは同年のクイズ番組「I've Got a Secret」に初めて登場しました。

1983年までに、ヤマハ株式会社の「カンセイ音楽システム」が勢いを増し、1989年にその開発に関する論文が発表されました。このソフトウェアは音楽情報処理と人工知能技術を使用して、基本的なメロディーの記譜問題を解決するために使用されました。しかし、現在でもより高度なメロディーや音楽の複雑さは、まだ難しい深層学習タスクとされ、ほぼ完璧な記譜は研究の課題として残されています。

1997年に、人工知能プログラム「EMI(音楽知能実験)」がバッハのスタイルを模倣する音楽作品を作曲するタスクで人間の作曲家を凌ぎました。EMIは後により高度なアルゴリズム「エミリー・ハウエル」として開発されました。エミリー・ハウエルは、その創作者にちなんで名付けられました。

2002年に、ソニーコンピュータサイエンスラボパリの音楽研究チームが、フランスの作曲家・科学者フランソワ・パケトをリーダーに、ライブミュージシャンが演奏を停止した後に作曲を再開できるアルゴリズム「Continuator」を設計しました。

エミリー・ハウエルは、2009年に初めてのアルバム「From Darkness, Light」を発表し、その後も多くのAIやさまざまなグループによって発表された多くの作品が続きました。

2010年に、Iamusが初めてのオリジナルの現代クラシック音楽の一部を作成しました。それは「Iamus' Opus 1」と呼ばれ、スペインのマラガ大学(マラガ大学)に位置しています。コンピュータはさまざまな音楽スタイルで完全にオリジナルの作品を生成できます。2019年8月には、12,197曲のMIDI曲が作成され、その中には歌詞やメロディーが含まれており、これらを深層条件LSTM-GAN法を使用して歌詞から神経メロディーの生成が可能かどうかを調査するために使用されました。

生成AIの進歩により、シンプルなテキスト記述から完全な音楽作品(歌詞を含む)を生成できるモデルが登場し始めました。この分野における2つの注目すべきウェブアプリケーションは、2023年12月にリリースされたSuno AIと、2024年4月にリリースされたUdioです。

ソフトウェアアプリケーション


= ChucK =

プリンストン大学でジョージ・ワンとペリー・クックによって開発されたChucKは、テキストベースのクロスプラットフォーム言語です。音楽作品に含まれる理論的技術を抽出し、分類することで、学習した技術から完全に新しい作品を合成できるソフトウェアです。この技術はSLOrk(スタンフォードラップオーケストラ)やPLOrk(プリンストンラップオーケストラ)によって使用されています。

= Jukedeck =

Jukedeckは、ビデオに使用するために無料でオリジナルの音楽を生成できるウェブサイトでした。チームは2010年に音楽生成技術を開発し、2012年にその周りで会社を設立し、2015年にウェブサイトを公開しました。使用された技術は最初にルールベースのアルゴリズム作曲システムでしたが、後に人工神経ネットワークに置き換えられました。このウェブサイトは1百万以上の音楽作品を作成し、Coca-Cola、Google、UKTV、ロンドンの自然史博物館などのブランドが使用しました。2019年に、この会社はByteDanceに買収されました。

= MorpheuS =

MorpheuSは、ロンドン王立マリー・キュリー大学のドリ・ヘレマンスとエレイン・チュウによって実施された研究プロジェクトです。このプロジェクトはMarie Skłodowská-Curie EUプロジェクトによって資金を提供されました。このシステムは、変数領域検索アルゴリズムに基づく最適化方法を使用して、トネローグのレベルが作品全体を通して動的に変化する新しい作品を作成するために既存のテンプレート作品を変形します。この最適化方法は、パターン検出技術を統合することで、生成された音楽における長期的な構造や繰り返しテーマを強制します。MorpheuSによって作成された作品は、スタンフォードやロンドンのコンサートで演奏されました。

= AIVA =

ルクセンブルグで2016年2月に作成されたAIVAは、あらゆる種類のメディアのためのサウンドトラックを生成するプログラムです。AIVAの背後にあるアルゴリズムは、深層学習アーキテクチャに基づいています。AIVAは、ロックトラック「On the Edge」や、シンガーTaryn Southernとのコラボレーションによるポップ曲「Love Sick」を生成することでも知られています。これらは、彼女の2018年のアルバム「I am AI」のために作成されました。

= Google Magenta =

GoogleのMagentaチームは、2016年の立ち上げ以来、多くのAI音楽アプリケーションや技術論文を発表しています。2017年にNSynthアルゴリズムとデータセットをリリースし、オープンソースのハードウェア音楽機器も発表しました。この機器は、アーティストがアルゴリズムを使用するのを容易にするために設計されました。この機器は、GrimesやYACHTなどの著名なアーティストによって使用されました。2018年に、ピアノ即興アプリ「Piano Genie」をリリースしました。これに続き、Magenta Studioがリリースされました。これは、DAW内で既存の音楽を拡張するための5つのMIDIプラグインのセットです。2023年に、その機械学習チームはGitHubでMusicLMというプライベートなテキストから音楽生成器を開発した技術論文を発表しました。

= Riffusion =


= Spike AI =
Spike AIは、Spike Stentと彼の息子Joshua Stent、友人のHenry Ramseyによって開発されたAIベースのオーディオプラグインです。このプラグインは、トラックを分析し、ミックス中に明確さや他の側面を向上させるための提案を提供します。コミュニケーションは、Spike Stentの個人データで訓練されたチャットボットを使用して行われます。このプラグインはデジタルオーディオワークステーションに統合されます。

音楽的応用
人工知能は、プロデューサーがトラックの再現を提供することで、音楽の作成方法に影響を与える可能性があります。これらのプロンプトは、アーティストが目指している特定のスタイルに従うようにAIに指示を与えることができます。AIは、音楽分析でも使用されており、特徴抽出、パターン認識、音楽推薦に使用されています。AIVA(人工知能バーチャルアーティスト)やUdioなどの新しいツールが開発され、AIを使用してオリジナルの音楽作品を生成するのを支援しています。これには、既存の音楽のデータを提供し、深層学習技術を使用してデータを分析し、さまざまなジャンル(クラシック音楽やエレクトロニカなど)の音楽を生成することが含まれます。

エチカルおよび法的考慮
多くの音楽家、例えばDua Lipa、エルトン・ジョン、ニック・ケイブ、ポール・マッカートニー、スティングがAIの音楽使用を批判し、英国政府に対して行動を促しています。別の例として、無音の2025年のアルバム「Is This What We Want?」があります。

一部のアーティストは、AIの音楽使用を推進しています。例えば、Grimesがそのようにしています。

AIが音楽を作成することで、新しい音楽を生成するのに役立ちますが、多くの問題が発生しました。これには、AIが音楽プロダクションを取って代わることで経済に与える影響、AI生成の音楽に対する実際の所有権、人間の作成した音楽に対する需要の低下などがあります。一部の批判者は、AIが人間の創造性の価値を低下させると主張しますが、賛成者はそれを人間の音楽家を置き換えるのではなく、芸術的可能性を拡張する補完ツールと見なしています。

さらに、AIが音楽を均質化する可能性についての懸念も提起されています。AI駆動モデルは通常、既存のトレンドに基づいて作曲を行うため、一部の人々は音楽の多様性が制限されることを恐れています。この懸念に対応するために、より洗練された創造的な要素を取り入れたAIシステムの開発が進められています。

音楽における人工知能の別の主要な懸念は著作権法です。AI生成の音楽やプロダクションに対する実際の所有権に関する多くの疑問が提起されています。現在の著作権法では、著作権保護を受けるためには、作品が人間の認可を受けた必要があります。一つの解決策として、人工知能が生成した創作と、創作に貢献した人間を認識するハイブリッド法の創設が提案されています。

アメリカでは、現在の法的枠組みは、人間の創造