Música y inteligencia artificial - Enciclopedia
La música y la inteligencia artificial (música y IA) es el desarrollo de programas de software musical que utilizan IA para generar música. Al igual que las aplicaciones en otros campos, la IA en la música también simula tareas mentales. Una característica destacada es la capacidad de un algoritmo de IA para aprender basándose en datos pasados, como en la tecnología de acompañamiento de computadora, donde la IA es capaz de escuchar a un intérprete humano y realizar un acompañamiento. La inteligencia artificial también impulsa la tecnología de composición interactiva, donde un ordenador compone música en respuesta a una actuación en vivo. Hay otras aplicaciones de IA en la música que cubren no solo la composición, la producción y la interpretación de música, sino también cómo se comercializa y consume la música. Se han desarrollado varios programas de reproductores de música para utilizar la tecnología de reconocimiento de voz y procesamiento de lenguaje natural para el control vocal de la música. La investigación actual incluye la aplicación de IA en la composición, interpretación, teoría y procesamiento de sonido digital. Compositores/artistas como Jennifer Walshe o Holly Herndon han estado explorando aspectos de la IA musical durante años en sus actuaciones y obras musicales. Otra aproximación original de los humanos "imitando a la IA" se puede encontrar en la instalación de sonido de 43 horas "String Quartet(s)" de Georges Lentz (ver entrevista con ChatGPT-4 sobre música y IA).
El historiador del arte del siglo XX Erwin Panofsky propuso que en todas las artes, existían tres niveles de significado: el significado primario, o el sujeto natural; el significado secundario, o el sujeto convencional; y el significado terciario, el contenido intrínseco del sujeto. La música de IA explora el primero de estos, creando música sin la "intención" que generalmente está detrás de ella, dejando a los compositores que escuchan piezas generadas por máquina sintiéndose inquietos por la falta de significado aparente.
Historia
En la década de 1950 y la de 1960, la música hecha por inteligencia artificial no era completamente original, sino que se generaba a partir de plantillas que las personas ya habían definido y proporcionado a la IA, lo que se conoce como sistemas basados en reglas. Con el paso del tiempo, las computadoras se volvieron más poderosas, lo que permitió que el aprendizaje automático y las redes neuronales artificiales ayudaran en la industria musical proporcionando grandes cantidades de datos a la IA para aprender cómo se hace la música en lugar de plantillas predefinidas. A principios de la década de 2000, se habían hecho más avances en la inteligencia artificial, con redes de adversarios generativas (GANs) y el aprendizaje profundo que ayudaron a la IA a componer música más original y compleja y variada de lo posible antes. Proyectos notables impulsados por IA, como MuseNet de OpenAI y Magenta de Google, han demostrado la capacidad de la IA para generar composiciones que imitan varios estilos musicales.
= Cronología =
La inteligencia artificial encuentra sus orígenes en la música con el problema de transcripción: registrar una actuación en notación musical de manera precisa mientras se toca. El esquema de "piano roll" de Père Engramelle, un modo de registrar automáticamente la timing y la duración de las notas de manera que podría ser fácilmente transcrito a notación musical adecuada a mano, fue implementado por ingenieros alemanes J.F. Unger y J. Hohlfield en 1952.
En 1957, el ILLIAC I (Computador Automático de Illinois) produjo la "Illiac Suite for String Quartet", una pieza musical completamente generada por computadora. El ordenador fue programado para lograr esto por el compositor Leonard Isaacson y el matemático Lejaren Hiller. En 1960, el investigador ruso Rudolf Zaripov publicó el primer documento mundial sobre la composición de música algorítmica utilizando la computadora Ural-1. En 1965, el inventor Ray Kurzweil desarrolló un software capaz de reconocer patrones musicales y sintetizar nuevas composiciones a partir de ellos. El ordenador apareció por primera vez en el programa de concursos "I've Got a Secret" ese mismo año.
Para 1983, el Sistema de Música Kansei de la Corporación Yamaha había ganado impulso, y en 1989 se publicó un documento sobre su desarrollo. El software utilizaba técnicas de procesamiento de información musical y de inteligencia artificial para resolver esencialmente el problema de transcripción para melodías más simples, aunque las melodías de nivel superior y la complejidad musical se consideran incluso hoy en día tareas difíciles de aprendizaje profundo, y la transcripción casi perfecta sigue siendo un tema de investigación.
En 1997, apareció un programa de inteligencia artificial llamado Experimentos en Inteligencia Musical (EMI) que superó a un compositor humano en la tarea de componer una pieza musical para imitar el estilo de Bach. EMI más tarde se convirtió en la base para un algoritmo más sofisticado llamado Emily Howell, nombrado en honor de su creador.
En 2002, el equipo de investigación en música de la Laboratorio de Ciencias de la Computadora de Sony en París, liderado por el compositor y científico francés François Pachet, diseñó Continuator, un algoritmo único capaz de reanudar una composición después de que un músico en vivo se detuviera. Emily Howell continuó avanzando en la inteligencia artificial musical, publicando su primer álbum From Darkness, Light en 2009. Desde entonces, se han publicado muchas más piezas por inteligencia artificial y varios grupos.
En 2010, Iamus se convirtió en la primera IA en producir un fragmento de música clásica contemporánea original en su propio estilo: "Iamus' Opus 1". Ubicado en la Universidad de Málaga (Málaga University) en España, el ordenador puede generar una pieza completamente original en una variedad de estilos musicales. En agosto de 2019, se creó un gran conjunto de datos consisting of 12,197 canciones MIDI, cada una con sus letras y melodías, para investigar la viabilidad de la generación de melodías neuronales a partir de letras utilizando un método de LSTM-GAN condicional profundo. Con el progreso en la IA generativa, los modelos capaces de crear composiciones musicales completas (incluso letras) a partir de una simple descripción de texto han comenzado a surgir. Dos aplicaciones web notables en este campo son Suno AI, lanzada en diciembre de 2023, y Udio, que siguió en abril de 2024.
Aplicaciones de software
= ChucK =
Desarrollado en la Universidad de Princeton por Ge Wang y Perry Cook, ChucK es un lenguaje basado en texto y multiplataforma. Al extraer y clasificar las técnicas teóricas que encuentra en las piezas musicales, el software es capaz de sintetizar completamente nuevas piezas a partir de las técnicas que ha aprendido. La tecnología se utiliza por SLOrk (Stanford Laptop Orchestra) y PLOrk (Princeton Laptop Orchestra).
= Jukedeck =
Jukedeck fue un sitio web que permitía a las personas utilizar inteligencia artificial para generar música original y gratuita para usar en videos. El equipo comenzó a construir la tecnología de generación de música en 2010, formó una empresa alrededor de ella en 2012 y lanzó el sitio web al público en 2015. La tecnología utilizada fue originalmente un sistema de composición algorítmica basado en reglas, que más tarde fue reemplazado por redes neuronales. El sitio web se utilizó para crear más de un millón de piezas de música, y marcas que la utilizaron incluyen Coca-Cola, Google, UKTV y el Museo de Historia Natural de Londres. En 2019, la empresa fue adquirida por ByteDance.
= MorpheuS =
MorpheuS es un proyecto de investigación de Dorien Herremans y Elaine Chew en la Universidad Queen Mary de Londres, financiado por un proyecto de la Unión Europea Marie Skłodowská-Curie. El sistema utiliza un enfoque de optimización basado en un algoritmo de búsqueda de vecindad variable para transformar piezas de plantilla existentes en nuevas piezas con un nivel de tensión tonal que cambia dinámicamente a lo largo de la pieza. Este enfoque de optimización permite la integración de una técnica de detección de patrones para reforzar la estructura a largo plazo y los temas recurrentes en la música generada. Las piezas compuestas por MorpheuS han sido interpretadas en conciertos tanto en Stanford como en Londres.
= AIVA =
Creado en febrero de 2016, en Luxemburgo, AIVA es un programa que produce bandas sonoras para cualquier tipo de medio. Los algoritmos detrás de AIVA se basan en arquitecturas de aprendizaje profundo. AIVA también ha sido utilizado para componer una canción de rock titulada "On the Edge", así como una canción pop titulada "Love Sick" en colaboración con la cantante Taryn Southern, para la creación de su álbum de 2018 "I am AI".
= Google Magenta =
El equipo de Magenta de Google ha publicado varios aplicaciones y documentos técnicos de IA musical desde su lanzamiento en 2016. En 2017 lanzaron el algoritmo NSynth y el conjunto de datos, y un instrumento musical de hardware de código abierto diseñado para facilitar a los músicos el uso del algoritmo. El instrumento fue utilizado por artistas notables como Grimes y YACHT en sus álbumes. En 2018, lanzaron una aplicación de improvisación de piano llamada Piano Genie. Esto fue seguido por Magenta Studio, una suite de 5 plugins MIDI que permiten a los productores de música elaborar sobre música existente en su DAW. En 2023, su equipo de aprendizaje automático publicó un documento técnico en GitHub que describe MusicLM, un generador de texto a música privado que desarrollaron.
= Riffusion =
= Spike AI =
Spike AI es un plugin de audio basado en IA, desarrollado por Spike Stent en colaboración con su hijo Joshua Stent y su amigo Henry Ramsey, que analiza pistas y proporciona sugerencias para aumentar la claridad y otros aspectos durante la mezcla. La comunicación se realiza mediante un chatbot entrenado con datos personales de Spike Stent. El plugin se integra en estaciones de trabajo de audio digital (DAW).
Aplicaciones musicales
La inteligencia artificial puede influir en cómo los productores crean música proporcionando reiteraciones de una pista que sigan un impulso dado por el creador. Estos impulsos permiten a la IA seguir un estilo que el artista está tratando de lograr. La IA también se ha visto en el análisis musical, donde se ha utilizado para la extracción de características, el reconocimiento de patrones y las recomendaciones musicales. Se han desarrollado nuevas herramientas impulsadas por IA para ayudar a generar composiciones originales de música, como AIVA (Artificial Intelligence Virtual Artist) y Udio. Esto se hace proporcionando a un modelo de IA datos de música existente y analizando los datos utilizando técnicas de aprendizaje profundo para generar música en muchos géneros, como música clásica o música electrónica.
Consideraciones éticas y legales
Varios músicos como Dua Lipa, Elton John, Nick Cave, Paul McCartney y Sting han criticado el uso de IA en música y están instando al gobierno del Reino Unido a actuar en este asunto. Otro ejemplo de esta protesta es el álbum en silencio Is This What We Want? de 2025.
Algunos artistas han alentado el uso de IA en música, como Grimes.
Mientras que es útil para generar nueva música, desde que la IA comenzó a hacer música, han surgido varios problemas. Algunas de las principales preocupaciones incluyen cómo se verá afectada la economía con la IA tomando el control de la producción musical, quién es realmente el propietario de la música generada por IA y una menor demanda por composiciones musicales hechas por humanos. Algunos críticos argumentan que la IA disminuye el valor de la creatividad humana, mientras que los defensores la ven como una herramienta aumentativa que amplía las posibilidades artísticas en lugar de reemplazar a los músicos humanos.
Además, se han planteado preocupaciones sobre la capacidad de la IA para homogenizar la música. Los modelos impulsados por IA a menudo generan composiciones basándose en tendencias existentes, lo que algunos temen podría limitar la diversidad musical. Para abordar esta preocupación, los investigadores están trabajando en sistemas de IA que integran elementos creativos más sutiles, permitiendo una mayor variación estilística.
Otra preocupación importante sobre la IA en la música es la legislación de derechos de autor. Muchas preguntas se han hecho sobre quién es el propietario de la música generada por IA y las producciones, ya que las leyes de derechos de autor actuales requieren que el trabajo sea autorizado por humanos para ser otorgado protección de derechos de autor. Una solución propuesta es crear leyes híbridas que reconozcan tanto a la inteligencia artificial que generó la creación como a los humanos que contribuyeron a la creación.
En los Estados Unidos, el marco legal actual tiende a aplicar leyes de derechos de autor tradicionales a la IA, a pesar de sus diferencias con el proceso creativo humano. Sin embargo, las salidas musicales generadas completamente por IA no se otorgan protección de derechos de autor. En el compendio de las Prácticas del Registro de Derechos de Autor de los Estados Unidos, la Oficina de Derechos de Autor ha declarado que no otorgará derechos de autor a "obras que carecen de autoría humana" y "la Oficina no registrará obras producidas por una máquina o proceso mecánico que opera aleatoriamente o automáticamente sin alguna entrada o intervención creativa o humana por parte de un autor humano". En febrero de 2022, el Consejo de Revisión de Derechos de Autor rechazó una solicitud de derechos de autor para una obra de arte generada por IA basándose en que "carecía de la autoría humana necesaria para mantener una demanda en derechos de autor". El uso de música con derechos de autor en el entrenamiento de IA también ha sido un tema de controversia. Un ejemplo de esto fue cuando SACEM, una organización profesional de compositores, músicos y editores de música, instó a PozaLabs, una startup de generación de música con IA, a abstenerse de utilizar cualquier música afiliada a ellos para entrenar modelos.
La situación en la Unión Europea (UE) es similar a la de los EE. UU., ya que su marco legal también enfatiza el papel de la participación humana en una obra protegida por derechos de autor. Según la Oficina de Propiedad Intelectual de la Unión Europea y la reciente jurisprudencia del Tribunal de Justicia de la Unión Europea, el criterio de originalidad requiere que la obra sea la creación intelectual propia del autor, que refleje la personalidad del autor evidenciada por las elecciones