Desarrollar software creativo supone un desafío tanto técnico como social. Para seguir avanzando necesitamos aceptar el hecho de que los ordenadores no son humanos. Deberíamos mostrarnos públicamente orgullosos de los artefactos que produce nuestro software. Deberíamos celebrar lo avanzado de las técnicas de la inteligencia artificial que hemos empleado para dotar al software de comportamiento creativo. Y deberíamos ayudar al público en general a apreciar el valor de estas creaciones informáticas mediante la descripción de los métodos que emplea el software para crearlas.
La creatividad parece algo misterioso porque cuando tenemos ideas creativas es muy difícil explicar cómo las hemos tenido y a menudo recurrimos a conceptos imprecisos como «inspiración» e «intuición». El hecho de que no seamos conscientes de cómo se manifiesta una idea creativa no implica necesariamente que no exista una explicación científica. Lo cierto es que no somos conscientes de cómo desempeñamos otras actividades como comprensión del lenguaje, reconocimiento de patrones, etcétera, y sin embargo tenemos técnicas cada vez mejores de inteligencia artificial para replicarlas.
Puesto que nada surge de la nada, debemos comprender que toda obra o idea creativa siempre viene precedida de una trayectoria histórico-cultural, es el fruto de la herencia cultural y de vivencias previas. Tal y como afirma Margaret Boden en su libro Inteligencia artificial y el hombre natural:
Probablemente los pensamientos nuevos que se originan en la mente no son completamente nuevos, porque tienen su raíz en representaciones que ya existían. Por expresarlo de otra manera, el germen de nuestra cultura, todos nuestros conocimientos y experiencias, están detrás de cada idea creativa. Cuanto mayores son los conocimientos y la experiencia, mayores las posibilidades de encontrar una relación inesperada que conduzca a una idea creativa. Si entendemos la creatividad como el resultado de establecer nuevas relaciones entre bloques de conocimiento que ya poseemos, entonces cuantos más conocimientos previos tengamos, mayor será nuestra capacidad de ser creativos.
De acuerdo con esta premisa, una definición operativa y ampliamente aceptada de creatividad sería: «Una idea creativa es una combinación nueva y valiosa de ideas conocidas». En otras palabras, pueden generarse leyes físicas, teoremas, piezas musicales a partir de un conjunto finito de elementos, y por tanto la creatividad es una forma avanzada de resolución de problemas en la que participan la memoria, la analogía, el aprendizaje y el razonamiento sujeto a restricciones, entre otros factores, y por ello susceptible de ser replicada mediante ordenadores.
Este capítulo aborda la posibilidad de lograr creatividad computacional mediante algunos ejemplos de programas informáticos capaces de replicar ciertos aspectos del comportamiento creativo. Por cuestiones de espacio no hemos podido incluir otras aplicaciones interesantes, entre ellas, novela (Gervás 2009), poesía (Montfort et al. 2014), ciencia (Langley et al. 1987) e incluso humor (Ritchie 2009). De modo que el ensayo aborda, con diversos grados de detalle, resultados representativos de algunos logros en los campos de la música y las artes visuales. La razón de centrarnos en estos campos artísticos es que son, con mucho, aquellos en los que la actividad es mayor y los resultados obtenidos son más impresionantes. El capítulo termina con algunas reflexiones sobre la reciente tendencia democratizadora de la creatividad que han traído consigo los procesos de aumento y apoyo a la actividad creadora humana.
Para profundizar en la creatividad computacional en general, recomiendo el número de la AI Magazine dedicado a creatividad computacional (Colton et al. 2009), así como los libros de Boden (1991, 1994, 2009), Dartnall (1994), Partridge y Rowe (1994), Bentley y Corne (2001) y McCormack y D’Inverno (2012).
Creatividad computacional en música
La inteligencia artificial ha desempeñado un papel crucial en la historia de la música por ordenador casi desde sus inicios, en la década de 1950. Sin embargo, hasta época reciente, la mayoría de los esfuerzos se habían centrado en sistemas compositivos y de improvisación y se había prestado poca atención a la interpretación expresiva. En esta sección revisaremos una selección de algunos logros significativos de enfoques de inteligencia artificial para la composición, la interpretación y la improvisación, con especial énfasis en la interpretación de música expresiva.
Componer música
Las investigaciones de Hiller e Isaacson (1958) con el ordenador ILLIAC constituyen el trabajo pionero más conocido de música por ordenador. Su principal resultado es la Suite Illiac, un cuarteto de cuerda compuesto siguiendo el enfoque de resolución de problemas usando una metodología de «generación y prueba». El programa generaba notas de manera pseudoaleatoria mediante cadenas de Markov. Las notas generadas a continuación se testaban mediante reglas compositivas heurísticas de armonía clásica y contrapunto. Solo se conservaban las notas que superaban el test. Si ninguna de las notas generadas satisfacía las reglas, se empleaba un sencillo sistema de retroceso para borrar la composición entera hasta ese punto, y se empezaba un nuevo ciclo. Los objetivos de Hiller e Isaacson excluían todo lo relacionado con expresividad y contenido emocional. En una entrevista (Schwanauer y Levitt 1993), Hiller e Isaacson declararon que, antes de abordar la cuestión de la expresividad había que solucionar problemas más básicos. Creemos que se trata de una observación muy correcta para la década de 1950. Después de este trabajo inicial, muchos otros investigadores han basado sus composiciones por ordenador en las transiciones probabilísticas de Markov, pero también con éxito limitado desde el punto de vista de la calidad melódica. De hecho, los métodos excesivamente influidos por procesos markovianos no están lo suficientemente desarrollados como para producir música de alta calidad de forma consistente.
No todos los primeros trabajos con composición se fundamentan en enfoques probabilísticos. Un buen ejemplo lo constituye la obra de Moorer (1972) sobre generación de melodías tonales. El programa de Moorer generaba melodías simples junto con sus progresiones armónicas subyacentes mediante patrones internos simples de repetición de notas. Este enfoque se basa en simular los procesos compositivos humanos usando técnicas heurísticas en lugar de cadenas probabilísticas markovianas. Levitt (1983) también evitó el uso de probabilidades en el proceso compositivo. Argumenta que «la aleatoriedad tiende a oscurecer antes que a revelar las restricciones musicales necesarias para representar estructuras musicales simples». El trabajo de Levitt se basa en descripciones de estilos musicales libres de restricciones. Desarrolló un lenguaje descriptivo que permite expresar transformaciones de entradas o inputs musicalmente significativas, como progresiones de acordes y líneas melódicas, mediante una serie de relaciones restrictivas que llama «plantillas de estilo». Aplicó este enfoque para describir una simulación de walking bass de jazz tradicional, así como una simulación de ragtime en piano a dos manos.
Los sistemas de Hiller-Isaacson y Moorer se basaban también en enfoques heurísticos. Sin embargo, posiblemente el ejemplo más genuino de uso temprano de técnicas de inteligencia artificial sea el de Rader (1974), que usó programación de inteligencia artificial apoyada en reglas en su generador de rondós (un canon circular al estilo de Frère Jacques). La generación de la melodía y la armonía se basaba en reglas que describían cómo pueden combinarse notas y acordes. El componente de inteligencia artificial más interesante de este sistema son las reglas de aplicabilidad que determinan la aplicabilidad de las reglas generadoras de melodía y acordes, y las medias ponderadas que indican las probabilidades de que se aplique una regla mediante un peso (o ponderación). En esta obra temprana ya se observa un uso de metaconocimiento.
Pioneros de la inteligencia artificial como Herbert Simon o Marvin Minsky también publicaron trabajos de importancia para la música generada por ordenador. Simon y Sumner describen un lenguaje de patrones formales para la música, así como un método de inducción para descubrir patrones más o menos implícitos en obras musicales. Un ejemplo de patrón que puede descubrirse sería: «La sección que abre está en do mayor, va seguida de una sección en dominante y luego da una vuelta a la clave original». Aunque el programa no se terminó, merece la pena señalar que fue uno de los primeros en ocuparse de la importante cuestión de los modelos musicales, un tema que ha sido, y sigue siendo, ampliamente estudiado. Por ejemplo, el uso de modelos basados en gramáticas generativas ha sido, y es, un enfoque interesante y útil de modelos musicales computacionales (Lerdahl y Jackendoff 1983).Marvin Minsky, en su conocido artículo «Música, mente y conocimiento» (Minsky 1981), aborda el aspecto fundamental de «cómo la música se graba en nuestra mente». Aplica sus conceptos de agente y su papel en una sociedad de agentes como posible enfoque para arrojar luz sobre esa cuestión. Por ejemplo, apunta que un agente puede no hacer nada más que reparar en que la música tiene un ritmo particular. Otros agentes pueden percibir pequeños patrones musicales, como repeticiones de un tono, o diferencias, como la misma secuencia de notas tocadas una quinta más aguda, etcétera. Su enfoque también contempla relaciones más complejas dentro de una pieza musical mediante agentes de un orden superior capaces de reconocer fragmentos más largos de música. Es importante aclarar que, en su artículo, Minsky no trata de convencer al lector de la validez de su planteamiento, tan solo apunta a su plausibilidad. Entre los sistemas de composición hay muchos que abordan el problema de la armonización automática usando diversas técnicas de inteligencia artificial. Uno de los primeros trabajos es el de Rothgeb (1969). Creó un programa, SNOBOL, usando una serie de reglas del tipo «si la línea de bajo (bass) de una triada desciende un semitono, entonces a la siguiente nota del bajo le corresponde una sexta». El objetivo principal de Rothgeb no era la armonización automática en sí misma, sino poner a prueba la solidez computacional de dos teorías sobre armonización de dos líneas de bajo del siglo xviii.
Uno de los trabajos más completos sobre armonización es el de Ebcioglu (1993). Desarrolló un sistema experto, CHORAL, para armonizar corales al estilo de Johann Sebastian Bach. A CHORAL se le da una melodía y produce la armonización correspondiente usando reglas heurísticas y restricciones. El sistema se implementó utilizando un lenguaje de programación lógica diseñado por el autor. Un aspecto importante de este trabajo es su uso de conjuntos de primitivas lógicas para representar los distintos puntos de vista de la música (la perspectiva de los acordes, de los intervalos de tiempo, la perspectiva melódica, etcétera). Esto se hizo para resolver el problema de representar grandes cantidades de conocimiento musical complejo.
MUSACT (Bharucha 1993) emplea redes de neuronas artificiales para aprender un modelo de armonía musical. Fue desarrollado con el fin de capturar intuiciones musicales de cualidades armónicas. Por ejemplo, una de las cualidades de un acorde dominante es crear en la audiencia la expectativa del acorde tónico que va a oír a continuación. Los compositores pueden elegir violar estas expectativas en grados diversos. MUSACT es capaz de aprender estas cualidades y generar expectativas de distinto grado en un contexto armónico dado.
En HARMONET (Feulner 1993), el problema de la armonización se afronta usando unas combinaciones de redes de neuronas artificiales y técnicas de satisfacción de restricciones. La red de neuronas aprende lo que se conoce como funcionalidad armónica de los acordes (los acordes pueden tener función tónica, dominante, subdominante, etcétera) y las restricciones se usan para las voces interiores de los acordes. El trabajo de HARMONET se amplió en el sistema MELONET (Hörnel y Degenhardt 1997; Hörnel y Menzel 1998). MELONET usa una red de neuronas artificiales para reproducir estructuras de nivel superior en secuencias melódicas. A partir de una melodía, el sistema inventa una armonización y una variación de estilo barroco de cualquier voz coral. Según los autores, HARMONET y MELONET combinados constituyen un poderoso sistema compositivo que genera variaciones cuya calidad es similar a las de un organista humano experimentado.
Pachet y Roy (1998) también usaron técnicas de satisfacción de restricciones para armonizar. Estas técnicas explotan el hecho de que los conocimientos tanto melódicos como de armonía imponen restricciones a los acordes posibles. La eficacia es, sin embargo, un problema en estos enfoques de satisfacción de restricciones.
En la obra de Sabater et al. (1998), el problema de la armonización se aborda utilizando una combinación de reglas y razonamiento basado en casos. Este enfoque parte de la observación de que la armonización fundamentada solo en reglas suele fracasar porque, en general, «las reglas no hacen la música, es la música la que hace las reglas». Así pues, en lugar de apoyarse únicamente en un conjunto de reglas imperfectas, ¿por qué no aprovechar la fuente de las reglas, es decir, las composiciones mismas? El razonamiento basado en casos permite el uso de ejemplos de composiciones ya armonizadas como casos para armonizaciones nuevas. Este sistema armoniza una melodía dada buscando primero casos similares, ya armonizados; cuando esto falla, busca reglas generales de armonía aplicables. Si no hay ninguna regla aplicable, el sistema falla y retrocede a la decisión anterior. Los experimentos han demostrado que la combinación de reglas y casos produce muchos menos fallos a la hora de encontrar una armonización adecuada que si se usa solo una de las dos técnicas. Otra ventaja del enfoque basado en casos es que cada pieza nueva correctamente armonizada puede memorizarse y difundirse como nuevo ejemplo para armonizar otras melodías; es decir, se da un proceso de aprendizaje por experiencia. De hecho, cuantos más ejemplos tenga el sistema, con menor frecuencia necesita recurrir a las reglas y, por tanto, falla menos. MUSE (Schwanauer 1993) también es un sistema de aprendizaje que amplía una serie inicialmente pequeña de restricciones de conducción de voces o voice leading aprendiendo una serie de reglas de doblado y conducción de voces. Lo hace reordenando la agenda de reglas y fragmentando las reglas que satisfacen las restricciones de conducción de voces. MUSE consiguió aprender algunas de las reglas estándar de conducción de voces incluidas en manuales tradicionales de música tonal.
Morales, Manzanares et al. (2001) desarrollaron un sistema llamado SICIB capaz de componer música utilizando movimientos corporales. Este sistema usa datos de sensores que lleva un bailarín y aplica reglas de inferencia para emparejar sus gestos con música a tiempo real.
Sin duda, el trabajo más conocido sobre composición por ordenador que usa inteligencia artificial es el proyecto EMI de David Cope (Cope 1987, 1990), centrado en la simulación de estilos de compositores diversos. Ha compuesto con éxito música al estilo de Cope, Mozart, Palestrina, Albinoni. Brahms, Debussy, Bach, Rachmáninov, Chopin, Stravinski y Bartók. Busca patrones recurrentes en varias (dos al menos) obras de un compositor. Los patrones descubiertos se llaman signaturas. Puesto que las signaturas varían según su localización, EMI usa una de las obras de un compositor a modo de guía para fijarlas en sus ubicaciones adecuadas a la hora de componer una pieza nueva. Para componer los motivos musicales entre signaturas, EMI recurre a un analizador de reglas compositivas que identifica las restricciones usadas por el compositor en sus obras. Este analizador tiene en cuenta elementos musicales, como indicaciones para la conducción de notas, uso de notas repetidas, etcétera, y las representa como un modelo estadístico de las obras analizadas. El programa sigue este modelo para componer los motivos que han de insertarse en los espacios vacíos entre signaturas. Para insertarlos de modo correcto, EMI tiene que solucionar problemas como vincular las partes inicial y final de las signaturas a los motivos que las rodean evitando anomalías estilísticas, manteniendo movimientos de voz, manteniendo las voces dentro de un registro vocal, etcétera. La inserción correcta se consigue usando una Red de Transición Aumentada (Woods 1970). Los resultados, aunque no perfectos, sí son coherentes con el estilo del compositor que se busca imitar.
Sintetizar música expresiva
Una de las principales limitaciones de la música generada por ordenador ha sido su falta de expresividad, es decir, su falta de «gesto». El gesto es como los músicos llaman a los matices de interpretación que son únicos y sutilmente interpretativos. En otras palabras, creativos.
Uno de los primeros intentos de abordar la expresividad en la música fue el de Johnson (1992), quien desarrolló un sistema experto para determinar el tempo y la articulación necesarios para interpretar las fugas del Clave bien temperado de Bach. Las reglas se obtenían de dos intérpretes humanos expertos. El resultado da el valor del tempo base y una serie de indicaciones interpretativas acerca de la duración y articulación de las notas que debe seguir el intérprete humano. Los resultados coinciden en gran medida con las instrucciones que aparecen en ediciones comentadas y muy conocidas del Clave bien temperado. La principal limitación de este sistema es su falta de generalidad, porque solo funciona bien con fugas compuestas en cuatro por cuatro. Para otros compases, las reglas tendrían que ser distintas. Otra consecuencia obvia de esta falta de generalidad es que las reglas solo sirven para fugas de Bach.
El trabajo del grupo KTH de Estocolmo (Friberg, 1995; Friberg et al. 1998, 2000; Bresin 2001) es uno de los intentos a largo plazo más conocidos de desarrollar sistemas de interpretación. Su último sistema, Director Musices, incorpora reglas para tempo, transformaciones de dinámica y de articulación a música generada por MIDI. Dichas reglas se infieren a partir de conocimientos musicales teóricos y también de la experiencia, sobre todo usando el enfoque llamado de análisis por síntesis. Las reglas se dividen en tres clases principales: reglas de diferenciación, que resaltan las diferencias entre escalas tonales; reglas de agrupamiento, que indican qué tonos deben ir juntos; y reglas de conjunto, que sincronizan las distintas voces de un conjunto o ensemble.
Canazza et al. (1997) desarrollaron un sistema para analizar cómo las intenciones expresivas de un músico se reflejan en la interpretación. El análisis revela dos dimensiones expresivas distintas, una relacionada con la energía (dinámica) y la otra relacionada con la cinética (rubato) de una pieza. Los autores crearon, asimismo, un programa para generar interpretaciones expresivas de acuerdo a estas dos dimensiones.
El trabajo de Dannenberg y Derenyi (1998) también constituye un buen ejemplo de transformaciones de articulación usando reglas construidas manualmente. Desarrollaron un sintetizador de trompeta que combina un modelo físico con un modelo interpretativo. La función del segundo es generar información de control para el modelo físico mediante una serie de reglas extraídas manualmente del análisis de unas colecciones de grabaciones de interpretaciones humanas.
Otra manera de enfocar la transformación del tempo y la dinámica es recurriendo a técnicas de redes de neuronas artificiales. En los trabajos de Bresin (1998) se implementa un sistema que combina reglas de decisiones simbólicas con cadenas de neuronas para simular el estilo de pianistas de carne y hueso. Los resultados de las redes de neuronas expresan desviaciones de tiempo y volumen. Estas redes de neuronas artificiales amplían la red estándar prealimentada con el algoritmo de propagación hacia atrás con conexiones de retroalimentación de las neuronas de salida (output) a las de entrada (input).
Podemos ver que, a excepción del trabajo del grupo KTH, que contempla tres recursos expresivos, los otros sistemas se limitan a dos, que pueden ser el rubato y la dinámica, o el rubato y la articulación. Esta limitación tiene que ver con el empleo de reglas. De hecho, el principal problema de los enfoques basados en reglas es que es muy difícil encontrar reglas generales suficientes para recoger la variedad presente en distintas interpretaciones de la misma pieza por el mismo músico e incluso para la variedad dentro de una misma interpretación (Kendall y Carterette 1990). Además, los diversos recursos expresivos interactúan entre sí. Es decir, las reglas para la dinámica cambian solo cuando también se tiene en cuenta el rubato. Obviamente, debido a esta interdependencia, cuantos más recursos expresivos se intenten desarrollar, más difícil se vuelve encontrar las reglas apropiadas.
Nosotros hemos creado un sistema de razonamiento basado en casos llamado SaxEx (Arcos et al. 1998), un programa informático capaz de sintetizar solos de saxo tenor de baladas de jazz de alta calidad expresiva basados en casos de solos interpretados por humanos. Como se ha dicho antes, los enfoques previos de dicho problema basados en casos no podían manejar más de dos parámetros expresivos (como dinámica y rubato), porque es demasiado complicado encontrar reglas lo bastante generales como para que capten la variedad presente en interpretaciones expresivas. Además, los distintos parámetros expresivos interactúan entre sí, dificultando aún más encontrar reglas apropiadas que tengan en cuenta estas interacciones.
Con el razonamiento basado en casos hemos demostrado que es posible tener en cuenta los cinco parámetros expresivos más importantes: dinámica, rubato, vibrato, articulación y ataque de las notas. Para ello, SaxEx usa una memoria de casos que contiene ejemplos de interpretaciones humanas analizadas mediante técnicas de síntesis por modelado de espectro (o SMS) y conocimientos musicales de fondo. La partitura de la pieza a interpretar también la proporciona el sistema. La esencia del método reside en analizar cada nota de entrada determinando (mediante el conocimiento musical de fondo) su papel en la frase musical a la que pertenece, identificar y recuperar (de la base de casos de interpretaciones humanas) notas con papeles similares y, por último, transformar la nota de salida de modo que sus propiedades expresivas (dinámica, rubato, vibrato, articulación y ataque) se correspondan con los de la nota recuperada más similar. Cada nota de la base de casos tiene anotaciones referidas a su papel en la frase musical a la que pertenece, así como a sus valores expresivos. Es más, los casos no solo contienen información sobre cada nota individual, sino que incluyen también conocimiento contextual en lo que respecta a la frase. Por tanto, los casos en este sistema tienen una representación compleja centrada en el objeto.
Aunque limitados a interpretaciones monofónicas, los resultados son muy convincentes y demuestran que el razonamiento basado en casos es una poderosa manera de usar directamente los conocimientos de un intérprete humano que están implícitos en su manera de tocar, en lugar de tratar de hacer explícitos dichos conocimientos mediante reglas. Se pueden escuchar algunos ejemplos en http://www.iiia.csic.es/%7Earcos/noos/Demos/Example.html (Arcos y López de Mántaras 2001; López de Mántaras y Arcos 2002; López de Mántaras y Arcos 2012), donde se describe este sistema detalladamente.
A partir del trabajo realizado para SaxEx, desarrollamos TempoExpress (Grachten et al. 2004), un sistema de razonamiento basado en casos para aplicar transformaciones musicalmente aceptables de tempo a grabaciones monofónicas de interpretaciones musicales. TempoExpress cuenta con una rica descripción de la expresividad musical de las interpretaciones que incluye no solo desviaciones de tiempo o notas interpretadas, también representa tipos de expresividad más rigurosos, como ornamentación, consolidación y fragmentación de notas. Dentro del proceso de transformación del tempo, la expresividad de la interpretación se ajusta de forma que el resultado suene natural para el nuevo tempo. Se usa una base de casos de melodías previamente interpretadas para inferir la expresividad más apropiada. El problema de cambiar el tempo de una interpretación musical no es tan trivial como pueda parecer, porque requiere gran cantidad de conocimientos musicales y de pensamiento creativo. De hecho, cuando un músico interpreta una pieza con distintos tempos, las interpretaciones no son versiones de distinta duración las unas de las otras (como si la misma interpretación se tocara con distintas velocidades). Con los cambios de tempo se producen variaciones de expresión musical (Desain y Honing 1993). Estas variaciones no solo afectan la cadencia de las notas, también pueden suponer, por ejemplo, el añadido o la supresión de ornamentaciones o la consolidación/fragmentación de notas. Aparte del tempo, hay otros factores de dominio específico que parecen desempeñar un papel importante en la manera de interpretar una melodía, por ejemplo, la métrica y estructura de las frases. La transformación del tempo es una de las tareas de procesamiento posterior que se hacen de forma manual en los laboratorios de música. Automatizar este proceso puede ser, por tanto, de interés comercial.
Otras aplicaciones del razonamiento basado en casos para la música expresiva son las de Suzuki et al. (1999) y las de Toboudic y Widmer (2003, 2004). Suzuki et al. (1999) usan ejemplos de casos de interpretaciones expresivas para generar interpretaciones múltiples de una pieza dada con variada expresión musical, sin embargo manejan únicamente dos parámetros expresivos. Tobudic y Windmer (2003) aplican aprendizaje basado en ejemplos también para abordar el problema de generar interpretaciones expresivas. Su enfoque se usa para complementar un modelo basado en reglas en notas con cierta capacidad predictiva en fraseo musical. Más concretamente, el componente de aprendizaje basado en casos reconoce patrones de interpretación de un concertista de piano a nivel de frase y aprende cómo aplicarlos a nuevas piezas por analogía. Este enfoque ha generado algunos resultados interesantes pero, tal y como reconocen los autores, no fue convincente debido a la limitación que supone usar una representación de las frases del tipo atributo-valor. Una representación tan simple no puede tener en cuenta información estructural relevante de la pieza, tanto en el ámbito de subfrase como de interfrase. En un artículo posterior, Tobudic y Widmer (2003) lograron salvar en parte estas limitaciones utilizando una representación de frases relacional.
Widmer et al. (2009) describen un programa informático que aprende a interpretar música de piano clásica de manera expresiva. El enfoque es de uso intensivo de datos y está basado en el aprendizaje estadístico. Interpretar música de manera expresiva requiere sin duda un alto grado de creatividad, pero los autores adoptan una postura muy pragmática ante la cuestión de si se puede afirmar que su programa es o no creativo y afirman que «la creatividad está en el ojo del espectador». De hecho, el objetivo principal de los autores es investigar y entender mejor la interpretación musical como comportamiento creativo humano usando métodos de inteligencia artificial.
La posibilidad de que un ordenador interprete de manera expresiva es un componente fundamental de los llamados hiperinstrumentos. Son instrumentos diseñados para aumentar el sonido musical con unos matices idiosincráticos que le den expresividad humana y una sonoridad rica y viva. Para hacer un hiperinstrumento, se coge un instrumento tradicional, como por ejemplo un chelo, y se conecta a un ordenador mediante sensores electrónicos en el mástil y el arco, se equipa con sensores también la mano que sostiene el arco y se programa el ordenador con un sistema parecido a SaxEx, que consigue analizar la manera en que el humano interpreta la pieza a partir de la partitura, el conocimiento musical y las lecturas de los sensores. Los resultados de este análisis permiten al hiperinstrumento desempeñar un papel activo, alterando aspectos como el timbre, el tono, el ritmo y el fraseo, así como generar una voz acompañante. En otras palabras, se obtiene un instrumento capaz de hacerse su propio acompañamiento. Tod Machover, del Media Lab del Massachusetts Institute of Technology, desarrolló un hiperchelo y el gran chelista Yo-Yo Ma lo estrenó tocando una pieza compuesta por Tod Machover titulada Begin Again Again (Volver a empezar otra vez) en el festival Tanglewood hace varios años.
Improvisar música
La improvisación musical es un proceso creativo muy complejo que también ha sido simulado informáticamente. A menudo se denomina «composición sobre la marcha» y es, por tanto, desde el punto de vista creativo, más compleja que la composición y probablemente la más complicada de las tres actividades musicales examinadas aquí. Uno de los primeros trabajos sobre improvisación de los ordenadores es el sistema Flavors Band, de Fry (1984). Flavors Band es un lenguaje procedimental embebido en LISP que sirve para especificar estilos de jazz y de música popular. Su representación procedimental permite generar partituras en un estilo preespecificado haciendo cambios en las acotaciones de la partitura de entrada. Permite combinar funciones aleatorias y restricciones musicales (acordes, modos, etcétera) para generar improvisaciones. El resultado más notable de Flavors Band fue un interesante arreglo de la línea de bajo y un solo improvisado de la composición de John Coltrane Giant Steps.
GenJam (1994) desarrolla una simulación de músico de jazz aprendiendo a improvisar mediante un algoritmo genético. Un humano hace el papel de función de aptitud evaluando las improvisaciones del músico simulado. Papadopoulos y Wiggins (1998) también usaron un algoritmo genético para improvisar melodías de jazz a partir de una progresión de acordes dada. Al contrario de GenJam, su programa incluye una función de aptitud que evalúa de manera automática la calidad de las improvisaciones teniendo en cuenta ocho aspectos distintos de la melodía improvisada, entre ellos, contorno melódico, duración de las notas o distancias interválicas entre notas.
Franklin (2001) emplea redes de neuronas artificiales recurrentes para aprender a improvisar solos de jazz a partir de transcripciones de improvisaciones de solos de jazz del saxofonista Sonny Rollins. Se usa un algoritmo de aprendizaje reforzado para afinar el comportamiento de las redes neuronales. La función de recompensa evalúa los solos creados por el sistema siguiendo criterios de armonía jazzística y en relación al estilo de Rollins.
La falta de interactividad con un improvisador humano presente en los enfoques anteriores ha sido criticada (Thom 2001) con el argumento de que eliminan al músico de la creación física y espontánea de la melodía. Aunque es cierto que la característica fundamental de la improvisación es la creación espontánea y a tiempo real de una melodía, no lo es menos que la interactividad no era uno de los objetivos de estos enfoques, y aun así consiguieron generar improvisaciones muy interesantes. Thom (2001), con su sistema Band-out-of-a-Box (BoB), aborda el problema de improvisación interactiva a tiempo real entre BoB y un intérprete humano. En otras palabras, BoB es un «músico acompañante» para improvisación a tiempo real. El enfoque de Thom sigue la teoría psicológica de improvisación en jazz de Johnson-Laird (1991). Esta teoría se opone a la opinión según la cual improvisar consiste en reordenar y transformar licks prememorizados dentro de las restricciones de la armonía. En lugar de ello, propone un modelo estocástico basado en un algoritmo voraz en un espacio restringido de notas posibles de interpretar en un momento de tiempo determinado. La gran contribución de Thom es que su sistema aprende estas restricciones, y con ellas el modelo estocástico, del intérprete humano mediante un algoritmo de agrupamiento probabilístico no supervisado. El modelo aprendido se usa para extraer solos y convertirlos en modos de interpretar específicos para cada usuario. Los parámetros de ese modelo aprendido se incorporan a continuación al proceso estocástico, que genera los solos en respuesta a solos de cuatro compases del improvisador humano. BoB ha sido muy bien valorado, una vez puestos a prueba sus acompañamientos de solos en dos estilos diferentes, el del saxofonista Charlie Parker y el del violinista Stéphane Grapelli.
Dannenberg (1993) desarrolló un notable sistema de improvisación interactiva. La diferencia respecto al de Thom es que en el sistema de Dannenberg la generación de música viene impulsada principalmente por los objetivos del compositor, en lugar de los del intérprete. El sistema de improvisación de Wessel (1998) está más cerca del de Thom en el sentido de que también da importancia al acompañamiento y realce de las improvisaciones en directo.
Creatividad computacional en las artes visuales
AARON es un sistema robótico, desarrollado a lo largo de muchos años por el artista y programador Harold Cohen (1995), capaz de coger un pincel con su brazo robótico y pintar en un lienzo sin ayuda. Pinta personas en un jardín botánico no solo copiando un dibujo existente, sino generando tantos dibujos únicos sobre este tema como sean necesarios. AARON nunca ha visto a una persona paseando por un jardín botánico, pero se le han proporcionado conocimientos sobre posturas corporales y plantas mediante reglas. Los conocimientos de AARON y la manera en que los usa no son como el conocimiento que nosotros, los humanos, tenemos y usamos, porque el conocimiento humano se basa en experimentar el mundo, y las personas experimentan el mundo con sus cuerpos, sus cerebros, sus sistemas reproductivos, cosas que no tienen los ordenadores.
Sin embargo, al igual que ocurre con los humanos, los conocimientos de AARON han sido adquiridos de forma acumulativa. Una vez que entiende el concepto de racimo de hojas, por ejemplo, puede hacer uso de ese conocimiento siempre que lo necesite. Para AARON, las plantas existen en términos de tamaño, grosor de las ramas en relación a la altura, el ritmo al que las ramas adelgazan a medida que crecen, el grado de ramificación, el ángulo al que brotan las ramas, etcétera. Los mismos principios sirven para la formación de hojas y de racimos. Manipulando estos factores, AARON es capaz de generar un amplio espectro de tipos de plantas y nunca dibujará la misma planta dos veces, ni siquiera cuando dibuje una serie de plantas de la misma especie. Además, AARON debe saber en qué consiste el cuerpo humano, cuáles son sus diferentes partes y su tamaño en relación con las otras. También tiene que saber cómo se articulan las partes del cuerpo y cuáles son las clases y rango de movilidad de cada articulación. Por último, y puesto que un cuerpo que se mueve de forma coherente y no es una mera colección de partes que se mueven independientemente, AARON necesita saber algo sobre cómo se coordinan los movimientos corporales; por ejemplo, lo que tiene que hacer el cuerpo para mantener el equilibrio.
Conceptualmente esto no es tan difícil como podría parecer, al menos para posturas erguidas con un pie o dos pies en el suelo. Es solo cuestión de mantener el centro de gravedad sobre la base y, cuando sea necesario, usar los brazos para recuperar una postura de equilibrio. También posee conocimientos sobre obliteración, de forma que un cuerpo humano parcialmente tapado puede tener, por ejemplo, solo un brazo y/o una pierna visibles, pero AARON sabe que las personas suelen tener dos brazos y dos piernas y, por eso, cuando no las tapa algo siempre dibujará dos extremidades de cada. Esto significa que AARON no puede «violar» reglas y nunca «imaginará» la posibilidad de dibujar humanos con una sola pierna, por ejemplo, u otras formas de abstracción. En consecuencia, la creatividad de AARON es muy limitada y está muy lejos de la humana. No obstante, sus pinturas han sido expuestas en la Tate Modern de Londres y el Museo de Arte Moderno de San Francisco. En determinados sentidos, por tanto, AARON supera una suerte de test de Turing de creatividad, puesto que sus obras tienen calidad para ser expuestas junto con las de algunos de los mejores artistas humanos.
The Painting Fool, de Simon Colton (Colton et al. 2015), es mucho más autónomo que AARON. Aunque el software no aplica pintura físicamente en un lienzo, simula digitalmente numerosos estilos, desde el collage a las pinceladas. En palabras de Colton:
The Painting Fool precisa solo instrucciones mínimas y puede producir sus propios conceptos buscando material en línea. El software realiza sus propias búsquedas y se desplaza por sitios web de medios sociales. La idea es que este enfoque le permita producir un arte que comunique algo al espectador porque esencialmente está dibujando sobre experiencias humanas, sobre cómo actuamos, nos sentimos y discutimos en la web.
Por ejemplo, en 2009, The Painting Fool produjo su propia interpretación de la guerra en Afganistán a partir de una historia en los periódicos. El resultado es una yuxtaposición de ciudadanos afganos, explosiones y tumbas de víctimas de la guerra.
Otros ejemplos de creatividad computacional aplicada a la pintura y a otras artes visuales son los trabajos de Karl Sims y Jon McCormack. «Reaction Diffusion Media Wall» (Muro de medios reacción-difusión) (Sims 2016) se basa en la simulación interactiva de agentes químicos que reaccionan y se difunden para crear patrones dinámicos emergentes de acuerdo a las ecuaciones de reacción-difusión que gobiernan la morfogénesis biológica. Este trabajo está expuesto en el Museo de las Ciencias de Boston. Trabajos anteriores de Karl Sims incluyen la aplicación de técnicas informáticas avanzadas para desarrollar imágenes de forma interactiva con su sistema Genetics Images (Sims 1994).
Jon McCormack también explora cómo podrían aplicarse con éxito los procesos biológicos en su proyecto «Design After Nature» (Diseñar a partir de la naturaleza) (McCormack 2014). En otro proyecto, Creative Ecosystems, examina conceptos y metáforas de ecosistemas biológicos (McCormack y D’Inverno 2012) como medio de realzar la creatividad humana en las artes digitales.
Hay muchos más ejemplos relacionados con las artes visuales. Los mencionados aquí no son solo un conjunto representativo sino, en mi opinión, también las contribuciones más importantes en su campo.
Apoyar y aumentar la creatividad humana o la democratización de la creatividad
¿Podemos usar la inteligencia artificial para apoyar la creatividad y los descubrimientos humanos? Una nueva tendencia conocida como creación asistida tiene consecuencias importantes en la creatividad. Por una parte, plataformas colaborativas como la desarrollada en el marco del proyecto europeo PRAISE para aprender música (Yee-king y D’Inverno 2014) facilitan la adquisición de nuevas destrezas creativas. PRAISE es una plataforma de aprendizaje basada en redes sociales que incluye humanos y agentes de software inteligente que proporcionan feedback a un estudiante de música sobre composición, arreglos e interpretación. Los estudiantes suben sus soluciones a una unidad didáctica proporcionada por un tutor (sobre composiciones, arreglos o interpretaciones). A continuación, los agentes de software, así como compañeros estudiantes y tutores, analizan esas soluciones y proporcionan feedback. Por ejemplo, en el caso de una composición musical, el agente puede decir: «Tu modulación suena muy bien, pero podrías tratar de subir una tercera mayor en los compases del 5 al 8».
En el caso de interpretaciones, otros agentes de software inteligente comparan las de los estudiantes con una previamente grabada por el tutor cuando subió la unidad didáctica a la plataforma. Una cámara captura los movimientos del estudiante y los agentes de software también proporcionan feedback sobre posibles posturas incorrectas. Esta clase de herramientas que aceleran el tiempo de adquisición de destrezas conducen a un fenómeno llamado «democratización de la creatividad».
Ya en 1962, Douglas Engelbart (Engelbart 1962) escribió sobre una «máquina de escribir que permitiría usar un nuevo procedimiento de escritura de textos […] Permite integrar las ideas con mayor facilidad y por tanto reconducir la creatividad de manera más continua». Engelbart estaba prediciendo no solo la creatividad individual aumentada, también quería aumentar la inteligencia colectiva y la creatividad de grupos mejorando la colaboración y la capacidad de resolución de problemas en grupo.
Una idea básica es que la creatividad es un proceso social que puede aumentarse mediante tecnología. Al proyectar estas ideas hacia el futuro, podríamos imaginar un mundo donde la creatividad es altamente accesible y (casi) cualquier persona puede escribir como los grandes escritores, pintar como los grandes maestros, componer música de alta calidad e incluso descubrir nuevas formas de expresión creativa. Para alguien que no tenga una destreza creativa especial, adquirirla mediante sistemas de creación asistida supone un empoderamiento importante. Aunque este escenario futurista es aún ficción pura, ya existen varios ejemplos de creación asistida. Uno de los más interesantes es el sistema de percusión asistida desarrollado por el Georgia Institute of Technology (Bretan y Weinberg 2016). Consiste en un brazo robótico que permite a los bateristas tocar con tres manos. El «brazo inteligente», de 61 centímetros de largo, puede fijarse al hombro de un músico. Responde a gestos humanos y a la música que oye. Cuando el baterista toca el charles, por ejemplo, el brazo robótico toca los platillos. Cuando el percusionista se pasa al tambor, el brazo mecánico cambia al tomtom.
Otro resultado de gran interés en creatividad asistida es la transferencia de estilo musical y armonía, de género a género, desarrollado en el SONY Computer Lab en París (Martín et al. 2015; Papadopoulos et al. 2016), que ayuda a compositores a armonizar una pieza musical en un género determinado de acuerdo al estilo de otro completamente distinto. Por ejemplo, a armonizar un estándar de jazz al estilo de Mozart.
Conclusiones: ¿Creatividad aparente o real?
Margaret Boden señaló que incluso si un ordenador inteligente artificialmente llegara a ser tan creativo como Bach o Einstein, para muchos sería solo creativo en apariencia y no en realidad. Coincido plenamente con ella en las dos razones que da para este rechazo, a saber: la falta de intencionalidad y nuestra renuencia a dar cabida en nuestra sociedad a agentes artificialmente inteligentes. La falta de intencionalidad es consecuencia directa del argumento de la habitación china (Searle 1980), según el cual los programas informáticos solo pueden realizar manipulación sintáctica de símbolos, pero son incapaces de dotarlos de contenido semántico. Por lo general, se admite que la intencionalidad puede explicarse en términos de relaciones causales. Sin embargo, también es cierto que los programas informáticos existentes carecen de las conexiones causales relevantes necesarias para mostrar intencionalidad, pero tal vez inteligencias artificiales futuras, posiblemente antropomórficas, «encarnadas», es decir, agentes equipados no solo con software avanzado, sino también con distintas clases de sensores complejos que les permitirán interactuar con el entorno, puedan contener conexiones causales suficientes para dotar de significado a símbolos y tener intencionalidad.
Respecto al rechazo social, las razones de que seamos tan reacios a aceptar que agentes no biológicos (o incluso biológicos, como en el caso de Nonja, un pintor vienés de veinte años cuyos cuadros abstractos fueron expuestos y admirados en galerías de arte, pero cuya obra se devaluó después de saberse que era un orangután del zoo de Viena) puedan ser creativos es que no tienen cabida natural en nuestra sociedad de seres humanos y la decisión de aceptarlos tendría consecuencias sociales de gran calado. Por tanto, es mucho más fácil decir que parecen ser inteligentes, creativos, etcétera, en lugar de decir que lo son. En una palabra, es un problema moral, no científico. Una tercera razón para rechazar la creatividad de los programas informáticos es que no son conscientes de sus logros. Es cierto que las máquinas no tienen conciencia, y posiblemente nunca tendrán pensamiento consciente, pero la falta de consciencia no es una razón fundamental para negar el potencial para la creatividad, ni siquiera la inteligencia. Después de todo, los ordenadores no serían los primeros creadores inconscientes, la evolución es el primer ejemplo, tal como señala brillantemente Stephen J. Gould (1996):«Si la creación exige un creador visionario, entonces ¿cómo logra la evolución ciega construir cosas nuevas tan espléndidas como nosotros mismos?».
Descargar
· Nota del autor
Esta investigación ha sido subvencionada en parte por la beca 2014-SGR-118 de la Generalitat de Catalunya.
Bibliografía
— Arcos, J. L. y López de Mántaras, R., «An Interactive Case-Based Reasoning Approach for Generating Expressive Music», en Applied Intelligence, vol. 14, n.o 1, 2001, pp. 115-129.
— Arcos, J. L., López de Mántaras, R. y Serra, X., «SaxEx: A Case-Based Reasoning System for Generating Expressive Musical Performances», en Journal of New Music Research, vol. 27, n.o 3, 1998, pp. 194-210.
— Bentley, P. J. y Corne, D. W. (eds.), Creative Evolutionary Systems, Burlington, Massachusetts, Morgan Kaufmann, 2001.
— Bharucha, J., «MUSACT: A Connectionist Model of Musical Harmony», en Schwanauer, S. M. y Levitt, D. A. (eds.), Machine Models of Music, Cambridge, Massachusetts, The MIT Press, 1993, pp. 497-509.
— Biles, J. A., «GenJam: A Genetic Algorithm for Generating Jazz Solos», en Proceedings of the 1994 International Computer Music Conference, San Francisco, California, International Computer Music Association, 1994.
— Boden, M., The Creative Mind: Myths and Mechanisms, Nueva York, Basic Books, 1991.
— Boden, M. (ed.), Dimensions of Creativity, Cambridge, Massachusetts, The MIT Press, 1994.
— Boden, M., «Computers Models of Creativity», en AI Magazine, vol. 30, n.o 3, 2009, pp. 23-34.
— Bresin, R., «Artificial Neural Networks Based Models for Automatic Performance of Musical Scores», en Journal of New Music Research, vol. 27, n.o 3, 1998, pp. 239-270.
— Bresin, R., «Articulation Rules for Automatic Music Performance», en Proceedings of the 2001 International Computer Music Conference, San Francisco, California, International Computer Music Association, 2001.
— Bretan, M. y Weinberg, G., «A Survey of Robotic Musicianship», en Communications of the ACM, vol. 59, n.o 5, 2016, pp. 100-109.
— Canazza, S., De Poli, G., Roda, A. y Vidolin, A., «Analysis and Synthesis of Expressive Intention in a Clarinet Performance», en Proceedings of the 1997 International Computer Music Conference, San Francisco, California, International Computer Music Association, 1997, pp. 113-120.
— Cohen, H., «The Further Exploits of Aaron, Painter», en Stanford Humanities Review, vol. 4, n.o 2, 1995, pp. 141-158.
— Colton, S., López de Mántaras, R. y Stock, O., «Computational Creativity: Coming of Age», en AI Magazine (número especial), vol. 30, n.o 3, 2009, pp. 11-14.
— Colton, S., Halskov, J., Ventura, D., Gouldstone, I., Cook, M. y Pérez-Ferrer, B., «The Painting Fool Sees! New Projects with the Automated Painter», en Congreso internacional sobre creatividad computacional, 2015, pp. 189-196.
— Cope, D., «Experiments in Music Intelligence», en Proceedings of the 1987 International Computer Music Conference, San Francisco, California, International Computer Music Association, 1987.
— Cope, D., «Pattern Matching as an Engine for the Computer Simulation of Musical Style», en Proceedings of the 1990 International Computer Music Conference, San Francisco, California, International Computer Music Association, 1990.
— Dannenberg, R. B., «Software Design for Interactive Multimedia Performance», en Interface, vol. 22, n.o 3, 1993, pp. 213-218.
— Dannenberg, R. B. y Derenyi, I., «Combining instrument and performance models for high quality music synthesis», en Journal of New Music Research, vol. 27, n.o 3, 1998, pp. 211-238.
— Dartnall, T. (ed.), Artificial Intelligence and Creativity, Dordrecht, Kluwer Academic Publishers, 1994.
— Desain, P. y Honing, H., «Tempo Curves Considered Harmful», en Kramer, J. D. (ed.), Time in Contemporary Musical Thought, en Contemporary Music Review, vol. 7, n.o 2, 1993.
— Ebcioglu, K., «An Expert System for Harmonizing Four-part Chorales», en Schwanauer, S. M. y Levitt, D. A. (eds.), en Machine Models of Music, Cambridge, Massachusetts, The MIT Press, 1993, pp. 385-401.
— Engelbart, D. C., Augmenting human intellect: A Conceptual Framework, Menlo Park, Stanford Research Institute, octubre de 1962, p. 5.
— Feulner, J., «Neural Networks that Learn and Reproduce Various Styles of Harmonization», en Proceedings of the 1993 International Computer Music Conference, San Francisco, California, International Computer Music Association, 1993.
— Fletcher, P., Haswell, S., Watts, P. y Zhang, X., «Lab-on-a-Chip Micro Reactors for Chemical Synthesis», en Encyclopedia of Nanoscience and Nanotechnology, 2001.
— Franklin, J. A., «Multi-phase Learning for Jazz Improvisation and Interaction», en Proceedings of the Eight Biennial Symposium on Art and Technology, New London, Connecticut, College Center for Arts and Technology, 2001.
— Friberg, A. A., «Quantitative Rule System for Musical Performance» (tesis doctoral inédita), Estocolmo, KTH, 1995.
— Friberg, A., Bresin, R., Fryden, L. y Sunberg, J., «Musical Punctuation on the Microlevel: Automatic Identification and Performance of Small Melodic Units», en Journal of New Music Research, vol. 27, n.o 3, 1998, pp. 271-292.
— Friberg, A., Sunberg, J. y Fryden, L., «Music From Motion: Sound Level Envelopes of Tones Expressing Human Locomotion», en Journal on New Music Research, vol. 29, n.o 3, 2000, pp. 199-210.
— Fry, C., «Flavors Band: A Language for Specifying Musical Style», ١٩٨٤. Reeditado en Schwanauer, S. M. y Levitt, D. A. (eds.), Machine Models of Music, Cambridge, Massachusetts, The MIT Press, 1993, pp. 427-451.
— Gervás, P., «Computational Approaches to Storytelling and Creativity», en AI Magazine, vol. 30, n.o 3, 2009, pp. 49-62.
— Grachten, M., Arcos, J. L. y López de Mántaras, R., «TempoExpress, a CBR Approach to Musical Tempo Transformations», en Funk, P. y González Calero, P. A. (eds.), Actas del VII Congreso Europeo sobre razonamiento Basado en Casos, en Lecture Notes in Artificial Intelligence, vol. 3.155, 2004, pp. 601-615.
— Gould, S. J., «Creating the Creators», en Discover Magazine, octubre de 1996, pp. 42-54.
— Hiller, L. y Isaacson, L., «Musical Composition with a High-speed Digital Computer», 1958. Reeditado en Schwanauer, S. M. y Levitt, D. A. (eds.), Machine Models of Music, Cambridge, Massachusetts, The MIT Press, 1993, pp. 9-21.
— Holmes, B., «Steve Thaler’s “Creativity Machine”», en New Scientist, vol. 2.013, 1996, pp. 22-24.
— Hörnel, D. y Degenhardt, P., «A Neural Organist Improvising Baroque-style Melodic Variations», en Proceedings of the 1997 International Computer Music Conference, San Francisco, California, International Computer Music Association, 1997, pp. 430-433.
— Hörnel, D. y Menzel, W., «Learning Musical Structure and Style with Neural Networks», en Journal on New Music Research, vol. 22, n.o 4, 1998, pp. 44-62.
— Johnson, M. L., «An Expert System for the Articulation of Bach Fugue Melodies», en Baggi, D. L. (ed.), Readings in Computer Generated Music, Los Alamitos, California, IEEE Press, 1992, pp. 41-51.
— Johnson-Laird, P. N., «Jazz Improvisation: A Theory at the Computational Level», en Howell, P., Wesst, R. y Cross, I. (eds.), Representing Musical Structure, Londres y San Diego, Academic Press, 1991.
— Kendall, R. A. y Carterette, E. C, «The Communication of Musical Expression», en Music Perception, vol. 8, n.o 2, 1990, p. 129.
— Langley, P., Simon, H. A., Bradshaw, G. L. y Zytkow, J. M., Scientific Discovery, Computational Explorations of the Creative Mind, Cambridge, Massachusetts, The MIT Press, 1987.
— Lerdahl, F., y Jackendoff, R., «An Overview of Hierarchical Structure in Music», en Music Perception, vol. 1, 1983, pp. 229-252.
— Levitt, D. A., «A Representation for Musical Dialects», en Schwanauer, S. M. y Levitt, D. A. (eds.), en Machine Models of Music, Cambridge, Massachusetts, The MIT Press, 1993, pp. 455-469.
— López de Mántaras, R. y Arcos, J. L., «AI and Music: From Composition to Expressive Performance», en AI Magazine, vol. 23, n.o 3, 2002, pp. 43-57.
— López de Mántaras, R. y Arcos, J. L., «Playing with Cases: Rendering Expressive Music with Case-Based Reasoning», en AI Magazine, vol. 33, n.o 4, 2012, pp. 22-31.
— Martín, D., Frantz, B. y Pachet, F., «Improving Music Composition through Peer Feedback: Experiment and Preliminary Results», en Steels, L. (ed.), Music Learning with Massive Open Online Courses (MOOCs), Ámsterdam, IOS Press, 2015, pp. 195-204.
— McCormack, J. y D’Inverno, M., Computers and Creativity, Heidelberg, Springer, 2012.
— McCormack, J., «Balancing Act: Variation and Utility in Evolutionary Art», en Lecture Notes in Computer Science, vol. 8.601, 2014, pp. 26-37.
— Minsky, M., «Music, Mind, and Meaning», ١٩٨١. Reeditado en Schwanauer, S. M. y Levitt, D. A. (eds.), Machine Models of Music, Cambridge, Massachusetts, The MIT Press, 1993, pp. 327-354.
— Montfort, N., Baudoin, P., Bell, J., Bogost, I., Douglass, J., Marino, M. C., Mateas, M., Reas, C., Sample M. y Vawter, N., 10PRINT CHR$(205.5+RND(1)); GOTO 10, Cambridge, Massachusetts, The MIT Press, 2014.
— Moorer, J. A., «Music and Computer Composition», ١٩٧٢. Reeditado en Schwanauer, S. M. y Levitt, D. A. (eds.), Machine Models of Music, Cambridge, Massachusetts, The MIT Press, 1993, pp. 167-186.
— Morales-Manzanares, R., Morales, E. F., Dannenberg, R. y Berger, J., «SICIB: An Interactive Music Composition System Using Body Movements», en Computer Music Journal, vol. 25, n.o 2, 2001, pp. 25-36.
— Pachet, F. y Roy, P., «Formulating Constraint Satisfaction Problems on Part-whole Relations: The Case of Automatic Harmonization», en ECAI’98 Workshop on Constraint Techniques for Artistic Applications, Brighton, Reino Unido, 1998.
— Papadopoulos, G. y Wiggins, G., «A Genetic Algorithm for the Generation of Jazz Melodies», en Proceedings of the SteP’98 Conference, Finlandia, 1998.
— Papadopoulos, A., Roy, P. y Pachet, F., «Assisted Lead Sheet Composition using FlowComposer», Actas del XXII Congreso Internacional sobre Principios y Práctica de la Programación con Restricciones, Toulouse, 2016.
— Partridge, D. y Rowe, J., Computers and Creativity, Bristol, Intellect Books, 1994.
— Rader, G. M., «A Method for Composing Simple Traditional Music by Computer», 1974. Reeditado en Schwanauer, S. M. y Levitt, D. A. (eds.), Machine Models of Music, Cambridge, Massachusetts, The MIT Press, 1993, pp. 243-260.
— Ritchie, G. D. y Hanna, F. K., «AM: A Case Study in AI Methodology», en Artificial Intelligence, vol. 23, 1983, pp. 249-268.
— Ritchie, G. D., «Can Computers Create Humour», AI Magazine, vol. 30, n.o 3, 2009, pp. 71-81.
— Rothgeb, J., «Simulating Musical Skills by Digital Computer», 1969. Reeditado en Schwanauer, S. M. y Levitt, D. A. (eds.), Machine Models of Music, Cambridge, Massachusetts, The MIT Press, 1993, pp. 157-164.
— Rowe, J. y Partridge, D., «Creativity: A Survey of AI Approaches», en Artificial Intelligence Review, vol. 7, 1993, pp. 43-70.
— Sabater, J., Arcos, J. L. y López de Mántaras, R., «Using Rules to Support Case-Based Reasoning for Harmonizing Melodies», en AAAI Spring Symposium on Multimodal Reasoning, Menlo Park, California, American Association for Artificial Intelligence, 1998, pp. 147-151.
— Schwanauer, S. M., «A Learning Machine for Tonal Composition», ١٩٩٣. Reeditado en Schwanauer, S. M. y Levitt, D. A. (eds.), Machine Models of Music, Cambridge, Massachusetts, The MIT Press, 1993, pp. 511-532.
— Schwanauer, S. M. y Levitt, D. A. (eds.), Machine Models of Music, Cambridge, Massachusetts, The MIT Press, 1993, p. 21.
— Searle, J. «Minds, Brains and Programs», en Behavioral and Brain Sciences, vol. 3, n.o 3, 1980, pp. 417-457.
— Simon, H. A. y Sumner, R. K., «Patterns in Music», ١٩٦٨. Reeditado en Schwanauer, S. M. y Levitt, D. A. (eds.), Machine Models of Music, Cambridge, Massachusetts, The MIT Press, 1993, pp. 83-110.
— Sims, K., «Evolving Virtual Creatures. Computer Graphics», en SIGGRAPH 94 21st International ACM Conference on Computer Graphics and Interactive Techniques, Nueva York, ACM, 1994, pp. 15-22.
— Sims, K., «Reaction-diffusion Media Wall», 2016, http://www.karlsims.com/rd-exhibit.html
— Suzuki, T., Tokunaga, T. y Tanaka, H., «A Case-Based Approach to the Generation of Musical Expression», en Proceedings of the 16th International Joint Conference on Artificial Intelligence, Burlington, Massachusetts, Morgan Kaufmann, 1999, pp. 642-648.
— Thom, B., «BoB: An Improvisational Music Companion» (tesis doctoral inédita), Pittsburgh, Pensilvania, School of Computer Science, Universidad de Carnegie-Mellon, 2001.
— Tobudic, A. y Widmer, G., «Playing Mozart Phrase by Phrase», en Ashley, K. D. y Bridge, D. G. (eds.), Actas del V Congreso Internacional sobre Razonamiento Basado en Casos, en Lecture Notes in Artificial Intelligence, Heidelberg, Springer, vol. 3.155, 2003, pp. 552-566.
— Tobudic, A. y Widmer, G., «Case-Based Relational Learning of Expressive Phrasing in Classical Music», en Funk P. y González Calero, P. A. (eds.), Actas del VII Congreso Europeo sobre Razonamiento Basado en Casos, en Lecture Notes in Artificial Intelligence, Heidelberg, Springer, vol. 3.155, 2004, pp. 419-433.
— Turing, A. M., «Computing Machinery and Intelligence», en Mind, vol. LIX, n.o 236, 1950, pp. 433-460.
— Wessel, D., Wright, M. y Kahn, S. A., «Preparation for Improvised Performance in Collaboration with a Khyal Singer», en Proceedings of the 1998 International Computer Music Conference, San Francisco, California, International Computer Music Association, 1998.
— Widmer, G., Flossmann, S., Grachten, M., «YQX Plays Chopin», en AI Magazine, vol. 30, n.o 3, 2009, pp. 35-48.
— Woods, W., «Transition Network Grammars for Natural Language Analysis», en Communications of the ACM, vol. 13, n.o 10, 1970, pp. 591-606.
— Yee-King, M. y D’Inverno, M., «Pedagogical Agents for Social Music Learning in Crowd-based Socio-cognitive Systems», en Proceedings First International Workshop on the Multiagent Foundations of Social Computing, AAMAS-2014, París, 2014.