El día en que los robots jugaron a ser los Beatles

Portada móvil

Cada día que pasa, la inteligencia artificial va consiguiendo hitos impensables. Ya no solo puede vencer al mejor jugador de ajedrez del mundo, o conseguir que a través de un chat no podamos diferenciar cuando hablamos con un robot o un humano, ahora la inteligencia artificial también quiere ser artista, componer canciones, y convertirse en los nuevos Beatles.

TEXTO POR ANNA MOLINET
ILUSTRADO POR BORJA CABADA
ARTÍCULOS
INTELIGENCIA ARTIFICIAL | MÚSICA
2 de Enero de 2017

Recientemente se publicó una noticia que me fascinó como aficionada a la música: por primera vez, la inteligencia artificial había compuesto dos canciones partiendo desde cero. Nadie pareció sorprenderse demasiado. Quizás porque la música comercial actual ya parece que la hayan escrito robots: letras simples y melodías pegadizas, hechas para gustar a la mayoría y para vender. La verdad es que aún necesitamos a las personas para crear música, pero estas canciones escritas por robots demuestran que quizás dentro de poco la inteligencia artificial podrá también componer, y quien sabe, vender discos y hacer conciertos.

¿Os imagináis ser fans de la música de un robot? ¿No os resulta extraño que pueda ser creativa una máquina? La creatividad es justamente una de las cosas que nos diferencian de las máquinas, la capacidad para imaginar, crear cosas nuevas y que estas despierten emociones. ¿Puede realmente un robot ser un artista como tal?

Para empezar, nos deberíamos preguntar ¿qué es el arte? La RAE lo describe como la «manifestación de la actividad humana mediante la cual se interpreta lo real o se plasma lo imaginado con recursos plásticos, lingüísticos o sonoros». Por lo tanto, lo primero que vemos en esta definición es que el arte es una virtud exclusivamente humana, y se considera que solo los humanos somos capaces de crear a partir de la imaginación cosas nuevas, que pueden relacionarse con elementos reales o no.

La música se considera un arte, en cuanto a que se podría considerar que es la capacidad de interpretar diferentes sonidos y juntarlos para crear una melodía con un sentido global. Pero la música también tiene una parte de ciencia: se puede descomponer en dos partes, la rítmica, que se basa en el tiempo (o tempo en italiano), y la melodía que básicamente es sonido, es decir ondas, vibraciones. Si podemos descomponer la música hasta llegar a la unidad, a la representación básica, podemos analizarla, determinar patrones, entender qué conjunto de ritmos y melodías tienen sentido y ensamblándolo todo podemos crear algo que se considere música (y no ruido).

Básicamente, el solfeo se basa en eso, en las matemáticas de la música: nos enseñan el tiempo que dura cada nota, la relación entre unas y otras para formar acordes, etc. Si pasamos las bases del solfeo al ordenador, podemos hacer que este analice muchas canciones de una base de datos y entienda los patrones que caracterizan a cada estilo musical, o a cada grupo de música. Podemos, entonces, basándonos en estos patrones, crear una canción de los Beatles nueva, y al escucharla podríamos creer que la han escrito ellos mismos, ya que suena acorde con su estilo.

Si podemos descomponer la música hasta llegar a la unidad, a la representación básica, podemos analizarla, determinar patrones, entender qué conjunto de ritmos y melodías tienen sentido y ensamblándolo todo podemos crear algo que se considere música.

El Sony Computer Science Laboratory en París se dedica a estudiar las bases de la música. Uno de sus proyectos más famosos es Flowmachines, que está conformado por dos elementos principales: una base de datos con más de 13 000 canciones llamada LSDB (LeadSheet Data Base) y un software de inteligencia artificial llamado Flowcomposer. Por un lado, la base de datos no solo contiene las canciones en sí, sino que también contiene las partituras de todas ellas, con toda la información que se podría desear: ritmo, acordes, armadura, melodía, letra, notaciones musicales (crescendo, adagio, fortíssimo), etc. Por otro lado, el software es capaz de interpretar toda esta información y crear una canción de nuevo. Para la creación de las dos piezas musicales que fueron noticia, lo único que se hizo fue decidir un estilo musical: los Beatles para la primera y grandes compositores americanos para la segunda. Hay que comentar que lo que escucharéis no lo hizo completamente la inteligencia artificial, sino que después un compositor le añadió letra y la mejoró con pequeños retoques.

 

Este hecho nos hace reflexionar hasta qué punto se puede considerar que esta máquina ha sido creativa, ya que, según la descripción anteriormente mencionada, pueden existir dudas sobre si lo que interpretó fue composición real o algo imaginario utilizando recursos sonoros. Aun así, no creo que sea tan fácil catalogar como creativo este software, ya que solo se ha basado en algoritmos y patrones para crear la canción, no ha sido subjetivo ni ha intentado transmitir un mensaje concreto. Pero, por otro lado ¿hasta qué punto la creación musical es creativa? (el menos la de algunos). También es verdad que los músicos utilizan patrones que les han enseñado previamente, como son los acordes, y que hay un ritmo concreto que es característico del funky, otro de la bossa nova, etc. Incluso a la hora de improvisar no se parte de cero, sino que tenemos recursos como la escala pentatónica a partir de la cual nos apoyamos en nuestros solos.

Como comentábamos antes, la música en sí tiene parte de ciencia, son matemáticas y física, de modo que cualquier sonido que emitamos, cualquier melodía o secuencia de dos o tres notas, ya se habrá escrito antes. ¿Dónde queda la creatividad cuando ya se ha inventado todo?

Esta noticia nos debería hacer reflexionar en dos sentidos. Primero, meditar sobre qué es la creatividad musical y hasta en qué punto se puede considerar que este software es un artista.  Y segundo, sobre si en un futuro seremos capaces de diferenciar entre una canción creada por una persona o por una máquina**.

Personalmente, creo que una máquina no puede ser creativa, ya que sólo se basa en patrones y algoritmos, mientras que un artista se respalda en estos medios (en los acordes, en un estilo, en un ritmo) pero añade un toque personal y único, explica una historia a través de la canción, emociona con sus palabras, da lugar a la reflexión o critica una situación.

La diferencia radica en el objetivo: un artista nunca escribe una canción en vano, sin algo que trasmitir, mientras que el único objetivo de la inteligencia artificial es generar una pista de audio. Por este motivo no considero música ni artísticas las canciones que no dicen nada, y que solo se han creado con un propósito comercial, porque justamente el lucro como único objetivo corrompe el arte, y lo destruye.

La diferencia radica en el objetivo: un artista nunca escribe una canción en vano, sin algo que trasmitir, mientras que el único objetivo de la inteligencia artificial es generar una pista de audio.

En cuanto a saber diferenciar la música compuesta por una persona o por una máquina, parece ser que lo más probable es que no podamos hacerlo en un futuro no muy lejano, ya que actualmente, en estudios que se han realizado de conversaciones con robots, las personas no consiguieron adivinar si estaban chateando con una persona o con una máquina. De momento, todos los retos que se han propuesto los grandes investigadores de la inteligencia artificial se han conseguido. ¿Habrá un día en que nada nos diferencie de la inteligencia artificial?

**Nota del editor: Personalmente, hay canciones que me cuenta distinguir si las ha compuesto una máquina, un ser humano o un chimpancé. Bah, es broma, feliz año ;)

REFERENCIAS:

Sony Computer Science Laboratory
Proyecto Flow Machines

Deja tu comentario!