Mercados españoles abiertos en 6 hrs 39 min

Los robots también 'amenazan' a músicos, compositores y cantantes

En el 2012, el público del Festival de Música y Artes de Coachella Valley pudo escuchar al rapero y activista Tupac Shakur interpretar algunos de sus éxitos junto con los raperos Dr. Dre y Snoop Dogg. Pero a diferencia de estos dos últimos, Tupac no estaba físicamente presente. De hecho, el artista llevaba ya más de quince años muerto. Su aparición sobre el escenario fue un ‘milagro’, hecho posible gracias a una tecnología que coloquialmente se denomina ‘holograma’, a pesar de que técnicamente no lo era. Un hito similar se repitió en el 2014 durante los Billboard Music Awards, con el fallecido músico Michael Jackson. Estas funciones han sido tema de polémica, interpretados por muchos como una explotación de los muertos y por otros como el futuro de la industria de la música, donde no sólo las canciones sobreviven más allá que los artistas, sino también su performance.

La relación entre la tecnología y el sector de la música siempre ha sido curiosa, un conflicto constante entre ‘tradicionalistas’ y ‘revolucionarios’. Robert Moog, el ingeniero estadounidense y creador del sintetizador, sostiene que un músico no deja de ser músico por emplear máquinas. “Cuando un pianista se sienta e interpreta una pieza virtuosa, en un sentido técnico está transmitiendo información a una máquina,” afirma. En efecto, operar un sintetizador requiere tanto conocimiento técnico del aparato como conocimiento de composición musical. Por ello, Moog duda que su invento reemplace a los músicos. Pero ¿se puede aplicar este criterio con otras tecnologías emergentes?

La inteligencia artificial (IA) ya está siendo utilizada como atajo en la creación. Los “deepfakes” son vídeos en los que la IA, con poco esfuerzo técnico por parte de un usuario, sustituye el rostro de una persona con el de otra de una manera tan realísta que hay quienes se preocupan de que se puedan usar para generar evidencia falsa y ser utilizada para chantajear o condenar a gente inocente. Este ejemplo, un poco siniestro, prueba la distancia que hemos avanzado en términos de la IA.

Los miembros de la banda musical de robots Z-Machines actúan durante su primer evento en vivo en Tokio el lunes 24 de junio de 2013 Foto: AP / Koji Sasahara

El año pasado, la herramienta de IA DeepVoice empleada por el gigante tecnológico chino Baidu era capaz de clonar una voz con tan sólo escuchar una muestra de 30 minutos. Actualmente, lo han reducido a menos de 5 segundos. La Universidad de Tel Aviv ha colaborado con Facebook para desarrollar una IA que convierte la voz de una persona en la de otra en menos de media hora con un mínimo de intervención humana. No deben haber sido muchas las personas que esperaran que la tecnología progresara a semejantes zancadas exponenciales desde la creación del Auto-Tune a finales de los 80.

La implementación de la IA en la música no es sólo un pronóstico del futuro, sino una descripción del presente. SACEM, la asociación francesa que se encarga del pago de los derechos de autor y la distribución hacia los autores, compositores y editores musicales, ya ha reconocido al primer ‘compositor’ virtual: Aiva. Producto de una startup británica, esta IA se especializa en la composición de música clásica y sinfónica. Mientras tanto, ‘Break Free’, una canción compuesta por la actriz estadounidense Taryn Southern a través de IA, ya ha acumulado casi dos millones de visualizaciones en YouTube en los dos años desde su publicación.

¿Adiós al proceso creativo humano?

¿Qué significa todo esto para la industria de la música? Nadie puede estar seguro a ciencia a cierta, pero la IA parece ser capaz de disolver una cantidad increíble de límites: puede imitar cualquier género musical, no requiere de la participación de los artistas originales, es capaz de improvisar e incorporar conceptos matemáticos complejos a las composiciones.

Por un lado, genera una posibilidad preocupante, que es la eliminación casi total del ser humano en el proceso creativo. A medida que su calidad y popularidad vaya creciendo, es probable que se puedan organizar conciertos donde artistas difuntos no sólo sean proyectados en el escenario para cantar sus creaciones, sino también interpretar nuevas canciones con su propia voz.

La idea de John Lennon interpretando ‘Despacito’ en un concierto puede parecer ridículo, pero los avances en estas tecnologías podrían convertirlo en realidad.

Ciertamente, el potencial invita a reflexionar sobre el concepto de creación artística y el valor (tanto monetario como personal) que le damos a la música.

Artículos relacionados que te pueden interesar:


Laotracaradelamoneda

IDNet Noticias