Entre acordes y neuronas: Pink Floyd y la neurociencia sonora.
Abib Adriana Reyes Díaz
Estudiante de Ingeniería Biomédica, Instituto de Ingeniería y Tecnología, UACJ  

La famosa canción Another Brick in the Wall de Pink Floyd fue reconstruida mediante señales eléctricas generadas por el cerebro por un grupo de científicos de la Universidad de California. Este innovador estudio busca comprender cómo el cerebro humano procesa la música y la respuesta que tiene a los diferentes elementos musicales.

El proceso se llevó a cabo mediante la aplicación de modelos matemáticos para descifrar la actividad cerebral y examinar las respuestas a los estímulos musicales. El estudio analizó los datos de 29 pacientes con epilepsia mientras escuchaban la canción, para ello, se les colocaron electrodos en el cerebro, lo que permitió el registro en tiempo real.

Lo extraordinario del estudio fue la traducción de las señales cerebrales y la recreación de la canción. Los datos obtenidos se convirtieron en espectrogramas auditivos, esta herramienta proporciona una representación de la variación de energía de las frecuencias a través del tiempo en una señal de audio. Esta representación no solo captura las notas musicales, también determina cómo cambian las frecuencias de manera espacial en nuestros oídos y cerebro. Los patrones neuronales registrados funcionan como un código o lenguaje donde sólo el cerebro puede entender.

Para lograr la reconstrucción de la canción, se desarrollaron fórmulas matemáticas, conocidas como modelos de decodificación que son capaces de traducir señales cerebrales en una representación musical. Los modelos fueron entrenados con el propósito de obtener información sobre cómo se verían los patrones de actividad cuando alguien escucha una canción en específico, y luego aplicaron este método para reconstruir la canción. También se utilizaron modelos de codificación para comprender cómo procesar la música e identificar las estructuras neurales que participan en el proceso.

Los resultados obtenidos de la reconstrucción permitieron que se descubriera que el hemisferio derecho del cerebro desarrolla un papel importante en la forma en la que percibimos la música, junto con la región conocida como STG (Surrounding Temporal Gyrus por sus siglas en inglés). La STG, en particular, procesa la música mediante grupos de neuronas especializadas que responden a diferentes elementos musicales. De igual forma, se identificó un área adicional dentro de la STG que se especializa en el ritmo musical.

Los resultados recabados sobre cómo el cerebro interpreta la música, proporciona nuevas posibilidades en áreas médicas. Por ejemplo, la investigación podría aplicarse como estimulación para la rehabilitación auditiva. Se espera que en futuras investigaciones las interfaces cerebro-máquina les permitan a personas comunicarse o crear música a los que tienen alguna discapacidad del habla o movilidad limitada, lo que podría cambiar la vida de las personas no solo en aplicaciones médicas, incluso en expresiones artísticas, ya que les daría la oportunidad de crear música con su mente sin la necesidad de usar instrumentos musicales.

La música es el arte que permite que exista una comunicación de manera universal para expresar emociones o pensamientos sin importar el idioma. El estudio no solo reafirma esta importancia, sino que permite obtener nuevos conocimientos sobre la comunicación implementada en los modelos predictivos de reconstrucción a partir del cerebro. De igual manera, propone las bases para futuras investigaciones, en diferentes campos como la medicina, la música y la tecnología.

Referencias

[1]. L. Bellier, A. Llorens, D. Marciano, A. Gunduz, G. Schalk, P. Brunner et al., “Music can be reconstructed from human auditory cortex activity using nonlinear decoding models,” PLOS Biology, vol. 21, no. 8, p. e3002176, Aug. 2023, doi: 10.1371/journal.pbio.3002176.