Cada hemisferio cerebral se encarga de procesar características del sonido diferentes para así optimizar la comprensión del habla y de la música
El habla y la música son dos de los usos humanos del sonido más singulares. Pero a pesar de su excepcionalidad, su decodificación depende de las áreas cerebrales que procesan los demás sonidos, las cuales responden a ambos estímulos de manera diferente en función del hemisferio.
Una nueva investigación trata de esclarecer el porqué de esta especialización hemisférica. Según el estudio, publicado hoy en la revista Science , las personas hemos desarrollado sistemas neuronales complementarios en cada hemisferio para procesar los sonidos, lo que lleva a una especialización para el habla y la música en cada mitad del cerebro. Tal hecho puede ser la forma que tiene el sistema nervioso de optimizar la decodificación de ambos métodos de comunicación.
La música y el habla a menudo se encuentran a menudo entrelazadas y la capacidad de los humanos para reconocer y separar las palabras de las melodías en una canción representa un gran desafío cognitivo.
A pesar de que se sabe desde hace décadas que cada hemisferio hace un papel diferente en ambos propósitos, la base fisiológica de tal diferencia sigue siendo un misterio. Estudios previos han propuesto una especialización de las neuronas del hemisferio izquierdo para manejar la información del discurso y del derecho para las melodías.
A ello se suma el hecho de que parece que la percepción del habla depende en gran medida de la capacidad de procesar modulaciones temporales muy cortas. En el caso de la música, la importancia recaería en la distinta composición del espectro del sonido, como pueden ser las fluctuaciones en la frecuencia, es decir, si suena más agudo o más grave.
“Las señales acústicas temporales están de hecho más presentes en el habla que las señales de música, mientras que las señales acústicas espectrales están más presentes en la música que las señales del habla”, explica Benjamin Morillon, neurocientífico en la Universidad de Aix-Marsella (Francia) y uno de los autores del estudio.
Así que el equipo de investigadores, liderado por Philippe Albouy, del Instituto y Hospital Neurológico de Montreal (Canadá) se formuló la siguiente pregunta: ¿La diferente manera de procesar el habla y la música en cada hemisferio depende de las características de las distintas señales acústicas o de redes neuronales específicas para procesar cada uno de estos dos estímulos sonoros?
Para encontrar una respuesta, los investigadores combinaron diez oraciones con diez melodías diseñadas para el experimento y así poder crear 100 grabaciones a cappella similares a esta. A continuación, los autores distorsionaron las grabaciones a lo largo del dominio temporal y del espectral -importantes para procesar el habla o la melodía respectivamente- y fueron escuchadas por 49 participantes a los que se indicó que distinguieran las palabras o las melodías de cada canción.
Según especifica Morillon, no transformaron los sonidos sino que los degradaron al suprimir algunas partes de la señal. “Básicamente eliminamos algunas regularidades espectrales o temporales, es decir, algunos armónicos (información espectral) o algunos ritmos (información temporal) presentes en la señal”.
El experimento se realizó en dos grupos de personas que hablaban inglés y francés con el fin de mejorar la generalización de los resultados.
Fuente: lavanguardia.com
La entrada Cómo el cerebro separa las palabras de las canciones se publicó primero en INVDES.