Sonidos y palabras se procesan en el cerebro por separado
800Noticias
El procesamiento auditivo y el del habla ocurren en el cerebro en paralelo y de manera simultánea, según un nuevo estudio que contradice una teoría arraigada de que este órgano procesa primero la información acústica y luego la transforma en información lingüística.
El hallazgo se publica en la revista Cell y, en concreto, neurocientíficos de la Universidad de California (EEUU) han descubierto una nueva vía en el cerebro humano que procesa los sonidos del lenguaje.
Estos, al llegar a los oídos, son convertidos en señales eléctricas por la cóclea y enviados a una región del cerebro llamada corteza auditiva, en el lóbulo temporal.
Durante décadas, los científicos han pensado que el procesamiento del habla en el córtex auditivo se producía en serie, similar a una cadena de montaje en una fábrica, explica un comunicado de la publicación.
Se creía que, en primer lugar, la corteza auditiva primaria procesaba la información acústica simple, como las frecuencias de los sonidos. A continuación, una región adyacente, denominada giro temporal superior, extraía las características más importantes para el habla, como las consonantes y vocales, transformando los sonidos en palabras con significado.
Sin embargo, señalan los autores de este trabajo, esta teoría no ha sido demostrada directamente, ya que requiere grabaciones neurofisiológicas muy detalladas de todo el córtex auditivo con una resolución espacio-temporal extremadamente alta.
Edward Chang y su equipo estudiaron durante siete años a nueve participantes que tuvieron que someterse a cirugías cerebrales por motivos médicos, como la extirpación de un tumor o la localización de un foco de convulsiones.
Se les colocó matrices de pequeños electrodos que cubrían todo su córtex auditivo con el fin de recoger señales neuronales para el mapeo del lenguaje y las convulsiones.
Los participantes también se prestaron a que se analizaran las grabaciones para comprender cómo la corteza auditiva procesa los sonidos del habla.
«Es la primera vez que pudimos cubrir todas estas áreas de manera simultánea directamente desde la superficie del cerebro y analizar la transformación de los sonidos en palabras», describe Chang.
Cuando los investigadores reprodujeron frases y oraciones cortas para los participantes, esperaban encontrar un flujo de información desde el córtex auditivo primario hasta el giro temporal superior adyacente, como propone el modelo tradicional; si ese fuera el caso, las dos áreas deberían activarse una tras otra.
Sorprendentemente, descubrieron que algunas áreas situadas en el giro temporal superior respondían tan rápido como el córtex auditivo primario cuando se reproducían frases, lo que sugiere que ambas áreas empezaban a procesar la información acústica al mismo tiempo.
Además, los investigadores estimularon la corteza auditiva primaria de los participantes con pequeñas corrientes eléctricas; si el procesamiento del habla fuera en serie, estos estímulos probablemente distorsionarían la percepción del habla de los pacientes.
Por el contrario, aunque experimentaron alucinaciones acústicas inducidas por los estímulos, seguían siendo capaces de oír y repetir claramente las palabras que se les decían.
Sin embargo, cuando se estimulaba el giro temporal superior, informaron de que podían oír a la gente hablar, «pero no distinguir las palabras».
Estas pruebas sugieren que el modelo tradicional de jerarquía del procesamiento del habla está demasiado simplificado y probablemente sea incorrecto, según los científicos, que apuntan la posibilidad de que el giro temporal superior funcione de forma independiente -en lugar de como paso siguiente- del procesamiento en el córtex auditivo primario.
Esta naturaleza paralela puede dar nuevas ideas sobre cómo tratar enfermedades como la dislexia. «Aunque se trata de un importante paso, aún no comprendemos muy bien este sistema auditivo paralelo; plantea más preguntas que respuestas», resume Chang.