Saltar al contenido
Enciclopedia Universo

Tu cerebro tiene la notable capacidad de escuchar una voz en una multitud: así es como funciona

Brain Dials Up Volume

Brain Dials Up Volume

Esta es una visualización de la actividad cerebral en un entorno de múltiples altavoces. Crédito: Instituto Zuckerman de Columbia

Un estudio dirigido por Columbia ofrece una nueva visión de la organización del centro de escucha del cerebro; proporciona una hoja de ruta para el desarrollo de tecnologías de audífonos inspiradas en el cerebro.

Nuestros cerebros tienen una capacidad notable para elegir una voz entre muchas. Ahora, un equipo de Universidad de Colombia Los neuroingenieros han descubierto los pasos que tienen lugar en el cerebro para hacer posible esta hazaña. El descubrimiento de hoy ayuda a resolver una pregunta científica de larga data sobre cómo la corteza auditiva, el centro de audición del cerebro, puede decodificar y amplificar una voz sobre otras, a velocidades ultrarrápidas. Este nuevo conocimiento también puede estimular el desarrollo de tecnologías de audífonos e interfaces cerebro-computadora que se parecen más al cerebro.

Estos hallazgos se informaron el 21 de octubre de 2019 en Neurona.

"Nuestra capacidad para concentrarnos en la persona que está a nuestro lado en un cóctel mientras evitamos el ruido circundante es extraordinaria, pero entendimos muy poco acerca de cómo funciona todo", dijo Nima Mesgarani, PhD, autora principal del artículo e investigadora principal. en el Instituto Mortimer B. Zuckerman Mind Brain Behavior Institute de Columbia. "El estudio de hoy brinda esa comprensión tan necesaria, que será fundamental para los científicos e innovadores que trabajan para mejorar las tecnologías del habla y la audición".

Nuestro objetivo final es comprender mejor cómo el cerebro nos permite escuchar tan bien, así como crear tecnologías que ayuden a las personas, ya sea para que los sobrevivientes de un derrame cerebral puedan hablar con sus seres queridos, o para que las personas con discapacidad auditiva puedan conversar más fácilmente en un lugar abarrotado partido.

La corteza auditiva es el centro de escucha del cerebro. El oído interno envía a esta región del cerebro señales eléctricas que representan un revoltijo de ondas de sonido del mundo externo. La corteza auditiva debe entonces distinguir sonidos significativos de ese revoltijo.

"Estudiar cómo la corteza auditiva clasifica los diferentes sonidos es como tratar de descubrir qué está sucediendo en un gran lago, en el que se mueve cada bote, nadador y pez, y qué tan rápido, al tener los patrones de ondas en el agua como una guía ”, dijo el Dr. Mesgarani, quien también es profesor asociado de ingeniería eléctrica en Columbia Engineering.

El artículo de hoy se basa en el estudio del equipo de 2012 que muestra que el cerebro humano es selectivo sobre los sonidos que escucha. Ese estudio reveló que cuando una persona escucha a alguien hablar, sus ondas cerebrales cambian para seleccionar características de la voz del hablante y desconectar otras voces. Los investigadores querían entender cómo sucede eso dentro de la anatomía de la corteza auditiva.

La información obtenida aquí podría usarse como base para algoritmos que replican este proceso biológico artificialmente, como en los audífonos.

"Hace tiempo que sabemos que las áreas de la corteza auditiva están dispuestas en una jerarquía, con decodificación cada vez más compleja en cada etapa, pero no hemos observado cómo se procesa la voz de un hablante en particular a lo largo de este camino", dijo James O ' Sullivan, PhD, el primer autor del artículo que completó este trabajo mientras era un investigador postdoctoral en el laboratorio de Mesgarani. "Para comprender este proceso, necesitábamos registrar la actividad neuronal del cerebro directamente".

Los investigadores estaban particularmente interesados ​​en dos partes de la jerarquía de la corteza auditiva: la circunvolución de Heschl (HG) y la circunvolución temporal superior (STG). La información del oído llega primero a HG, la atraviesa y llega a STG más tarde.

Para comprender estas regiones del cerebro, los investigadores se unieron con los neurocirujanos Ashesh Mehta, MD, PhD, Guy McKhann, MD y Sameer Sheth, MD, PhD, neuróloga Catherine Schevon, MD, PhD, así como con otros coautores José Herrero, PhD y Elliot Smith, PhD. Con base en el Centro Médico Irving de la Universidad de Columbia y Northwell Health, estos médicos tratan a pacientes con epilepsia, algunos de los cuales deben someterse a cirugías cerebrales regulares. Para este estudio, los pacientes se ofrecieron como voluntarios para escuchar grabaciones de personas que hablaban mientras los Dres. Mesgarani y O'Sullivan monitorearon sus ondas cerebrales a través de electrodos implantados en las regiones HG o STG de los pacientes.

"Nuestra capacidad para concentrarnos en la persona que está a nuestro lado en un cóctel mientras evitamos el ruido circundante es extraordinaria, pero entendimos muy poco acerca de cómo funciona todo". – Dra. Nima Mesgarani

Los electrodos permitieron al equipo identificar una distinción clara entre los roles de las dos áreas del cerebro en la interpretación de los sonidos. Los datos mostraron que HG crea una representación rica y multidimensional de la mezcla de sonido, por lo que cada altavoz está separado por diferencias de frecuencia. Esta región no mostró preferencia por una voz u otra. Sin embargo, los datos recopilados de STG cuentan una historia claramente diferente.

"Descubrimos que es posible amplificar la voz de un hablante u otro ponderando correctamente la señal de salida que proviene de HG. Según nuestras grabaciones, es posible que la región STG realice esa ponderación ", dijo el Dr. O’Sullivan.

Tomados en conjunto, estos hallazgos revelan una clara división de deberes entre estas dos áreas de la corteza auditiva: HG representa, mientras que STG selecciona. Todo sucede en alrededor de 150 milisegundos, lo que parece instantáneo para un oyente.

Los investigadores también encontraron un papel adicional para STG. Después de la selección, STG formó un objeto auditivo, una representación del sonido que es análoga a nuestras representaciones mentales de los objetos que vemos con nuestros ojos. Esto demuestra que incluso cuando una voz está oscurecida por otro hablante, como cuando dos personas hablan entre sí, STG puede representar al orador deseado como un todo unificado que no se ve afectado por el volumen de la voz competidora.

La información obtenida aquí podría usarse como base para algoritmos que replican este proceso biológico artificialmente, como en los audífonos. A principios de este año, el Dr. Mesgarani y su equipo anunciaron el desarrollo de un audífono controlado por el cerebro, que utiliza uno de estos algoritmos para amplificar los sonidos de un altavoz sobre otro.

Los investigadores planean estudiar la actividad de HG y STG en escenarios cada vez más complejos que tienen más oradores o incluyen señales visuales. Estos esfuerzos ayudarán a crear una imagen detallada y precisa de cómo funciona cada área de la corteza auditiva.

“Nuestro objetivo final es comprender mejor cómo el cerebro nos permite escuchar tan bien, así como crear tecnologías que ayuden a las personas, ya sea para que los sobrevivientes de un derrame cerebral puedan hablar con sus seres queridos, o para que las personas con discapacidad auditiva puedan conversar más fácilmente en un momento fiesta abarrotada ”, dijo el Dr. Mesgarani. "Y el estudio de hoy es un punto crítico en ese camino".

###

Referencia: "Codificación jerárquica de objetos auditivos atendidos en la percepción del habla de múltiples hablantes" por James O'Sullivan, José Herrero, Elliot Smith, Catherine Schevon, Guy M. McKhann, Sameer A. Sheth, Ashesh D. Mehta y Nima Mesgarani, 21 Octubre 2019, Neurona.DOI: 10.1016 / j.neuron.2019.09.007

Esta investigación fue apoyada por los Institutos Nacionales de Salud (NIDCD-DC014279, S10 OD018211), The Pew Charitable Trusts y Pew Biomedical Scholars Program.

Los autores informan que no hay conflictos financieros u otros conflictos de intereses.