Appareil auditif cognitive filtrer le bruit

Columbia ingénieurs font grand pas en avant pour aider les malentendants de suivre une conversation dans un environnement bruyant : nouvelle méthode apporte aides auditives cognitive un pas de plus vers la réalité.

Ceux qui entendre avec facultés affaiblies ont un moment difficile suite à une conversation dans un environnement de plusieurs enceinte comme un restaurant bruyant ou un parti. Tandis que les aides auditives actuelles peut supprimer le bruit de fond, ils ne peuvent aider un utilisateur écouter une seule conversation parmi tant d’autres sans savoir quel haut-parleur fréquente à l’utilisateur. Une prothèse auditive cognitif qui constamment surveille l’activité cérébrale du sujet afin de déterminer si le sujet est en conversation avec un haut-parleur spécifique dans l’environnement pourrait être un rêve devenu réalité.

À l’aide de modèles de réseau neuronal profond, chercheurs de Columbia Engineering ont fait une percée dans l’attention auditive, décodage des méthodes (AAD) et viennent plus proches de concrétisation cognitive contrôlé des prothèses auditives.

L’équipe de Mesgarani a élaboré un système de bout à bout qui reçoit un seul canal audio contenant un mélange de haut-parleurs par écouteur ainsi que les signaux neuronaux de l’auditeur, automatiquement sépare les haut-parleurs dans le mélange, qui détermine le Président est écouté et amplifie puis les voix de l’orateur assisté pour aider l’auditeur — tout en moins de 10 secondes.

« Cet ouvrage combine l’état-de-the-art de deux disciplines : génie de discours et de décodage de l’attention auditive, » dit Mesgarani, qui est également membre de l’Institut de Science de données et l’Institut Mortimer B. Zuckerman Mind Brain comportement. " Nous avons pu développer ce système une fois que nous avons fait la percée en utilisant des modèles de réseau neuronal profond pour séparer des discours. »

Son équipe est venu avec l’idée d’une prothèse auditive cognitivement contrôlée après qu’ils ont fait preuve, qu'il était possible de décoder la cible assistance d’un écouteur à l’aide des réponses neuronales dans le cerveau de l’auditeur en utilisant des enregistrements de neurones invasives chez les humains (Nature2012). deux ans plus tard, ils ont montré qu’ils pouvaient décoder attention avec des méthodes non invasives tant que (bienCortex cérébral2015).

« Traduire ces résultats aux poses d’applications du monde réel de nombreux défis, » fait remarquer James O'Sullivan, un postdoctoral chercheur travaillant avec Mesgarani et principal auteur de l’étude. Dans une implémentation typique d’attention auditive décodage, chercheurs comparent les réponses neurones du cerveau du sujet a été enregistrés avec le propre discours prononcé par différents intervenants ; l’orateur qui produit la ressemblance maximale avec les données neurales est considérée comme la cible et est amplifié par la suite. Toutefois, dans le monde réel, les chercheurs ont accès uniquement au mélange, pas les haut-parleurs.

« Notre étude prend une étape importante vers la sépare automatiquement un haut-parleur fréquenté le mélange », continue O'Sullivan. « Pour ce faire, nous avons construit des modèles de réseau neuronal profond qui peuvent séparer automatiquement les haut-parleurs spécifiques à partir d’un mélange. Nous puis comparer chacun de ces haut-parleurs séparés avec les signaux neurones pour déterminer quelle voix écoute le sujet et puis amplifier cette voix spécifique pour l’auditeur. »

L’équipe a testé l’efficacité de leur système en utilisant des enregistrements d’expression envahissantes provenant de sujets neurologiques devant subir une chirurgie de l’épilepsie. Ils ont identifié des régions du cortex auditif qui contribuent à AAD et constaté que le système décodé l’attention de l’auditeur et amplifié la voix qu’il souhaitait d’écouter, en utilisant uniquement l’audio mixte.

« Notre système montre une amélioration significative dans les deux mesures de la qualité des discours subjectif et objectif — la quasi-totalité de nos sujets affirmaient vouloir continuer à l’utiliser, » dit Mesgarani. « Notre nouveau cadre de AAD comble le fossé entre les plus récents avancements en traitement des technologies et la recherche de prothèse vocale de la parole et nous rapproche déplace vers le développement de dispositifs d’appareil auditif réalistes qui permettent de suivre automatiquement et dynamiquement direction de l’utilisateur de l’attention et amplifier un haut-parleur assisté. »