
Группа нейроинженеров из Калифорнийского университета представила прорывную разработку в области нейрокомпьютерных интерфейсов. Система позволяет преобразовывать намерения человека в синтезированную речь с рекордно низкой задержкой.
Технология основана на алгоритмах машинного обучения, аналогичных используемым в голосовых помощниках. Имплантированные электроды считывают активность моторной коры, а ИИ-модель декодирует сигналы в речь. Ключевое отличие от предыдущих разработок — время обработки сократили с 8 секунд до менее 1 секунды.
В испытаниях участвовала 47-летняя женщина, потерявшая речь после инсульта. Используя записи ее голоса до болезни, система воспроизводила слова, которые пациентка мысленно пыталась произнести. Точность распознавания пока не раскрывается, но исследователи отмечают естественность синтезированной речи.
Разработчики адаптировали потоковые технологии для нейрокомпьютерного интерфейса. Это позволило добиться почти синхронного преобразования нейронных импульсов в звук. Система работает по принципу последовательного декодирования — обрабатывает сигналы по мере их поступления, а не ждет полного формирования мысли.
Перспективы технологии касаются прежде всего пациентов с БАС и постинсультной афазией. В перспективе разработка может помочь людям с другими формами нарушения коммуникации. Сейчас ученые работают над увеличением словарного запаса системы и улучшением качества синтеза.
Ограничением остается необходимость хирургической имплантации электродов. Исследователи изучают возможность использования неинвазивных методов считывания мозговой активности для более широкого применения технологии.

