Locked-in syndrome (синдром запертого человека) — состояние полной неподвижности пациента из-за паралича всех мышц. Люди находятся в полном сознании, все их органы чувств работают, но они не могут пошевелиться и говорить, им доступны только еле заметные движения глаз или лицевых мышц, и то не всегда. Они как будто заживо погребены в собственном теле. К такому состоянию могут привести: боковой амиотрофический склероз (БАС) (он же мотонейронная болезнь, болезнь Шарко и болезнь Лу Герига) — прогрессирующее нейродегенеративное заболевание, когда гибнут двигательные нейроны; рассеянный склероз или сильное повреждение головного мозга.
Для общения с такими больными чаще всего используют движения глаз: пациенты могут обозначать «да» и «нет», открывая и закрывая глаза.
Но в последние десятилетия значительно продвинулись разработки в области интерфейсов мозг-компьютер , которые, считывая ЭЭГ или (в случае вживленных электродов) активность отдельных нейронов, могут дать возможность «запертым в своем теле» пациентам выражать свои желания, писать слова и даже управлять внешними устройствами, о чем писала «Газета.Ru».
Большинство компьютерных интерфейсов, реагирующих на биотоки мозга, регистрируют его отклик на зрительные стимулы, но это не всегда удобно. У многих больных плохое зрение, а для полностью парализованных иногда и движение глаз — проблема.
К тому же глаза сильно утомляются при такой работе. А уши никогда не устают.
Принципиально новый интерфейс мозг-компьютер разработан нейробиологом Джереми Хиллом из департамента здравоохранения штата Нью-Йорк и его коллегами — сотрудниками нескольких исследовательских центров США. Интерфейс реагирует на восприятие не зрительных, а слуховых стимулов. На прошедшей недавно в Сан-Диего конференции общества нейронаук Neuroscience 2013 исследователи продемонстрировали устройство, которое реагирует на биотоки мозга, возникающие в ответ на слова «да» или «нет». Ранее Хилл опубликовал свою разработку в журнале Frontiers in Neuroscience.
Исследователи создали устройство, которое реагирует на разное восприятие звуков, поступающих слева и справа.
В новой системе пользователь в наушниках слышит голоса: мужской голос произносит «нет» в левое ухо, а женский «да» — в правое. Слова звучат с интервалом в пять секунд. Когда человек мысленно выбирает одно из слов и концентрируется на нем, его электроэнцефалограмма определенным образом изменяется, эти изменения регистрируют закрепленные на голове электроды и переводят выбранное слово на компьютерный язык по алгоритму, разработанному Хиллом. В итоге выбранное слово звучит из динамиков компьютера.
В интерфейсе предыдущего поколения Хилл и его коллеги использовали не голос, а два разных звуковых сигнала. Но люди жаловались, что звуки неприятны и зачастую трудно мысленно выбрать один из них. «Говорящее» устройство оказалось проще и приятнее в обращении.
Оно уже прошло испытания на 14 здоровых добровольцах и двух пациентах с БАС. Компьютер правильно распознает мысленную команду примерно в 76% случаев.
Интерфейс абсолютно не зависит от движения глаз, что делает его доступным даже для самых тяжелых больных. Хилл надеется, что он будет использован для повседневного общения с пациентами. В настоящее время исследователи разрабатывают соответствующее компьютерное приложение для смартфона.