После 20 лет молчания: женщина, перенесшая инсульт, смогла «говорить» в режиме реального времени, подключив свой мозг к машине.

МАДРИД - Энн было 30 лет, когда у нее случился инсульт в стволе головного мозга - основании мозга, соединяющемся со спинным мозгом. Она перестала двигать ногами, руками и даже мышцами, которые управляют ее голосовыми связками. Теперь, после многих лет тренировок с искусственным интеллектом (ИИ), интерфейс мозг-машина (BCI) позволяет ему общаться почти в режиме реального времени своим собственным синтезированным голосом. Для этого его голова должна быть подключена к аппарату, который записывает его нейронную активность через сетку из 253 электродов, расположенных непосредственно в его мозге. Энн, которой уже далеко за пятьдесят, не думает о словах, а пытается их произнести, но это первый раз за более чем два десятилетия, когда она смогла заговорить, хотя и в виде робота, подключенного к сети. Область моторной коры головного мозга, связанная с речью, не повреждена. Именно здесь начинается работа группы нейробиологов, инженеров и программистов ИИ, и именно здесь кроется одно из отличий от других попыток вернуть способность общаться тем, кто не может говорить. Другие BCI воздействуют на конкретную языковую область, пока пациент думает о слове или представляет, как записывает его. Новая система записывает, что происходит в вашем мозгу, когда вы хотите сказать «привет». Гопала Ануманчипалли, профессор электротехники и вычислительной техники Калифорнийского университета в Беркли (США) и старший соавтор этого исследования, только что опубликованного в журнале Nature Neuroscience, объясняет в своем письме: «Это когда она пытается сказать „привет“, не думая. Из-за паралича Энн не может ничего сформулировать или произнести. Однако нейронный сигнал о ее намерении очень мощный, что делает его надежным сигналом для декодирования», - объясняет Ануманчипалли. »Декодирование начинается с электродов, помещенных в моторную кору головного мозга. У здорового человека именно здесь начинаются нейронные связи, которые через ствол мозга доходят до мышц, управляющих голосовым трактом. Поскольку эта связь отсутствует, около 20 ученых из Беркли и Калифорнийского университета в Сан-Франциско, опираясь на предыдущие работы, создали обучающуюся систему, основанную на алгоритмах, которые декодировали специфическую нейронную активность Энн, когда она хотела произнести слово. «По словам Чеол Джун Чо из Беркли, соавтора исследования, „по сути, мы перехватываем сигнал, когда мысль становится артикуляцией“. В университетском релизе Чо добавляет: «То, что мы декодируем, происходит уже после того, как возникла идея, после того, как мы решили, что сказать, после того, как мы решили, какие слова использовать и как двигать мышцами голосового тракта». Чтобы машина и Энн могли общаться, ей пришлось тренироваться с набором из 1024 слов, которые система представляла в виде предложений. BCI также обучали с помощью серии из 50 предустановленных предложений. Как только они появлялись на экране, Энн начинала говорить, а система преобразовывала сигнал мозга в текст и речь. «Энн сохранила видеозапись своей свадьбы, и это очень пригодилось. С его помощью они смогли выбрать голос синтезатора, как вы выбираете браузер или Siri. Энн рассказала исследователям, что услышать свой собственный голос помогло ей наладить контакт с машиной. Становится обычной практикой записывать людей с когнитивными нарушениями или заболеваниями, угрожающими их способности говорить, в надежде, что наука вернет им голос в будущем. «Второй важный вывод из этой работы - это скорость. Эта система BCI - не единственная, которой удалось вернуть людям, потерявшим способность говорить, возможность общаться. Но до сих пор это были очень медленные системы. Процесс, в ходе которого люди пытались говорить или писать, должен был пройти несколько этапов. Пока на другом конце системы появлялось что-то внятное, будь то речь или текст, проходило несколько секунд - слишком много времени для настоящего и свободного общения. Этот новый BCI значительно сокращает время ожидания, - говорит Ануманчипалли, - около одной секунды с момента, когда наш голосовой декодер обнаруживает в нейронных сигналах ваше намерение говорить». Для этого нейробиолога, эксперта в области обработки языка и искусственного интеллекта, новый метод передачи преобразует сигналы вашего мозга в ваш индивидуальный голос практически в режиме реального времени. «Чтобы исключить вероятность того, что Энн и BCI научились повторять фразы, предлагаемые системой (хотя возможных комбинаций были тысячи), на заключительном этапе экспериментов исследователи вывели на экран 26 слов, составляющих так называемый фонетический алфавит НАТО. Этот жаргон был разработан столетие назад и принят военной организацией в 1950-х годах для облегчения радиосвязи путем написания команд. Он начинается со слов альфа, браво, чарли, дельта..... Энн, которая не тренировалась с ними, смогла произнести их без особых отличий от словарей, с которыми она тренировалась: «То, чего мы достигли, - это лишь малая часть того, чего не хватает. Они уже работают над тем, чтобы заставить свой ИИ воспринимать неформальные аспекты общения, такие как тон, выразительность, восклицания, вопросы..... «Мы продолжаем работу над тем, чтобы выяснить, сможем ли мы декодировать эти паралингвистические особенности по активности мозга», - говорит Кайло Литтлджон, также соавтор исследования, в своей заметке. Это давняя проблема, даже в области классического синтеза звука, [решение которой] позволило бы нам добиться полной естественности». Другие проблемы пока также неразрешимы. Одна из них - необходимость вскрывать голову и устанавливать 253 электрода на мозг. Ануманчипалли признает: «Пока что только инвазивные методы доказали свою эффективность при использовании речевого BCI для людей с параличом. Если неинвазивные методы улучшат точность улавливания сигнала, то можно будет предположить, что мы сможем создать неинвазивный BCI». Но сейчас, признает эксперт, они еще не достигли этой цели. «By Miguel Ángel Criado»©EL PAÍS, SL »