🤖Мета представила модель искусственного интеллекта, которая может декодировать речь из мозга
После трех секунд мозговой активности результаты показывают, что эта модель может декодировать из неинвазивных записей активности мозга соответствующие речевые сегменты с точностью до 73% из словаря, включающего 793 слов, большую часть которых люди используют ежедневно.
Модель глубокого обучения обучается посредством contrastive learning, а затем используется для выравнивания неинвазивных записей мозга и звуков речи. Для этого исследователи используют wave2vec 2.0, модель обучения с открытым исходным кодом, которая помогает определить сложные представления речи в мозге людей, слушающих аудиокниги.
Следующий шаг - посмотреть, может ли команда расширить эту модель, чтобы напрямую декодировать речь из мозговой активности без необходимости параллельного прослушивания аудиоклипов.
Ежегодно более 69 миллионов человек во всем мире получают
травматические повреждения мозга, и многим из них подобные технологии могут помочь вернуться к нормальной жизни.
Также подобные исследования от Меты отлично вписываются в их видение будущего, как ни крути, у них хорошее железо и самые популярные VR-устройства. Гонка в разработке нейроинтерфейсов становится все живее, и за этим приятно наблюдать, посмотрим, чем рынок порадует нас в ближайшем будущем.
Ссылка на исследование:
https://ai.facebook.com/blog/ai-speech-brain-activity/
AR/VR Designer
>>Click here to continue<<