TG Telegram Group & Channel
AR/VR Engineer | United States America (US)
Create: Update:

🤖Мета представила модель искусственного интеллекта, которая может декодировать речь из мозга

После трех секунд мозговой активности результаты показывают, что эта модель может декодировать из неинвазивных записей активности мозга соответствующие речевые сегменты с точностью до 73% из словаря, включающего 793 слов, большую часть которых люди используют ежедневно.

Модель глубокого обучения обучается посредством contrastive learning, а затем используется для выравнивания неинвазивных записей мозга и звуков речи. Для этого исследователи используют wave2vec 2.0, модель обучения с открытым исходным кодом, которая помогает определить сложные представления речи в мозге людей, слушающих аудиокниги.

Следующий шаг - посмотреть, может ли команда расширить эту модель, чтобы напрямую декодировать речь из мозговой активности без необходимости параллельного прослушивания аудиоклипов.

Ежегодно более 69 миллионов человек во всем мире получают
травматические повреждения мозга, и многим из них подобные технологии могут помочь вернуться к нормальной жизни.

Также подобные исследования от Меты отлично вписываются в их видение будущего, как ни крути, у них хорошее железо и самые популярные VR-устройства. Гонка в разработке нейроинтерфейсов становится все живее, и за этим приятно наблюдать, посмотрим, чем рынок порадует нас в ближайшем будущем.

Ссылка на исследование:
https://ai.facebook.com/blog/ai-speech-brain-activity/

AR/VR Designer

This media is not supported in your browser
VIEW IN TELEGRAM
🤖Мета представила модель искусственного интеллекта, которая может декодировать речь из мозга

После трех секунд мозговой активности результаты показывают, что эта модель может декодировать из неинвазивных записей активности мозга соответствующие речевые сегменты с точностью до 73% из словаря, включающего 793 слов, большую часть которых люди используют ежедневно.

Модель глубокого обучения обучается посредством contrastive learning, а затем используется для выравнивания неинвазивных записей мозга и звуков речи. Для этого исследователи используют wave2vec 2.0, модель обучения с открытым исходным кодом, которая помогает определить сложные представления речи в мозге людей, слушающих аудиокниги.

Следующий шаг - посмотреть, может ли команда расширить эту модель, чтобы напрямую декодировать речь из мозговой активности без необходимости параллельного прослушивания аудиоклипов.

Ежегодно более 69 миллионов человек во всем мире получают
травматические повреждения мозга, и многим из них подобные технологии могут помочь вернуться к нормальной жизни.

Также подобные исследования от Меты отлично вписываются в их видение будущего, как ни крути, у них хорошее железо и самые популярные VR-устройства. Гонка в разработке нейроинтерфейсов становится все живее, и за этим приятно наблюдать, посмотрим, чем рынок порадует нас в ближайшем будущем.

Ссылка на исследование:
https://ai.facebook.com/blog/ai-speech-brain-activity/

AR/VR Designer


>>Click here to continue<<

AR/VR Engineer




Share with your best friend
VIEW MORE

United States America Popular Telegram Group (US)