Please open Telegram to view this post
VIEW IN TELEGRAM
Paper 02 | Transformers for brain decoding
Neural Data Transformer 2: Multi-context Pretraining for Neural Spiking Activity.
Кратко: применили MAE к нейронным спайкам, добавили инфу о сессии и subject. Получили продвинутый нейродекодер.
paper
Как это работает.
1. Разделение мозговой активности на 20мс интервалы. По сути, rate coding.
2. Группировка нейронов в "патчи", аналогично пикселям в vision-трансформерах.
3. Добавление информации о субъекте и сессии. Контекст играет ключевую роль.
4. Pretrain с помощью MAE.
My thought: Кажется надо как-то адаптивно разные каналы объединять. А то они просто конкатенацию сделали. Тут Perciever выглядит promising.
P.S. MAE претрейн реально работает! Пробовали для ЭМГ. Кстати если докидывать информацию о человеке, то тоже начинает лучше работать.
#review
Neural Data Transformer 2: Multi-context Pretraining for Neural Spiking Activity.
Кратко: применили MAE к нейронным спайкам, добавили инфу о сессии и subject. Получили продвинутый нейродекодер.
paper
Как это работает.
1. Разделение мозговой активности на 20мс интервалы. По сути, rate coding.
2. Группировка нейронов в "патчи", аналогично пикселям в vision-трансформерах.
3. Добавление информации о субъекте и сессии. Контекст играет ключевую роль.
4. Pretrain с помощью MAE.
My thought: Кажется надо как-то адаптивно разные каналы объединять. А то они просто конкатенацию сделали. Тут Perciever выглядит promising.
P.S. MAE претрейн реально работает! Пробовали для ЭМГ. Кстати если докидывать информацию о человеке, то тоже начинает лучше работать.
#review
Paper 03 | Transformers for brain decoding
Towards a "universal translator" for neural dynamics at single-cell, single-spike resolution
Кратко: улучшили претрейн на нейро данных, изменив маскирование.
paper
Какие данные используют.
- Для записи данных использовали Neuropixels. Поставили его на несколько регионов, и просили 48 животных совершать разные задачи.
- Области: secondary visual areas, hippocampus, and thalamus
Как работает модель.
- Используют rate coding и модели NDT-1 and NDT-2
- Придумали multi task masking MtM - модель учится, попеременно маскируя и восстанавливая активность во времени, между нейронами и областями мозга.
- Обучаемый токен подсказывает модели текущую схему маскирования.
Понятным языком. Они посмотрели как работает NDT-2 и решили что можно не совсем рандомно маскировать области, а как-то более осмысленно. Поэтому и придумали разные схемы маскирования. Там и будущее предсказывать и другие области и пропущенные нейроны. Плюс к тому, для каждого типа маскирования у нас свой токен-подсказака, которую они использовали для того, чтобы MAE лучше восстанавливал.
По итогу стало лучше, иначе статьи бы не было.
Мои мысли. Проведя небольшие параллели с прошлыми работами, то это такой микс POYO and NDT. В POYO решались разные supervised задачи, которые кодировались токенами. Вот они эту штуку адаптировали для unmasked задачи. Так и в качестве архитектуры использовали NDT.
По мне подход интересный, но не сильно прорывной. На мой взгляд предсказания будущего само по себе сложная задача и её может быть достаточно. Но могу и ошибаться конечно - надо проверять.
Сложный вопрос про токенизацию: как её делать? Представьте что у нас не 100 нейронов а 1000 или 10000 вот как с этим работать?
Что вы думаете о всех этих моделях? Давайте обсуждать.
#review
Towards a "universal translator" for neural dynamics at single-cell, single-spike resolution
Кратко: улучшили претрейн на нейро данных, изменив маскирование.
paper
Какие данные используют.
- Для записи данных использовали Neuropixels. Поставили его на несколько регионов, и просили 48 животных совершать разные задачи.
- Области: secondary visual areas, hippocampus, and thalamus
Как работает модель.
- Используют rate coding и модели NDT-1 and NDT-2
- Придумали multi task masking MtM - модель учится, попеременно маскируя и восстанавливая активность во времени, между нейронами и областями мозга.
- Обучаемый токен подсказывает модели текущую схему маскирования.
Понятным языком. Они посмотрели как работает NDT-2 и решили что можно не совсем рандомно маскировать области, а как-то более осмысленно. Поэтому и придумали разные схемы маскирования. Там и будущее предсказывать и другие области и пропущенные нейроны. Плюс к тому, для каждого типа маскирования у нас свой токен-подсказака, которую они использовали для того, чтобы MAE лучше восстанавливал.
По итогу стало лучше, иначе статьи бы не было.
Мои мысли. Проведя небольшие параллели с прошлыми работами, то это такой микс POYO and NDT. В POYO решались разные supervised задачи, которые кодировались токенами. Вот они эту штуку адаптировали для unmasked задачи. Так и в качестве архитектуры использовали NDT.
По мне подход интересный, но не сильно прорывной. На мой взгляд предсказания будущего само по себе сложная задача и её может быть достаточно. Но могу и ошибаться конечно - надо проверять.
Сложный вопрос про токенизацию: как её делать? Представьте что у нас не 100 нейронов а 1000 или 10000 вот как с этим работать?
Что вы думаете о всех этих моделях? Давайте обсуждать.
#review
Tasty AI Papers | 01-31 August 2024
Robotics.
🔘 Body Transformer: Leveraging Robot Embodiment for Policy Learning
what: one transformer to control whole body.
- propose Body Transformer (BoT)
- vanilla transformer with special attention mask, which reflects interconnection of the different body parts.
🔘 CrossFormer Scaling Cross-Embodied Learning for Manipulation, Navigation, Locomotion, and Aviation
what: One transformer that can control various robot types.
- trained on 900K trajectories from 20 different robots.
- matches or beats specialized algorithms for each robot type.
- works on arms, wheeled bots, quadrupeds, and even drones.
Diffusion + AR Transformers
🟢 Transfusion: Predict the Next Token and Diffuse Images with One Multi-Modal Model
what: merge AR decoder with vanilla diffusion.
- train model with two objectives: causal language loss + diffusion objective
- deal with discrete and continuous in the same model.
🟡 Discrete Diffusion Modeling by Estimating the Ratios of the Data Distribution
what: propose diffusion for discrete distribution
- beats other diffusion approach for text generation
- outperforms gpt-2.
🟡 Show-o: One Single Transformer to Unify Multimodal Understanding and Generation
what: combine AR transformer with MaskGIT.
- can generate image and understand them.
- text tokenization + image tokenization. Use MaskGIT losses for image tokens.
Robotics.
what: one transformer to control whole body.
- propose Body Transformer (BoT)
- vanilla transformer with special attention mask, which reflects interconnection of the different body parts.
what: One transformer that can control various robot types.
- trained on 900K trajectories from 20 different robots.
- matches or beats specialized algorithms for each robot type.
- works on arms, wheeled bots, quadrupeds, and even drones.
Diffusion + AR Transformers
what: merge AR decoder with vanilla diffusion.
- train model with two objectives: causal language loss + diffusion objective
- deal with discrete and continuous in the same model.
what: propose diffusion for discrete distribution
- beats other diffusion approach for text generation
- outperforms gpt-2.
what: combine AR transformer with MaskGIT.
- can generate image and understand them.
- text tokenization + image tokenization. Use MaskGIT losses for image tokens.
Please open Telegram to view this post
VIEW IN TELEGRAM
Tasty Neuro Papers | 01 - 31 August 2024
Decoding.
🟢 An Accurate and Rapidly Calibrating Speech Neuroprosthesis
what: best speech neuroprosthetics.
- 256 intracortical electrodes recording.
- Up to 90% accuracy on open large vocabular: 125k
- model pipeline:
Conv to extract features → RNN to predict phonemes→ LM to combine phonemes probs with RNN outs→ LLM for candidates.
🔘 An instantaneous voice synthesis neuroprosthesis
what: directly predict voice from the brain
- speech prosthesis is on fire this month
- remove step with words prediction and predict voice directly
- use causal conv and transformers architecture.
- predict tokenized audio vectors.
🔘 Population Transformer: Learning Population-level Representations of Intracranial Activity
what: one more transformer for intracranial neural activity.
- Extract embeddings from each electrode separately then merge them in BERT-like encoder
- propose losses for pretraining stage.
Stimulation
🔘 Biomimetic stimulation patterns drive natural artificial touch percepts using intracorticalmicrostimulation in humans
what: explore different stimulation for touch sensation
Decoding.
what: best speech neuroprosthetics.
- 256 intracortical electrodes recording.
- Up to 90% accuracy on open large vocabular: 125k
- model pipeline:
Conv to extract features → RNN to predict phonemes→ LM to combine phonemes probs with RNN outs→ LLM for candidates.
what: directly predict voice from the brain
- speech prosthesis is on fire this month
- remove step with words prediction and predict voice directly
- use causal conv and transformers architecture.
- predict tokenized audio vectors.
what: one more transformer for intracranial neural activity.
- Extract embeddings from each electrode separately then merge them in BERT-like encoder
- propose losses for pretraining stage.
Stimulation
what: explore different stimulation for touch sensation
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Блуждающий нерв
Очень наглядно: как мозг исцеляет сердце. По сути, на картинке прообраз медицины нового типа.
Мы видим сердца мышей спустя 15 дней после инфаркта. Те, что справа, сохранились гораздо лучше — сердечной ткани больше, фиброзной меньше. В чем дело? В том, что правым мышам ежедневно стимулировали участок мозга, дофаминовые нейроны вентральной области покрышки (VTA). Это снизило воспаление и усилило заживление в сердце. Это также повлияло на печень — она стала вырабатывать больше белка, который помогает формировать новые кровеносные сосуды в поврежденной сердечной ткани. Сердце никто не лечил, только активировали клетки в мозге.
🔗 Статья в Nature Cardiovascular Research (полный текст, через vpn)
🔗 Пресс-релиз
Конечно, мыши не люди, и об этом стоит помнить. Но основания для оптимизма есть, поскольку тут мы не упираемся в различия молекул, генов и проч. [Продолжение] 👇
Мы видим сердца мышей спустя 15 дней после инфаркта. Те, что справа, сохранились гораздо лучше — сердечной ткани больше, фиброзной меньше. В чем дело? В том, что правым мышам ежедневно стимулировали участок мозга, дофаминовые нейроны вентральной области покрышки (VTA). Это снизило воспаление и усилило заживление в сердце. Это также повлияло на печень — она стала вырабатывать больше белка, который помогает формировать новые кровеносные сосуды в поврежденной сердечной ткани. Сердце никто не лечил, только активировали клетки в мозге.
🔗 Статья в Nature Cardiovascular Research (полный текст, через vpn)
🔗 Пресс-релиз
Конечно, мыши не люди, и об этом стоит помнить. Но основания для оптимизма есть, поскольку тут мы не упираемся в различия молекул, генов и проч. [Продолжение] 👇
Meta Connect 24
Мне понравился их новый прототип крутых очков. Orion with holographic AR.
Если коротко, сделали шаг в сторону того, чтобы засунуть quest в очки!
Сделали новый способ проекции на линзы. Работает без проводов и около 100 гр.
Также показали что этим можно будет управлять голосом, hand and eye tracking и muscle interface(ctrl labs armband).
Ждем, выглядит очень многообещающе!
p.s. все движется в сторону очков, потому что носить нечто большое на голове люди очевидно не хотят каждый день.
Мне понравился их новый прототип крутых очков. Orion with holographic AR.
Если коротко, сделали шаг в сторону того, чтобы засунуть quest в очки!
Сделали новый способ проекции на линзы. Работает без проводов и около 100 гр.
Также показали что этим можно будет управлять голосом, hand and eye tracking и muscle interface(ctrl labs armband).
Ждем, выглядит очень многообещающе!
p.s. все движется в сторону очков, потому что носить нечто большое на голове люди очевидно не хотят каждый день.
Orion AR glasses prototype
part from the meta connect 2024
youtube link: https://youtu.be/pPLWIL64sgQ?si=Qm63g68RoYXCqTzd
part from the meta connect 2024
youtube link: https://youtu.be/pPLWIL64sgQ?si=Qm63g68RoYXCqTzd
YouTube
In Full: Mark Zuckerberg Reveals "Orion" Prototype AR Glasses
https://www.uploadvr.com/meta-connect-2024-orion-prototype-ar-glasses/
Follow us!
✖️: https://x.com/UploadVR
📘: https://www.facebook.com/UploadVR/
🧵: https://www.threads.net/@UploadVR
#VR
Follow us!
✖️: https://x.com/UploadVR
📘: https://www.facebook.com/UploadVR/
🧵: https://www.threads.net/@UploadVR
#VR
Forwarded from Голубь Скиннера
Мозг и его скорости
#neuroscience
Публикация: Senkowski, D., & Engel, A. K. (2024). Multi-timescale neural dynamics for multisensory integration. Nature Reviews Neuroscience, 1-18.
Наш мозг обрабатывает информацию, поступающую от разных органов чувств. Эта обработка не осуществляется изолированно: например, мы лучше понимаем речь (слуховая модальность), если наблюдаем за движением губ собеседника (зрительная модальность), и т. д. Объединение процессов такой обработки называется мультисенсорной интеграцией. Недавно в “Nature Reviews Neuroscience” появилась статья про её нейрональные механизмы.
Важной особенностью этого процесса является то, что он осуществляется на разных временных масштабах. Упрощённо: базовая сенсорная обработка происходит на небольших временных масштабах, а высокоуровневые процессы — на более длительных.
Что определяет эти временные масштабы? Синхронная активность нейронов в разных частотных диапазонах — ритмы мозга или осцилляции. Они задействуются в следующих сценариях.
✨ Модуляция амплитуды. Мультисенсорная интеграция сопровождается изменениями в мощности ритмов. Например, была установлена связь быстрой обработки мультисенсорных стимулов с мощностью гамма-ритма, а более сложных процессов (например, аудиовизуальной обработки речи) — с низкими частотами. Впрочем, это не означает, что иерархия мультисенсорной обработки линейно опирается на частоту таким образом, что высокие частоты связаны исключительно с простейшей сенсорной обработкой. Важно обращать внимание на то, какие области мозга генерируют эти ритмы: например, мультисенсорная интеграция может модулировать высокочастотные ритмы не только в сенсорных областях, но и в ассоциативных.
✨ Фазовый сброс (Phase resetting). Предъявление стимула в одной модальности может “обнулить” фазу осцилляций, отвечающих за процессы уже в другой модальности. Например, предъявление тактильного стимула обезьяне может приводить к сбросу фазы осцилляций в широком диапазоне частот (от 1 до 100 Гц) в слуховой коре, причем меньше чем через 100 мс после предъявления стимула. Этот механизм упреждающе может облегчать дальнейшую интеграцию предъявленного стимула в обработку уже другими системами.
✨ Ритмическая привязка (Entrainment). Стимуляция одной сенсорной системы на заданной частоте может индуцировать соответствующие осцилляции в другой системе. В частности, если предъявлять звуковые стимулы с частотой 3 Гц, можно наблюдать осцилляторную активность на этой же частоте в зрительной коре. А при предъявлении двух конкурирующих звуковых потоков целевые звуковые стимулы распознаются легче, если предъявлять зрительные стимулы, не относящиеся к задаче, но по временной динамике соотносимые с целевыми звуками.
✨ Функциональная связность. (Functional coupling). Осцилляции из функционально различных областей могут синхронизоваться на уровне фаз или огибающих. Например, синхронизация бета-ритма между височными и лобно-теменными областями наблюдается при эффекте Мак-Гурка (если вы не знакомы с этим эффектом, можете пройти по ссылке и мультисенсорно забыться). Важно также, что связность может устанавливаться и между разными ритмами: например, медленные осцилляции могут модулировать высокие.
Указанные выше механизмы касаются обработки уже предъявленного стимула. Но важно не забывать и про спонтанную активность незадолго до предъявления стимула. В частности, повышенная мощность спонтанного бета-ритма может предсказывать степень выраженности иллюзии Мак-Гурка, т. е. и предрасположенность к мультисенсорной интеграции в целом.
Также следует отметить, что в мозге имеют место процессы, не привязанные к временному масштабу (scale-free dynamics). Они не задействуют фиксированные частоты и не регулярны. Эту динамику связывают с состоянием критичности, в котором физическая система (мозг) наиболее подвержена изменениям во внешней среде. Соответственно, эти процессы могут влиять на то, с какой лёгкостью происходят ранее описанные фазовые сбросы или ритмические привязки, а также гибкость мультисенсорной интеграции в целом. Но это требует отдельных исследований.
#neuroscience
Публикация: Senkowski, D., & Engel, A. K. (2024). Multi-timescale neural dynamics for multisensory integration. Nature Reviews Neuroscience, 1-18.
Наш мозг обрабатывает информацию, поступающую от разных органов чувств. Эта обработка не осуществляется изолированно: например, мы лучше понимаем речь (слуховая модальность), если наблюдаем за движением губ собеседника (зрительная модальность), и т. д. Объединение процессов такой обработки называется мультисенсорной интеграцией. Недавно в “Nature Reviews Neuroscience” появилась статья про её нейрональные механизмы.
Важной особенностью этого процесса является то, что он осуществляется на разных временных масштабах. Упрощённо: базовая сенсорная обработка происходит на небольших временных масштабах, а высокоуровневые процессы — на более длительных.
Что определяет эти временные масштабы? Синхронная активность нейронов в разных частотных диапазонах — ритмы мозга или осцилляции. Они задействуются в следующих сценариях.
Указанные выше механизмы касаются обработки уже предъявленного стимула. Но важно не забывать и про спонтанную активность незадолго до предъявления стимула. В частности, повышенная мощность спонтанного бета-ритма может предсказывать степень выраженности иллюзии Мак-Гурка, т. е. и предрасположенность к мультисенсорной интеграции в целом.
Также следует отметить, что в мозге имеют место процессы, не привязанные к временному масштабу (scale-free dynamics). Они не задействуют фиксированные частоты и не регулярны. Эту динамику связывают с состоянием критичности, в котором физическая система (мозг) наиболее подвержена изменениям во внешней среде. Соответственно, эти процессы могут влиять на то, с какой лёгкостью происходят ранее описанные фазовые сбросы или ритмические привязки, а также гибкость мультисенсорной интеграции в целом. Но это требует отдельных исследований.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Голубь Скиннера
MEG/EEG Bloopers. Part 2
#neuroimaging
Продолжаю серию пасхалок из анализа сигналов мозга. Активность, регистрируемая с помощью МЭГ и ЭЭГ, представлена ритмическими осцилляциями. Один из стандартных способов оценить, насколько те или иные ритмы выражены, это вычисление спектральной плотности мощности. Характерный спектр МЭГ/ЭЭГ (см. рис. А), представлен несколькими диапазонами частот, наиболее мощный из которых соответствует альфа-ритму (8-12 Гц). Именно его рост мы наблюдаем при закрытии глаз.
Также во многие процессы вовлекается более высокочастотный бета-ритм (12-30 Гц): его связывают с сенсомоторными задачами, вниманием, рабочей памятью и т. д. И в анализе этого ритма может крыться подвох!
Дело в том, что бета может оказаться гармоникой, порождённой альфа-ритмом. Обратимся к примеру. Смоделировав простую синусоиду в альфа-диапазоне на 10 Гц, я получаю характерный пик в спектре на 10 Гц (С). Добавив к этой синусоиде нелинейную компоненту за счёт прибавления квадрата этой синусоиды с небольшим коэффициентом, на спектре можно заметить дополнительный гармонический пик на 20 Гц (D) — а это уже бета-ритм! Похожий пик можно получить и при моделировании синусоиды непосредственно в бета-диапазоне (E).
Вклад гармоник от альфы в оценку бета-ритма, увы, не умозрительный конструкт. Во-первых, каноничный сенсомоторный мю-ритм, который по частотному диапазону соответствует альфе, обладает не синусоидальной, а аркообразной формой. И очень часто ему сопутствуют гармоники в бете. Во-вторых, стандартная затылочная альфа тоже от этого не застрахована. На графике (B) представлен спектр ЭЭГ одного человека в состоянии закрытых глаз. Наряду с пиком в альфа-ритме наблюдается пик и в бете, зависящий от выраженности альфы. Анализ этого феномена более подробно представлен в этой статье (как и некоторые полезные эвристики).
Возникает вопрос — что с этим делать?
➡️ Не ограничивать себя анализом в частотном домене: существуют дополнительные способы оценки осцилляторной активности, в т. ч. и во временном домене с выделением отдельных всплесков осцилляций и оценкой их дополнительных характеристик.
➡️ При частотном анализе учитывать отношение высоких частот к низким, смотреть на поведение спектра в целом, не изолируя отдельные частотные диапазоны.
➡️ Внимательно оценивать центральные частоты в пиках спектра: если центральная частота одного из пиков кратна центральной частоте пика в более низких диапазонах, это повод задуматься о присутствии гармоник.
➡️ Учитывать пространственные характеристики осцилляций: бета-осцилляции с максимумом мощности в затылке — это подозрительно (хотя в редких случаях и присутствие истинных бета-осцилляций в этих регионах не исключено).
➡️ Не использовать синусоиды как базисные функции для спектрального разложения (как это происходит в стандартном Фурье-анализе). Альтернативный вариант — преобразование Гильберта-Хуанга на основе метода EMD. Это преобразование основано на разложении сигнала на эмпирические моды, выделяемые непосредственно из данных. Как видно из моих модельных графиков (F), для нелинейного альфа-ритма это преобразование не выделяет пик в бете. Однако точность разложения зависит от специфики выделения мод, в т. ч. их количества. В представленном примере с разложением на две моды пик находится чуть ниже 10 Гц. Оставляю ссылку на пакет, в котором упомянутое разложение реализовано.
#neuroimaging
Продолжаю серию пасхалок из анализа сигналов мозга. Активность, регистрируемая с помощью МЭГ и ЭЭГ, представлена ритмическими осцилляциями. Один из стандартных способов оценить, насколько те или иные ритмы выражены, это вычисление спектральной плотности мощности. Характерный спектр МЭГ/ЭЭГ (см. рис. А), представлен несколькими диапазонами частот, наиболее мощный из которых соответствует альфа-ритму (8-12 Гц). Именно его рост мы наблюдаем при закрытии глаз.
Также во многие процессы вовлекается более высокочастотный бета-ритм (12-30 Гц): его связывают с сенсомоторными задачами, вниманием, рабочей памятью и т. д. И в анализе этого ритма может крыться подвох!
Дело в том, что бета может оказаться гармоникой, порождённой альфа-ритмом. Обратимся к примеру. Смоделировав простую синусоиду в альфа-диапазоне на 10 Гц, я получаю характерный пик в спектре на 10 Гц (С). Добавив к этой синусоиде нелинейную компоненту за счёт прибавления квадрата этой синусоиды с небольшим коэффициентом, на спектре можно заметить дополнительный гармонический пик на 20 Гц (D) — а это уже бета-ритм! Похожий пик можно получить и при моделировании синусоиды непосредственно в бета-диапазоне (E).
Вклад гармоник от альфы в оценку бета-ритма, увы, не умозрительный конструкт. Во-первых, каноничный сенсомоторный мю-ритм, который по частотному диапазону соответствует альфе, обладает не синусоидальной, а аркообразной формой. И очень часто ему сопутствуют гармоники в бете. Во-вторых, стандартная затылочная альфа тоже от этого не застрахована. На графике (B) представлен спектр ЭЭГ одного человека в состоянии закрытых глаз. Наряду с пиком в альфа-ритме наблюдается пик и в бете, зависящий от выраженности альфы. Анализ этого феномена более подробно представлен в этой статье (как и некоторые полезные эвристики).
Возникает вопрос — что с этим делать?
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Нейроинтерфейсы (Sergei Shishkin)
BCI Award 2024 Winners
1st Place:
Synthetic touch for brain-controlled bionic hands: tactile edges and motion via patterned microstimulation of the human somatosensory cortex
Giacomo Valle, Ali H. Alamri, John E. Downey ... Robert A. Gaunt, Charles M. Greenspon, Sliman J. Bensmaia
University of Chicago, University of Pittsburgh, Northwestern University, Shirley Ryan Ability Lab
2nd Place:
A brain to spinal cord digital bridge to restore voluntary arm and hand movements after a spinal cord injury
Thibault Collin, Icare Sakr, Valeria Spagnolo ... Jocelyne Bloch, Grégoire Courtine, Henri Lorach
EPFL, Lausanne University Hospital, University of Lausanne, ONWARD Medical, Clinatec
3rd Place:
Brain-controlled augmented hearing for spatially moving conversations in multi-talker environments
Vishal Choudhari, Cong Han, Stephan Bickel, Ashesh D. Mehta, Catherine Schevon, Guy M. McKhann, Nima Mesgarani
Columbia University, Hofstra Northwell School of Medicine, The Feinstein Institutes for Medical Research
1st Place:
Synthetic touch for brain-controlled bionic hands: tactile edges and motion via patterned microstimulation of the human somatosensory cortex
Giacomo Valle, Ali H. Alamri, John E. Downey ... Robert A. Gaunt, Charles M. Greenspon, Sliman J. Bensmaia
University of Chicago, University of Pittsburgh, Northwestern University, Shirley Ryan Ability Lab
2nd Place:
A brain to spinal cord digital bridge to restore voluntary arm and hand movements after a spinal cord injury
Thibault Collin, Icare Sakr, Valeria Spagnolo ... Jocelyne Bloch, Grégoire Courtine, Henri Lorach
EPFL, Lausanne University Hospital, University of Lausanne, ONWARD Medical, Clinatec
3rd Place:
Brain-controlled augmented hearing for spatially moving conversations in multi-talker environments
Vishal Choudhari, Cong Han, Stephan Bickel, Ashesh D. Mehta, Catherine Schevon, Guy M. McKhann, Nima Mesgarani
Columbia University, Hofstra Northwell School of Medicine, The Feinstein Institutes for Medical Research
BCI Award
BCI Award: Submit now!
The Annual BCI Award, endowed with 3,000 USD, is one of the top accolades in BCI research.
tasty neuro papers | september 2024
decoding.
SPARKS: A Biologically Inspired Neural Attention Model for the Analysis of Sequential Spiking Patterns
what: VAE with interpretable latent for spike recording.
- the model learns to generate accurate predictions from neural data.
- good paper and visualization.
BrainWave: A Brain Signal Foundation Model for Clinical Applications
what: the first foundation model for both invasive and noninvasive neural recordings
- 40,000 hours of electrical brain recordings from almost 16,000 subjects.
- works better than specialized model.
- data is all you need.
interesting.
The state of clinical trials of implantable brain–computer interfaces
what: review of the most interesting BCI labs
Graphene-based microelectrodes with bidirectional functionality for next-generation retinal electronic interfaces
what: use promising materials for electrodes.
decoding.
SPARKS: A Biologically Inspired Neural Attention Model for the Analysis of Sequential Spiking Patterns
what: VAE with interpretable latent for spike recording.
- the model learns to generate accurate predictions from neural data.
- good paper and visualization.
BrainWave: A Brain Signal Foundation Model for Clinical Applications
what: the first foundation model for both invasive and noninvasive neural recordings
- 40,000 hours of electrical brain recordings from almost 16,000 subjects.
- works better than specialized model.
- data is all you need.
interesting.
The state of clinical trials of implantable brain–computer interfaces
what: review of the most interesting BCI labs
Graphene-based microelectrodes with bidirectional functionality for next-generation retinal electronic interfaces
what: use promising materials for electrodes.
Extracting the oscillatory features of local field potentials using neural networks.
I'm happy to tell you about my poster from SfN 24.
What: we force autoencoder(AE) to learn meaningful components from LFP signals.
How it works
We implement periodic regularization module.
- decompose LFP on components via encoder.
- apply sinusoidal approximation for each component (torch.fft)
- push our latents to be similar with approximation and independent from each other
- random weighted average of latents and sinusoidal go to decoder.
Architecture.
AE with resconv layers and periodic regularization for latent space.
Our losses:
- reconstruction loss. MSE loss
- tv loss to force latens to be smooth
- maximizing cosine similarity betwen latents and sinusoidals.
- minimize cross corr of latents.
My thoughts
We've got some frequency decomposition not for input data but for some nonlinear features of the input data. That's the most interesting part, in my view.
For sure, it requires improvements. Model needs to use context information about sessions and electrodes. Also, it should work with all electrodes at once, so we could reduce dimensionality.
p.s. like this post and comment, if you want to see code,
I'm happy to tell you about my poster from SfN 24.
What: we force autoencoder(AE) to learn meaningful components from LFP signals.
How it works
We implement periodic regularization module.
- decompose LFP on components via encoder.
- apply sinusoidal approximation for each component (torch.fft)
- push our latents to be similar with approximation and independent from each other
- random weighted average of latents and sinusoidal go to decoder.
Architecture.
AE with resconv layers and periodic regularization for latent space.
Our losses:
- reconstruction loss. MSE loss
- tv loss to force latens to be smooth
- maximizing cosine similarity betwen latents and sinusoidals.
- minimize cross corr of latents.
My thoughts
We've got some frequency decomposition not for input data but for some nonlinear features of the input data. That's the most interesting part, in my view.
For sure, it requires improvements. Model needs to use context information about sessions and electrodes. Also, it should work with all electrodes at once, so we could reduce dimensionality.
p.s. like this post and comment, if you want to see code,
kovalev-sfn-final.pdf
5.5 MB
Extracting the oscillatory features of local field potentials using neural networks.
Full size pdf.
Full size pdf.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Блуждающий нерв
В свежем Science про потенциал ‘биогибридной медицины’ — идею лечить болезни, имплантируя в пациентов клетки, производящие лекарство, вместе с биоэлектроникой, которая будет эти клетки контролировать.
Ровно под эту идею агентство ARPA-H год назад запустило программу REACT (What if your body could make its own medicine?), а в этом месяце объявило четыре команды из Mayo Clinic, Carnegie Mellon и Columbia, которые получат финансирование на разработку технологии.
Это как дополнение к недавнему посту. Подход “клетки как лекарства” будет набирать силу, так как появляются все более точные инструменты для контроля клеток in vivo. И все больше ученых работают над этой стратегией.
Ровно под эту идею агентство ARPA-H год назад запустило программу REACT (What if your body could make its own medicine?), а в этом месяце объявило четыре команды из Mayo Clinic, Carnegie Mellon и Columbia, которые получат финансирование на разработку технологии.
Это как дополнение к недавнему посту. Подход “клетки как лекарства” будет набирать силу, так как появляются все более точные инструменты для контроля клеток in vivo. И все больше ученых работают над этой стратегией.
Science
Are implantable, living pharmacies within reach?
Cell-based drug factories could produce therapies on demand inside patients