Дуров анонсировал децентрализованную ИИ-сеть 
Cocoon (Confidential Compute Open Network) это два в одном: майнинг и конфиденциальность ваших ИИ-запросов. То есть:
– Владельцы GPU подключают свои видеокарты к сети и получают за это TON.
– Разработчики получают доступ к компьюту, а пользователи могут безопасно общаться с моделями.
Если у вас есть GPU и вы готовы ее предоставить, пост с информацией вот
Cocoon (Confidential Compute Open Network) это два в одном: майнинг и конфиденциальность ваших ИИ-запросов. То есть:
– Владельцы GPU подключают свои видеокарты к сети и получают за это TON.
– Разработчики получают доступ к компьюту, а пользователи могут безопасно общаться с моделями.
Если у вас есть GPU и вы готовы ее предоставить, пост с информацией вот
2❤102😁62🔥28🤯12👍9🤔4
  OpenAI релизнули две новые открытые модели: gpt-oss-safeguard 20B и 120B 
Они основаны на gpt-oss и обучены специально для задач классификации текста на предмет безопасности. Важно, что правила фильтрации не сразу зашиты в модель, а определяются самим пользователем уже на этапе инференса и могут быть какими угодно.
Это что-то новенькое. И вообще, кажется, что область очень узкая. Но на самом деле задач, связанных со всевозможной модерацией контента, вокруг море, и с ростом популярности ИИ их становится еще больше. И в этом смысле модели актуальные.
OpenAI пишут, что работают они прямо отлично, но только при условии, что вы зададите четкие непротиворечивые инструкции. Если политика продуманная, то gpt-oss-safeguard (якобы) смогут обрабатывать даже сложные пограничные случаи.
Внутри стартапа эти модели уже частично используются для оценки безопасности запросов и элаймента моделей.
Это удобно, потому что в разных случаях политика может быть разная: для несовершеннолетних пользователей одна, для самих моделей другая, для бизнеса третья. И обучать несколько разных классификаторов не нужно: достаточно задать одной и той же модели разные инструкции, и она подстроится.
openai.com/index/introducing-gpt-oss-safeguard/
Они основаны на gpt-oss и обучены специально для задач классификации текста на предмет безопасности. Важно, что правила фильтрации не сразу зашиты в модель, а определяются самим пользователем уже на этапе инференса и могут быть какими угодно.
Это что-то новенькое. И вообще, кажется, что область очень узкая. Но на самом деле задач, связанных со всевозможной модерацией контента, вокруг море, и с ростом популярности ИИ их становится еще больше. И в этом смысле модели актуальные.
OpenAI пишут, что работают они прямо отлично, но только при условии, что вы зададите четкие непротиворечивые инструкции. Если политика продуманная, то gpt-oss-safeguard (якобы) смогут обрабатывать даже сложные пограничные случаи.
Внутри стартапа эти модели уже частично используются для оценки безопасности запросов и элаймента моделей.
Это удобно, потому что в разных случаях политика может быть разная: для несовершеннолетних пользователей одна, для самих моделей другая, для бизнеса третья. И обучать несколько разных классификаторов не нужно: достаточно задать одной и той же модели разные инструкции, и она подстроится.
openai.com/index/introducing-gpt-oss-safeguard/
❤47🔥16👍11🤝8🤩2😁1🤯1
  Интеллектуальная нищета не лечится промтами и курсами
Если при практически неограниченных возможностях общения с ИИ человек всё ещё надеется найти «тот самый волшебный промт», то дело уже не в промтах, а в самом подходе. Это сознательный выбор остаться неконкурентоспособным
Если же человек до сих пор не начал коммуницировать с ИИ, то он либо слишком счастлив и уже поймал дзен, либо недееспособен, либо его восприятие реальности настолько ограничено, что он не осознаёт происходящего
ИИ обучается на миллиардах человеческих текстов и является зеркалом коллективного сознания. Его ответы - отражение мышления вопрошающего. И если это мышление узко, то человек окончательно лишится шансов конкурировать уже через 5-7 лет. Причём он даже не узнает о своей ограниченности - примерно так же, как голубь не узнает, что семечки падают не с неба
Интеллектуальная нищета лечится только осознанием факта, что с неба вообще ничего не падает. Даже семечки
Первая порция пищи для ума и ключ к эффективному союзу с ChatGPT:
🔐 Метод Хирона. Часть 1. «Человеĸ + Исĸусственный Интеллеĸт»
P.S.Любопытство - это хорошо, если знаешь,  куда его направить 
Если при практически неограниченных возможностях общения с ИИ человек всё ещё надеется найти «тот самый волшебный промт», то дело уже не в промтах, а в самом подходе. Это сознательный выбор остаться неконкурентоспособным
Если же человек до сих пор не начал коммуницировать с ИИ, то он либо слишком счастлив и уже поймал дзен, либо недееспособен, либо его восприятие реальности настолько ограничено, что он не осознаёт происходящего
ИИ обучается на миллиардах человеческих текстов и является зеркалом коллективного сознания. Его ответы - отражение мышления вопрошающего. И если это мышление узко, то человек окончательно лишится шансов конкурировать уже через 5-7 лет. Причём он даже не узнает о своей ограниченности - примерно так же, как голубь не узнает, что семечки падают не с неба
Интеллектуальная нищета лечится только осознанием факта, что с неба вообще ничего не падает. Даже семечки
Первая порция пищи для ума и ключ к эффективному союзу с ChatGPT:
🔐 Метод Хирона. Часть 1. «Человеĸ + Исĸусственный Интеллеĸт»
P.S.
😁82🗿69❤17🤨17
  This media is not supported in your browser
    VIEW IN TELEGRAM
  AlphaXiv сделали крутую подробнейшую 3D-визуализацию трансформера 
Они взяли LLaMA 3.1 и создали трёхмерную интерактивную схему, внутри которой можно полетать сквозь все внутренности трансформера и увидеть, как модель работает изнутри.
Если навести курсор на блок, то появится всплывающая карточка с описанием вычислений, которые за ним стоят. А если щелкнуть, то откроется встроенный редактор кода, в котором можно посмотреть точный код операции.
Реализовано все на основе библиотеки ggml в llama-cpp. Оттуда парсится отладочная информация о том, какие операции происходят во время вычислений (например, MUL_MAT, ROPE, RESHAPE, ADD). Затем это визуализируется в виде 3D-блоков в three.js. Для удобства восприятия все блоки разбиты на смысловые группы: query, key, value, MLP и residual stream.
www.alphaxiv.org/labs/tensor-trace
Они взяли LLaMA 3.1 и создали трёхмерную интерактивную схему, внутри которой можно полетать сквозь все внутренности трансформера и увидеть, как модель работает изнутри.
Если навести курсор на блок, то появится всплывающая карточка с описанием вычислений, которые за ним стоят. А если щелкнуть, то откроется встроенный редактор кода, в котором можно посмотреть точный код операции.
Реализовано все на основе библиотеки ggml в llama-cpp. Оттуда парсится отладочная информация о том, какие операции происходят во время вычислений (например, MUL_MAT, ROPE, RESHAPE, ADD). Затем это визуализируется в виде 3D-блоков в three.js. Для удобства восприятия все блоки разбиты на смысловые группы: query, key, value, MLP и residual stream.
www.alphaxiv.org/labs/tensor-trace
1🔥135❤33👍15🤔5🤯3😁1
  Media is too big
    VIEW IN TELEGRAM
  Cursor выкатили собственную модель для кодинга и обновили редактор до версии 2.0
Первое и самое важное: Composer. Это дебютная собственная модель стартапа (давно пора). MoE. Базовую модель не упоминают, но говорят, что обучали с помощью RL.
По метрикам – уровень frontier (Haiku 4.5, Gemini Flash 2.5), но от GPT-5 и Sonnet 4.5 отстает. Зато по скорости заявляют 4х относительно конкурентов. Плюс, модель специально ориентирована на длинный контекст и tool use (семантический поиск, терминал, работа с файлами).
Цены на уровне GPT-5. В общем, надо пробовать.
Теперь кратко по основным обновлениям в самом Cursor 2.0:
– Интерфейс теперь ориентирован на multi-agent. А еще появилась новая интересная функция: можно запустить разные модели параллельно работать над одной и той же задачей.
– Появился встроенный браузер, который позволяет агентам самостоятельно тестировать выполненную работу и итеративно дорабатывать её до корректного результата.
– Добавлен голосовой режим!
Скачать уже можно вот тут. Завтра будет интересный рабочий день☕️ 
Первое и самое важное: Composer. Это дебютная собственная модель стартапа (давно пора). MoE. Базовую модель не упоминают, но говорят, что обучали с помощью RL.
По метрикам – уровень frontier (Haiku 4.5, Gemini Flash 2.5), но от GPT-5 и Sonnet 4.5 отстает. Зато по скорости заявляют 4х относительно конкурентов. Плюс, модель специально ориентирована на длинный контекст и tool use (семантический поиск, терминал, работа с файлами).
Цены на уровне GPT-5. В общем, надо пробовать.
Теперь кратко по основным обновлениям в самом Cursor 2.0:
– Интерфейс теперь ориентирован на multi-agent. А еще появилась новая интересная функция: можно запустить разные модели параллельно работать над одной и той же задачей.
– Появился встроенный браузер, который позволяет агентам самостоятельно тестировать выполненную работу и итеративно дорабатывать её до корректного результата.
– Добавлен голосовой режим!
Скачать уже можно вот тут. Завтра будет интересный рабочий день
Please open Telegram to view this post
    VIEW IN TELEGRAM
  👍70❤36🔥15😁5
  В ближайшие полтора года OpenAI начнет продавать свои акции публично 
К концу 2026 компания планирует подать документы, а к началу 2027 акции окажутся в продаже. Видимо, процесс запустился немедленно после недавней реструктуризации компании (она сделала OpenAI пригодной для публичного листинга).
Выход на биржу рассматривается с оценкой до $1 триллиона. Это один из крупнейших IPO в истории.
Для стартапа IPO – еще один способ привлечь капитал. Сейчас они ведут предварительные переговоры с инвесторами о вложениях минимум $60 миллиардов с возможным увеличением суммы на стадии размещения.
💸 
К концу 2026 компания планирует подать документы, а к началу 2027 акции окажутся в продаже. Видимо, процесс запустился немедленно после недавней реструктуризации компании (она сделала OpenAI пригодной для публичного листинга).
Выход на биржу рассматривается с оценкой до $1 триллиона. Это один из крупнейших IPO в истории.
Для стартапа IPO – еще один способ привлечь капитал. Сейчас они ведут предварительные переговоры с инвесторами о вложениях минимум $60 миллиардов с возможным увеличением суммы на стадии размещения.
Please open Telegram to view this post
    VIEW IN TELEGRAM
  🤯68😁25❤7🤔7👍5🤩4🦄4🗿2🔥1
  Media is too big
    VIEW IN TELEGRAM
  МТС True Tech Champ — зрелищный шоу-чемпионат с ИИ-спецэффектами!  
21 ноября МТС объединяет ИТ-конференцию и ИТ-чемпионат на одной площадке. Тебя ждет настоящий фестиваль технологий. Более 250 ИТ-талантов со всей России сразятся в лайв-кодинге и программировании роботов на скоростное прохождение лабиринтов со спецэффектами.
Между наблюдением за заездами и поединками ты сможешь:
▫️ послушать конференцию с международными спикерами в области ИИ;
▫️ поучаствовать в воркшопах и юмористических батлах в ИТ-качалке;
▫️ испытать себя в кодерских челленджах и других айтивностях;
▫️ перезагрузить карьеру в HR-Хабе вместе с командой МТС.
День завершится ярким афтепати со звездными хедлайнерами.
👉🏻 Участие бесплатно, количество мест ограничено. Успей зарегистрироваться
21 ноября МТС объединяет ИТ-конференцию и ИТ-чемпионат на одной площадке. Тебя ждет настоящий фестиваль технологий. Более 250 ИТ-талантов со всей России сразятся в лайв-кодинге и программировании роботов на скоростное прохождение лабиринтов со спецэффектами.
Между наблюдением за заездами и поединками ты сможешь:
▫️ послушать конференцию с международными спикерами в области ИИ;
▫️ поучаствовать в воркшопах и юмористических батлах в ИТ-качалке;
▫️ испытать себя в кодерских челленджах и других айтивностях;
▫️ перезагрузить карьеру в HR-Хабе вместе с командой МТС.
День завершится ярким афтепати со звездными хедлайнерами.
👉🏻 Участие бесплатно, количество мест ограничено. Успей зарегистрироваться
🗿13❤8👍4😁2👌2🤨2🤯1
  Nvidia официально достигла капитализации в 5 триллионов долларов 
Компания стала первой в истории, кто преодолел этот рубеж на фондовом рынке: причем буквально через три месяца после достижения капитализации в 4 триллиона.
Динамика просто потрясающая. С момента релиза ChatGPT оценка выросла более чем в 10 раз, и рост продолжает ускоряться (сколько принесли одни только последние контракты с OpenAI и xAI).
У одного тайваньского бизнесмена сегодня хорошее настроение🔵 
Компания стала первой в истории, кто преодолел этот рубеж на фондовом рынке: причем буквально через три месяца после достижения капитализации в 4 триллиона.
Динамика просто потрясающая. С момента релиза ChatGPT оценка выросла более чем в 10 раз, и рост продолжает ускоряться (сколько принесли одни только последние контракты с OpenAI и xAI).
У одного тайваньского бизнесмена сегодня хорошее настроение
Please open Telegram to view this post
    VIEW IN TELEGRAM
  🤯84❤25☃9🔥7😁5😎3
  MWS AI обновила свою модель Cotype Pro 2.5: свежая версия заняла первое место среди российских моделей на бенчмарке MERA 
Теперь модель больше заточена под агентские сценарии. Ее можно связать с корпоративной базой знаний или кодовой базой, а также со всевозможными CRM, почтовыми сервисами, календарями и тд. Получается довольно глубокая агентная интеграция.
Кроме того, модель прокачали для многошаговых задач: теперь с ее помощью можно автоматизировать довольно сложные процессы, которые требуют, например, последовательной сверки с данными и автономной работы с разными корпоративными сервисами.
По заявлению компании, эффективность работы модели в таких сценариях превосходит Cotype Pro 2 в десять раз, а Qwen3-32B – в 2,5 раза.
Количество юзкейсов для модели просто огромное. На ее базе МТС также планирует создавать уже готовых ИИ-ассистентов для бизнеса под разные задачи.
Теперь модель больше заточена под агентские сценарии. Ее можно связать с корпоративной базой знаний или кодовой базой, а также со всевозможными CRM, почтовыми сервисами, календарями и тд. Получается довольно глубокая агентная интеграция.
Кроме того, модель прокачали для многошаговых задач: теперь с ее помощью можно автоматизировать довольно сложные процессы, которые требуют, например, последовательной сверки с данными и автономной работы с разными корпоративными сервисами.
По заявлению компании, эффективность работы модели в таких сценариях превосходит Cotype Pro 2 в десять раз, а Qwen3-32B – в 2,5 раза.
Количество юзкейсов для модели просто огромное. На ее базе МТС также планирует создавать уже готовых ИИ-ассистентов для бизнеса под разные задачи.
1🔥51😁26❤20👍10🗿8👏3🤯2
  Новое полу-психологическое исследование от Anthropic: способны ли модели к интроспекции?
У людей интроспекция – это когда ты замечаешь: «я злюсь», «я думаю об этом», «я хочу сделать вот это». То есть мозг умеет интерпретировать собственное состояние. Вопрос: способны ли к чему-то подобному модели?
По обычному диалогу, это, само собой, непонятно. Модельки довольно часто генерят что-то типа "Мне кажется", "Я думаю". Но это потому что они обучены на текстах, в которых люди так говорят. То есть они могут имитировать интроспекцию, даже если на самом деле не смотрят внутрь себя, а просто копируют стиль. Это называется конфабуляция.
Anthropic решили проверить, есть ли в этой череде конфабуляций хоть частичка правды. На техническом языке это значит: может ли модель интерпретировать собственные активации?
Оказалось, что иногда может.
Проверяли это с помощью искусственного внедрения в активации модели специальных векторов состояний. Эти векторы получают так: показывают модели два очень похожих текста, которые различаются только в одном аспекте (например, один вариант с текстом В КАПСЕ vs обычный), и вычитают активации одного из другого. Разница дает направление в активационном пространстве, которое соответствует этой концепции (в данном случае, крику).
Полученный вектор прямо добавляют в скрытое состояние модели на каком-то слое и спрашивают, замечает ли она что-то необычное. Результат: примерно в 20% случаев Opus 4.1 и Opus 4 действительно говорят что-то типа "я ощущаю навязанную мысль, она похожа на что-то громкое". То есть
а) Модель не просто говорит «что-то не то у меня в голове», а довольно корректно называет саму концепцию, которую внедрили. И, более того, отличает ее от собственных активаций, точно понимая, что мысль ей именно подсунули.
б) Она делает это до того, как концепция протолкнулась в генерацию. То есть во время ответа она не может ориентироваться на текст, который был сгенерирован под воздействием концепции. Вместо этого модель сразу копается в собственных "мыслях" и интерпретирует их.
Также Anthropic показали, что модель отличает внутренний поток мыслей от самих генераций. Это как у человека: "это я думаю, а это говорю". А еще моделька может подумать о чем-то по команде. Например, если сказать ей "думай о хлебе, и расскажи мне про львов", то след активаций действительно будет содержать компонент «хлеб» в определённых слоях.
Способность эта, конечно, пока крайне нестабильна и капризна. Но сам факт: она есть! И если научиться этим управлять, возможно, модели станут прозрачнее (или нет😎 )
transformer-circuits.pub/2025/introspection/index.html
У людей интроспекция – это когда ты замечаешь: «я злюсь», «я думаю об этом», «я хочу сделать вот это». То есть мозг умеет интерпретировать собственное состояние. Вопрос: способны ли к чему-то подобному модели?
По обычному диалогу, это, само собой, непонятно. Модельки довольно часто генерят что-то типа "Мне кажется", "Я думаю". Но это потому что они обучены на текстах, в которых люди так говорят. То есть они могут имитировать интроспекцию, даже если на самом деле не смотрят внутрь себя, а просто копируют стиль. Это называется конфабуляция.
Anthropic решили проверить, есть ли в этой череде конфабуляций хоть частичка правды. На техническом языке это значит: может ли модель интерпретировать собственные активации?
Оказалось, что иногда может.
Проверяли это с помощью искусственного внедрения в активации модели специальных векторов состояний. Эти векторы получают так: показывают модели два очень похожих текста, которые различаются только в одном аспекте (например, один вариант с текстом В КАПСЕ vs обычный), и вычитают активации одного из другого. Разница дает направление в активационном пространстве, которое соответствует этой концепции (в данном случае, крику).
Полученный вектор прямо добавляют в скрытое состояние модели на каком-то слое и спрашивают, замечает ли она что-то необычное. Результат: примерно в 20% случаев Opus 4.1 и Opus 4 действительно говорят что-то типа "я ощущаю навязанную мысль, она похожа на что-то громкое". То есть
а) Модель не просто говорит «что-то не то у меня в голове», а довольно корректно называет саму концепцию, которую внедрили. И, более того, отличает ее от собственных активаций, точно понимая, что мысль ей именно подсунули.
б) Она делает это до того, как концепция протолкнулась в генерацию. То есть во время ответа она не может ориентироваться на текст, который был сгенерирован под воздействием концепции. Вместо этого модель сразу копается в собственных "мыслях" и интерпретирует их.
Также Anthropic показали, что модель отличает внутренний поток мыслей от самих генераций. Это как у человека: "это я думаю, а это говорю". А еще моделька может подумать о чем-то по команде. Например, если сказать ей "думай о хлебе, и расскажи мне про львов", то след активаций действительно будет содержать компонент «хлеб» в определённых слоях.
Способность эта, конечно, пока крайне нестабильна и капризна. Но сам факт: она есть! И если научиться этим управлять, возможно, модели станут прозрачнее (или нет
transformer-circuits.pub/2025/introspection/index.html
Please open Telegram to view this post
    VIEW IN TELEGRAM
  Please open Telegram to view this post
    VIEW IN TELEGRAM
  👍61😁27🤯22❤16🔥12
  DeepMind обучили модель, способную генерировать красивые шахматные задачи 
Обратите внимание на слово «красивые». Простенькие шахматные задачки, наверное, каждая LLM может наклепать.
Но чтобы получилась действительно оригинальная шахматная задача – нужно и некоторое творчество, и понимание изящества и эстетики позиции.
И вот чтобы научить этому модель, исследователи специально сотрудничали с гроссмейстерами Мэттью Сэдлером и Джонатаном Левиттом, а также с мастером ФИДЕ по композиции Амацием Авни. Их пригласили выбрать любимые задачи и объяснить, что именно делает задачу особенно симпатичной.
Саму модельку сначала учили просто на куче задач с Lichess, а потом как раз на основе разметки экспертов тюнили с помощью RL-ки, чтобы задачи были оригинальные и сложные.
Попробовать порешать можно тут -> www.chess.com/library/collections/ai-generated-chess-puzzles-2wCTN7Uv2
Обратите внимание на слово «красивые». Простенькие шахматные задачки, наверное, каждая LLM может наклепать.
Но чтобы получилась действительно оригинальная шахматная задача – нужно и некоторое творчество, и понимание изящества и эстетики позиции.
И вот чтобы научить этому модель, исследователи специально сотрудничали с гроссмейстерами Мэттью Сэдлером и Джонатаном Левиттом, а также с мастером ФИДЕ по композиции Амацием Авни. Их пригласили выбрать любимые задачи и объяснить, что именно делает задачу особенно симпатичной.
Саму модельку сначала учили просто на куче задач с Lichess, а потом как раз на основе разметки экспертов тюнили с помощью RL-ки, чтобы задачи были оригинальные и сложные.
Попробовать порешать можно тут -> www.chess.com/library/collections/ai-generated-chess-puzzles-2wCTN7Uv2
😁50🔥35❤20👍9🏆3
  А как же мемы про собесы?
Если вы когда-нибудь пробовали устроиться в Яндекс, то знаете, что отбор там обычно долгий и не всегда прозрачный. Довольно странное ощущение, когда в начале или середине процесса ты всё ещё не понимаешь, что тебя ждет и как к этому вообще готовиться. Особенно, когда приходится доказывать компетентность своих хардов по нескольку раз.
Судя по всему, компания наконец прислушалась к болям кандидатов: возможно роль сыграли те самые мемные рилсы. Изменения на первый взгляд кажутся небольшими, но понятно, что просто взять и вырезать этапы, сократив их условно до двух встреч не получится. В любом бигтехе такие перестановки требуют огромного количества усилий и времени — а когда ты нанимаешь по десятку тысяч людей за год, тем более этот механизм двигать очень сложно. И всё же, спойлер, лёд тронулся.
Раньше одни и те же технички можно было проходить по кругу, потому что разные сервисы по-разному видели этот этап. Или другая проблема — умеешь управлять людьми, а тебя просят написать код на позицию IC. Теперь повторные тех секции убрали, и сделали это для большинства стеков, в том числе для ML-щиков. Гадать на кофейной гуще о количестве встреч тоже можно будет меньше, максимальное количество этапов будут озвучивать с самого начала.
Короче, если вся система перестает напоминать квест на выносливость — это будет хороший шаг. Думаю, когда соискатель понимает, что его время ценят, что каждая встреча имеет смысл — процесс перестает душить.
Если вы когда-нибудь пробовали устроиться в Яндекс, то знаете, что отбор там обычно долгий и не всегда прозрачный. Довольно странное ощущение, когда в начале или середине процесса ты всё ещё не понимаешь, что тебя ждет и как к этому вообще готовиться. Особенно, когда приходится доказывать компетентность своих хардов по нескольку раз.
Судя по всему, компания наконец прислушалась к болям кандидатов: возможно роль сыграли те самые мемные рилсы. Изменения на первый взгляд кажутся небольшими, но понятно, что просто взять и вырезать этапы, сократив их условно до двух встреч не получится. В любом бигтехе такие перестановки требуют огромного количества усилий и времени — а когда ты нанимаешь по десятку тысяч людей за год, тем более этот механизм двигать очень сложно. И всё же, спойлер, лёд тронулся.
Раньше одни и те же технички можно было проходить по кругу, потому что разные сервисы по-разному видели этот этап. Или другая проблема — умеешь управлять людьми, а тебя просят написать код на позицию IC. Теперь повторные тех секции убрали, и сделали это для большинства стеков, в том числе для ML-щиков. Гадать на кофейной гуще о количестве встреч тоже можно будет меньше, максимальное количество этапов будут озвучивать с самого начала.
Короче, если вся система перестает напоминать квест на выносливость — это будет хороший шаг. Думаю, когда соискатель понимает, что его время ценят, что каждая встреча имеет смысл — процесс перестает душить.
❤64😁35🗿21👍9🤯7🫡5🤨2❤🔥1
  Исследователи из Tsinghua University разработали первый в мире оптический вычислительный модуль OFE²
Optical Feature Extraction Engine – это устройство, которое использует для вычислений фотоны вместо электронов. Световые сигналы проходят через систему дифракционных элементов и модуляторов, где их фазы и амплитуды изменяются так, чтобы реализовать нужные математические операции.
Основная фишка тут в том, что свет распространяется гораздо быстрее, и за счет этого чип работает на более высокой частоте, не перегревается, требует меньше энергии и времени.
И да, это все еще исследовательская темка, но в статье уже показали, как чип работает на абсолютно реальной задаче image feature extraction. То есть на нем уже можно покрутить вполне осязаемую сегментацию, например. И все происходит полностью на оптическом домене, без каких-либо гибридных вычислений.
Результаты получаются сопоставимые с электронными CNN-модулям, но при этом OFE² потребляет в сотни раз меньше энергии и выполняет операции в 1000 раз быстрее.
Вопрос возможности массовой применимости остается открытым, конечно, но на уровне идеи – звучит здорово
Статья
Optical Feature Extraction Engine – это устройство, которое использует для вычислений фотоны вместо электронов. Световые сигналы проходят через систему дифракционных элементов и модуляторов, где их фазы и амплитуды изменяются так, чтобы реализовать нужные математические операции.
Основная фишка тут в том, что свет распространяется гораздо быстрее, и за счет этого чип работает на более высокой частоте, не перегревается, требует меньше энергии и времени.
И да, это все еще исследовательская темка, но в статье уже показали, как чип работает на абсолютно реальной задаче image feature extraction. То есть на нем уже можно покрутить вполне осязаемую сегментацию, например. И все происходит полностью на оптическом домене, без каких-либо гибридных вычислений.
Результаты получаются сопоставимые с электронными CNN-модулям, но при этом OFE² потребляет в сотни раз меньше энергии и выполняет операции в 1000 раз быстрее.
Вопрос возможности массовой применимости остается открытым, конечно, но на уровне идеи – звучит здорово
Статья
❤83🔥46👍20😁3👀3
  