С вопросом, чем Perplexity отличается от других моделей, мы, как мне кажется, разобрались. Короткий ответ: «это другое».
И я бы не стал сравнивать этот сервис с ChatGPT или Gemini, потому что это не модель, а продвинутая оболочка (wrapper), внутри которой можно использовать множество разных LLM. При этом у них есть и собственная модель — Sonar, но она заточена под поиск информации в сети.
Однако вопрос, какие модели для каких задач лучше всего использовать внутри Perplexity, остаётся открытым.
Поэтому я подготовил для вас таблицу, где постарался описать, какие модели и для каких задач использую я. Уверен, многим будет интересно, а кто-то не согласится со мной и расскажет о своём опыте в нашем чате - @prompt_chat
На сегодняшний день я считаю Perplexity самым простым входом в мир искусственного интеллекта, доступным каждому, особенно при цене в несколько долларов за Pro-аккаунт.
А уже когда вы поймёте, что именно вам нужно и чего не хватает, можно будет определиться с выбором основной модели.
И я бы не стал сравнивать этот сервис с ChatGPT или Gemini, потому что это не модель, а продвинутая оболочка (wrapper), внутри которой можно использовать множество разных LLM. При этом у них есть и собственная модель — Sonar, но она заточена под поиск информации в сети.
Однако вопрос, какие модели для каких задач лучше всего использовать внутри Perplexity, остаётся открытым.
Поэтому я подготовил для вас таблицу, где постарался описать, какие модели и для каких задач использую я. Уверен, многим будет интересно, а кто-то не согласится со мной и расскажет о своём опыте в нашем чате - @prompt_chat
На сегодняшний день я считаю Perplexity самым простым входом в мир искусственного интеллекта, доступным каждому, особенно при цене в несколько долларов за Pro-аккаунт.
А уже когда вы поймёте, что именно вам нужно и чего не хватает, можно будет определиться с выбором основной модели.
2🔥67❤33✍10💯4🙏2⚡1😭1🤗1
Сегодня по-настоящему заценил LM Studio, когда три часа — пока летел на нашу встречу «Силиконового мешка» в Батуми — работал с локальной LLM’кой. Это такой кайф, конечно. Кстати, кто еще планирует к нам присоединиться, встречаемся сегодня в 18:00. Вот чатик встречи.
❤15🔥9👍5💯3😍1
Вчера была очень крутая встреча с подписчиками (и не только) канала «Силиконовый мешок» в Батуми.
Честно говоря, я был удивлён, что пришло такое количество людей (по разным подсчётам, от 34 до 40 человек). Я старался пообщаться с каждым, потому что у всех были какие-то интересные проекты или крутые идеи, о которых хотелось узнать побольше.
Решили наш организационный чатик оставить как место общения батумского ИИ-комьюнити.
А дальше я еду в Стамбул, но там, к сожалению, не собирается достаточного количества желающих. Так что, если кто-то есть из Стамбула, пишите в чатик — может, наберём.
Ещё раз всем спасибо, особенно тем, кто приехал из других городов, и тем, кто помог организовать встречу!
Честно говоря, я был удивлён, что пришло такое количество людей (по разным подсчётам, от 34 до 40 человек). Я старался пообщаться с каждым, потому что у всех были какие-то интересные проекты или крутые идеи, о которых хотелось узнать побольше.
Решили наш организационный чатик оставить как место общения батумского ИИ-комьюнити.
А дальше я еду в Стамбул, но там, к сожалению, не собирается достаточного количества желающих. Так что, если кто-то есть из Стамбула, пишите в чатик — может, наберём.
Ещё раз всем спасибо, особенно тем, кто приехал из других городов, и тем, кто помог организовать встречу!
🔥49👍17❤12🦄5 2🤩1😍1
This media is not supported in your browser
VIEW IN TELEGRAM
Не устаю удивляться, как крупные ИИ-вендоры пачками пожирают мелкие стартапы.
Помните, как в начале лета на волне хайпа n8n почти каждый день появлялись проекты для облегчения создания воркфлоу? Выходило какое-то безумное количество чат-агентов, браузерных расширений, GPTs и других форматов для перевода «человеческих желаний» в готовый воркфлоу n8n.
Видимо, всё это время сам n8n спокойно наблюдал за этой вакханалией, изучал и немного кодил, а вчера взял и анонсировал свой продукт, позволяющий в формате чата с агентом создавать прототип воркфлоу, — AI Workflow Builder.
Пока функция будет доступна в облачной версии на 14-дневный пробный период. А вот пользователи с собственным хостингом новую фичу в ближайшее время не получат, но в n8n говорят, что активно ищут возможность её внедрить.
Для этой функции будут действовать ежемесячные лимиты кредитов в зависимости от плана:
- Каждый запрос в AI Workflow Builder расходует один кредит
- Пользователям на пробном периоде (Trial) доступно 20 кредитов, на плане Starter — 50 в месяц, а на плане Pro — 150 кредитов в месяц
- На данный момент возможности получить дополнительные кредиты в рамках вашего плана не будет
Мои поздравления пользователям n8n и соболезнования стартапам, которые продавали эту фичу как свой продукт.
Помните, как в начале лета на волне хайпа n8n почти каждый день появлялись проекты для облегчения создания воркфлоу? Выходило какое-то безумное количество чат-агентов, браузерных расширений, GPTs и других форматов для перевода «человеческих желаний» в готовый воркфлоу n8n.
Видимо, всё это время сам n8n спокойно наблюдал за этой вакханалией, изучал и немного кодил, а вчера взял и анонсировал свой продукт, позволяющий в формате чата с агентом создавать прототип воркфлоу, — AI Workflow Builder.
Пока функция будет доступна в облачной версии на 14-дневный пробный период. А вот пользователи с собственным хостингом новую фичу в ближайшее время не получат, но в n8n говорят, что активно ищут возможность её внедрить.
Для этой функции будут действовать ежемесячные лимиты кредитов в зависимости от плана:
- Каждый запрос в AI Workflow Builder расходует один кредит
- Пользователям на пробном периоде (Trial) доступно 20 кредитов, на плане Starter — 50 в месяц, а на плане Pro — 150 кредитов в месяц
- На данный момент возможности получить дополнительные кредиты в рамках вашего плана не будет
Мои поздравления пользователям n8n и соболезнования стартапам, которые продавали эту фичу как свой продукт.
👍42❤13🔥8⚡5❤🔥2🦄2😁1😍1💯1
У меня в браузере больше десяти вкладок, где я отслеживаю, какие новинки из гуманойдных роботов отправляются бегать в этом или следующем месяце. А сегодня наткнулся на плакат, где энтузиасты собрали все модели на этот год (жаль, что вместо G1 там R1 от Unitree). Как всегда, в хорошем разрешении закреплю в комментах.
1👍24🔥21❤10🤣2🤔1👾1
This media is not supported in your browser
VIEW IN TELEGRAM
Помните, я вам рассказывал, как создают UGC (User-Generated Content) при помощи N8N и Veo 3? Но там ещё можно было выловить артефакты, а вот в связке N8N и Sora 2 — это уже сложнее.
Видимо, мы действительно движемся в сторону «мёртвого интернета», где весь контент генерируется автоматически, а наша задача — кликать по нему и высвобождать порции дофамина.
Видимо, мы действительно движемся в сторону «мёртвого интернета», где весь контент генерируется автоматически, а наша задача — кликать по нему и высвобождать порции дофамина.
👍28💯12❤6🤪5🔥3
Хочу порекомендовать канал Игоря Tips AI | IT & AI — не копипаста, не рерайты, а живые посты от автора, который сам тестит инструменты и делится только тем, что реально работает.
Один из немногих каналов, где можно найти кучу интересных инструментов по теме AI и IT.
Посты, которые стоит прочитать:
• Промптинг масштабируется, а проверка нет
• Почему промпты не работают?
• Воркфлоу для N8N
• Промпт, чтобы любой ИИ писал как человек
• 50 примеров, как нетехнические люди используют Claude Code
И главное — всё это авторский контент: личные находки, разборы и тесты, которые Игорь делает сам, а не копирайтит чужое.
Подписывайся!
Один из немногих каналов, где можно найти кучу интересных инструментов по теме AI и IT.
Посты, которые стоит прочитать:
• Промптинг масштабируется, а проверка нет
• Почему промпты не работают?
• Воркфлоу для N8N
• Промпт, чтобы любой ИИ писал как человек
• 50 примеров, как нетехнические люди используют Claude Code
И главное — всё это авторский контент: личные находки, разборы и тесты, которые Игорь делает сам, а не копирайтит чужое.
Подписывайся!
👍23❤12🔥7✍1💯1🦄1
Media is too big
VIEW IN TELEGRAM
Doom запускали уже на чём угодно: от электрических зубных щёток до микроволновок, а вот теперь игру можно запустить и в ChatGPT.
Наткнулся на твит одного парня, где он упаковал Doom в Next.js, зарегистрировал MCP-инструмент «play_doom» и закинул всё на хостинг Vercel. Теперь можно попросить ChatGPT запустить Doom прямо в чате.
Наткнулся на твит одного парня, где он упаковал Doom в Next.js, зарегистрировал MCP-инструмент «play_doom» и закинул всё на хостинг Vercel. Теперь можно попросить ChatGPT запустить Doom прямо в чате.
😁30❤23👎4🔥4🙏3✍2👍2⚡1
Хорошо неделя начинается, по всему миру сбои в интернет-сервисах. Service health у Amazon дает апдейты каждые 20 минут - разбираются. Ну и Perplexity упал: кого-то разлогинило, у кого-то запросы не отправляются. В общем, вы не одиноки, сломалось у всех - ждём
❤23👍6🔥6😢5⚡2💯2😁1😍1🦄1
Силиконовый Мешок
Хорошо неделя начинается, по всему миру сбои в интернет-сервисах. Service health у Amazon дает апдейты каждые 20 минут - разбираются. Ну и Perplexity упал: кого-то разлогинило, у кого-то запросы не отправляются. В общем, вы не одиноки, сломалось у всех - ждём
У меня заработал Perplexity
🔥40❤14💯10⚡1
Всю неделю провел в перелетах, и доступ к интернету был ограничен. Не то чтобы его совсем не было - просто нашлись дела поинтереснее.
В полетах активно использовал LM Studio с локальными LLM и осознал, насколько сильно мне не хватает онлайн-контекста, чтобы быстро проверить информацию, выдаваемую моделью, в поисковой выдаче.
Но в то же время понял, что уже забыл, когда в последний раз «руками» заходил на Википедию, кликал по гиперссылкам и искал нужную информацию. Видимо, ИИ-помощники и поисковые системы нового поколения, такие как Google, Perplexity и другие, довольно бодро отжирают кусок информационного пирога у «старого интернета».
Посмотрел статистику и, правда, Википедия уже ощутила это на себе, потеряв значительную часть трафика. Но она - лишь верхушка айсберга. Новые исследования, проведенные в 2024–2025 годах, подтверждают: трафик от Google на новостные и информационные сайты снизился на 25% и более.
Происходит «дизинтермедиация» - устранение посредника. Зачем пользователю идти на сайт о кулинарии, если ИИ мгновенно выдал ему рецепт, «всосав» его с этого же сайта? Это убивает экономическую модель старого интернета. Нет кликов - нет доходов от рекламы. Нет доходов - нет денег на журналистов, редакторов и фактчекеров. Зачем эксперту тратить три дня на написание глубокой аналитической статьи, если ИИ «съест» ее, перескажет за 30 секунд и не оставит автору ничего, кроме пустого счетчика посещений?
Но природа не терпит пустоты. Пока ИИ-агрегаторы высушивают экономику качественного контента, на сцену выходит генеративный ИИ. Зачем тратить деньги на эксперта (которого все равно никто не прочтет), если можно за копейки сгенерировать кучу поверхностных или даже фейковых статей или видео? Алгоритмы платформ, будь то YouTube, Instagram или Threads, вознаграждают не качество, а частоту и объем. Они не заинтересованы в бане «слопа», пока он генерит просмотры и рекламные деньги.
И мне кажется, что скоро у нас будет два интернета: один - бесплатный, как сейчас, только еще больше заполненный генеративным контентом, будь то тексты или видео, а другой - платный, где люди будут платить за доступ к «человеческому» контенту.
В полетах активно использовал LM Studio с локальными LLM и осознал, насколько сильно мне не хватает онлайн-контекста, чтобы быстро проверить информацию, выдаваемую моделью, в поисковой выдаче.
Но в то же время понял, что уже забыл, когда в последний раз «руками» заходил на Википедию, кликал по гиперссылкам и искал нужную информацию. Видимо, ИИ-помощники и поисковые системы нового поколения, такие как Google, Perplexity и другие, довольно бодро отжирают кусок информационного пирога у «старого интернета».
Посмотрел статистику и, правда, Википедия уже ощутила это на себе, потеряв значительную часть трафика. Но она - лишь верхушка айсберга. Новые исследования, проведенные в 2024–2025 годах, подтверждают: трафик от Google на новостные и информационные сайты снизился на 25% и более.
Происходит «дизинтермедиация» - устранение посредника. Зачем пользователю идти на сайт о кулинарии, если ИИ мгновенно выдал ему рецепт, «всосав» его с этого же сайта? Это убивает экономическую модель старого интернета. Нет кликов - нет доходов от рекламы. Нет доходов - нет денег на журналистов, редакторов и фактчекеров. Зачем эксперту тратить три дня на написание глубокой аналитической статьи, если ИИ «съест» ее, перескажет за 30 секунд и не оставит автору ничего, кроме пустого счетчика посещений?
Но природа не терпит пустоты. Пока ИИ-агрегаторы высушивают экономику качественного контента, на сцену выходит генеративный ИИ. Зачем тратить деньги на эксперта (которого все равно никто не прочтет), если можно за копейки сгенерировать кучу поверхностных или даже фейковых статей или видео? Алгоритмы платформ, будь то YouTube, Instagram или Threads, вознаграждают не качество, а частоту и объем. Они не заинтересованы в бане «слопа», пока он генерит просмотры и рекламные деньги.
И мне кажется, что скоро у нас будет два интернета: один - бесплатный, как сейчас, только еще больше заполненный генеративным контентом, будь то тексты или видео, а другой - платный, где люди будут платить за доступ к «человеческому» контенту.
💯41❤19🔥10🤔6🤣4⚡3❤🔥2👍2👏1
ChatGPT против Gemini
Недавно выкладывал таблицу с LLM моделями внутри Perplexity - и вам такой формат контента зашел, а у меня его много, так как постоянно что-то с чем-то приходится сравнивать. Вот и сегодня будет таблица сравнения ChatGPT и Gemini: https://docs.google.com/spreadsheets/d/1SiSmj5shvXux4vV23RZ82voC6kl1jMBL_B0WOCICjcU/edit?usp=sharing
Недавно выкладывал таблицу с LLM моделями внутри Perplexity - и вам такой формат контента зашел, а у меня его много, так как постоянно что-то с чем-то приходится сравнивать. Вот и сегодня будет таблица сравнения ChatGPT и Gemini: https://docs.google.com/spreadsheets/d/1SiSmj5shvXux4vV23RZ82voC6kl1jMBL_B0WOCICjcU/edit?usp=sharing
✍10❤6👍5⚡2🔥2🙏2🤗1
Media is too big
VIEW IN TELEGRAM
Китай, конечно, уделывает весь мир в создании роботов. Недавно Unitree анонсировали нового - H2
1🔥39👍10💯6❤1👏1🤗1
This media is not supported in your browser
VIEW IN TELEGRAM
Только все привыкли к Comet от Perplexity, а уже удалять… OpenAI, видимо, представит сегодня свой ИИ-браузер. Меньше чем через пару часов…
1🔥33🤣23😁4❤3👍2🦄2💯1😎1
Силиконовый Мешок
Только все привыкли к Comet от Perplexity, а уже удалять… OpenAI, видимо, представит сегодня свой ИИ-браузер. Меньше чем через пару часов…
Вот по этой ссылке будет трансляция (уже через час). И мы уже знаем, что называться браузер будет - ChatGPT Atlas
https://www.youtube.com/live/8UWKxJbjriY?si=Rum03fHyYkrpWhtt
https://www.youtube.com/live/8UWKxJbjriY?si=Rum03fHyYkrpWhtt
YouTube
Introducing ChatGPT Atlas
Introducing our new browser, ChatGPT Atlas.
Sam Altman, Will Ellsworth, Adam Fry, Ben Goodger, Ryan O’Rouke, Justin Rushing, and Pranav Vishnu introduce ChatGPT Atlas — our new browser. Now available globally on macOS. Windows, iOS, and Android are coming…
Sam Altman, Will Ellsworth, Adam Fry, Ben Goodger, Ryan O’Rouke, Justin Rushing, and Pranav Vishnu introduce ChatGPT Atlas — our new browser. Now available globally on macOS. Windows, iOS, and Android are coming…
🔥10❤7👍4👎1🤝1
Только сегодня полез смотреть, что за зверь этот DeepSeek OCR, хотя анонсировали его уже несколько дней назад. И я немного в шоке, что эта новость не особо форсится: ну выпустили очередную распознавалку изображений и что тут такого? А нифига, китайцы там очередную ML-революцию учинили, хотя есть подозрение, что Google был раньше, но молчал. Но давайте обо всём поподробнее.
Вы все уже знаете, что LLM оперирует токенами. Например, когда вы что-то пишете в ChatGPT, модель не читает это по буквам. Она разбивает ваш текст на токены - это могут быть целые слова (например, «мешок») или части слов (допустим, «силико-новый»). Для модели «силиконовый мешок» - это три текстовых токена. Модель работает с этими токенами, а не с буквами.
А когда вы работаете с мультимодальной моделью (которая понимает и текст, и картинки) и закидываете ей картинку, она тоже не «видит» там каждый пиксель - их миллионы, не хватит ресурсов.
Вместо этого модель делает следующее:
1) Нарезка (Patching): Модель «нарезает» изображение на сетку из небольших квадратиков, как мозаику. Эти квадратики называются «патчами» (patches).
2) Кодирование (Encoding): Затем специальная часть модели (энкодер) «смотрит» на каждый этот квадратик и превращает его в набор чисел (вектор).
3) Создание токена: Этот набор чисел (вектор), который описывает один квадратик изображения, и есть визуальный токен.
Для LLM этот визуальный токен просто говорит: «вот в этой части картинки находится вот такой набор линий, цветов и текстур».
И вот, допустим, вы загружаете в мультимодальную LLM несколько отсканированных страниц текста, где написано 10 000 слов. Как было раньше: модель нарезает эти сканы на тысячи квадратиков. Многие из этих квадратиков содержат лишь части букв или пустое белое пространство. Чтобы описать все эти бесполезные квадратики, ей требовалось, скажем, 60 000 визуальных токенов. А если бы вы просто скопировали и вставили эти 10 000 слов как текст, они превратились бы всего в 15 000 текстовых токенов. То есть визуальные токены были менее эффективны.
И тут на сцену выходит DeepSeek, который придумал, как сжимать информацию в 10 раз лучше визуальными токенами, чем текстовыми!
Теоретически, вы могли бы сохранить эти 10 000 слов всего в 1 500 их специально сжатых визуальных токенах.
Как я понял, они применили некий механизм визуальной памяти в своей модели. Это похоже на то, как вы ищете отрывок текста в уже прочитанной книге, представляя его визуально и зная, на какой стороне разворота и в каком месте страницы он был.
И главная прелесть DeepSeek в том, что они сделали все это open source с открытыми весами и объяснили, как они этого добились. Так что теперь каждый может это поизучать.
Даже если новая система сжатия визуальных токенов будет работать с бо́льшими потерями, сама возможность получить LLM с контекстным окном в 20 миллионов токенов - это очень круто.
А причем тут Google? - спросит внимательный читатель дочитавший до этого места. Есть подозрение, что подобное решение применяется в Gemini, но компания об этом умолчала.
Вы все уже знаете, что LLM оперирует токенами. Например, когда вы что-то пишете в ChatGPT, модель не читает это по буквам. Она разбивает ваш текст на токены - это могут быть целые слова (например, «мешок») или части слов (допустим, «силико-новый»). Для модели «силиконовый мешок» - это три текстовых токена. Модель работает с этими токенами, а не с буквами.
А когда вы работаете с мультимодальной моделью (которая понимает и текст, и картинки) и закидываете ей картинку, она тоже не «видит» там каждый пиксель - их миллионы, не хватит ресурсов.
Вместо этого модель делает следующее:
1) Нарезка (Patching): Модель «нарезает» изображение на сетку из небольших квадратиков, как мозаику. Эти квадратики называются «патчами» (patches).
2) Кодирование (Encoding): Затем специальная часть модели (энкодер) «смотрит» на каждый этот квадратик и превращает его в набор чисел (вектор).
3) Создание токена: Этот набор чисел (вектор), который описывает один квадратик изображения, и есть визуальный токен.
Для LLM этот визуальный токен просто говорит: «вот в этой части картинки находится вот такой набор линий, цветов и текстур».
И вот, допустим, вы загружаете в мультимодальную LLM несколько отсканированных страниц текста, где написано 10 000 слов. Как было раньше: модель нарезает эти сканы на тысячи квадратиков. Многие из этих квадратиков содержат лишь части букв или пустое белое пространство. Чтобы описать все эти бесполезные квадратики, ей требовалось, скажем, 60 000 визуальных токенов. А если бы вы просто скопировали и вставили эти 10 000 слов как текст, они превратились бы всего в 15 000 текстовых токенов. То есть визуальные токены были менее эффективны.
И тут на сцену выходит DeepSeek, который придумал, как сжимать информацию в 10 раз лучше визуальными токенами, чем текстовыми!
Теоретически, вы могли бы сохранить эти 10 000 слов всего в 1 500 их специально сжатых визуальных токенах.
Как я понял, они применили некий механизм визуальной памяти в своей модели. Это похоже на то, как вы ищете отрывок текста в уже прочитанной книге, представляя его визуально и зная, на какой стороне разворота и в каком месте страницы он был.
И главная прелесть DeepSeek в том, что они сделали все это open source с открытыми весами и объяснили, как они этого добились. Так что теперь каждый может это поизучать.
Даже если новая система сжатия визуальных токенов будет работать с бо́льшими потерями, сама возможность получить LLM с контекстным окном в 20 миллионов токенов - это очень круто.
А причем тут Google? - спросит внимательный читатель дочитавший до этого места. Есть подозрение, что подобное решение применяется в Gemini, но компания об этом умолчала.
🔥73❤22✍11👏9👍8 3💯2⚡1🤓1🤗1🦄1
Perplexity опубликовала большой документ, как применять ее решения в работе. Десятки страниц с промптами, инструкциями и лайфхаками, как лучше использовать Comet, Research, Labs, Spaces и т. д., чтобы повысить свою личную продуктивность.
Мне очень понравилась подача материала, не через сухой текст в формате «делай это, получишь такой результат», а через сторителлинг, где объясняется философия инструментов и как это можно использовать лично вам.
В общем, как я понял, они позиционируют Perplexity и браузер Comet как личных помощников или «экзоскелет для мозга», который усиливает импульсы, а не работает вместо вас.
Еще раз убеждаюсь, что инвестиция по цене пары чашек кофе за годовой Pro-аккаунт - это лучшее, что может сделать для себя любой сотрудник.
А документ я вам перевел на русский, читайте: https://teletype.in/@prompt_design/pplx-at-work
Мне очень понравилась подача материала, не через сухой текст в формате «делай это, получишь такой результат», а через сторителлинг, где объясняется философия инструментов и как это можно использовать лично вам.
В общем, как я понял, они позиционируют Perplexity и браузер Comet как личных помощников или «экзоскелет для мозга», который усиливает импульсы, а не работает вместо вас.
Еще раз убеждаюсь, что инвестиция по цене пары чашек кофе за годовой Pro-аккаунт - это лучшее, что может сделать для себя любой сотрудник.
А документ я вам перевел на русский, читайте: https://teletype.in/@prompt_design/pplx-at-work
Teletype
Perplexity в работе
"Введение"
6❤84🔥48👍18⚡3🦄2😘2❤🔥1🤯1🤣1🤓1
Если у вас есть время на этих выходных и непреодолимое желание разобраться в робототехнике и современных подходах на базе искусственного интеллекта — советую изучить новый курс от Hugging Face.
Он, конечно же, бесплатный и основан на «Robot Learning Tutorial», который создавался для их проекта Le Robot. Я, кстати, уже начал переводить его в формате конспектов, пока сам прохожу: https://docs.google.com/document/d/1dVZIDOmTeJe2DmFM4JzCdO1BZYFJ9qDqI2dKBrw5IDM/edit?tab=t.0
Он, конечно же, бесплатный и основан на «Robot Learning Tutorial», который создавался для их проекта Le Robot. Я, кстати, уже начал переводить его в формате конспектов, пока сам прохожу: https://docs.google.com/document/d/1dVZIDOmTeJe2DmFM4JzCdO1BZYFJ9qDqI2dKBrw5IDM/edit?tab=t.0
✍12❤12🔥9👍3👏2🤗2🤝1
Силиконовый Мешок
Если у вас есть время на этих выходных и непреодолимое желание разобраться в робототехнике и современных подходах на базе искусственного интеллекта — советую изучить новый курс от Hugging Face. Он, конечно же, бесплатный и основан на «Robot Learning Tutorial»…
This media is not supported in your browser
VIEW IN TELEGRAM
Кстати, о роботах. Недавно в китайском Ханчжоу состоялась робоконференция — IROS 2025. Выглядит довольно весело
❤16🔥9🤯5👍4🤣4
