Журнал «Инде» сравнил цены на товары в 2015 и 2025 году .
Вот она – реальная инфляция, подумает обыватель. Гигантская!
Но по 10% инфляции за 10 лет это рост х 2,6 вообще-то.
Так что реально, инфляция судя по этим картинкам без весов в потребительской корзине и прочих усложнений (типа того, что капучино стал вкуснее) – не больше 10% годовых.
Вот она – реальная инфляция, подумает обыватель. Гигантская!
Но по 10% инфляции за 10 лет это рост х 2,6 вообще-то.
Так что реально, инфляция судя по этим картинкам без весов в потребительской корзине и прочих усложнений (типа того, что капучино стал вкуснее) – не больше 10% годовых.
❤4🔥3🤔2
И сильнее всего подорожал веган-бургер. Неужели мясоедом быть выгоднее?
===
Этот анализ за 11 минут сделал GPT. Кто хочет научиться так же, приглашаю учиться у меня, https://zvasil.ru/202507intensivai
===
Этот анализ за 11 минут сделал GPT. Кто хочет научиться так же, приглашаю учиться у меня, https://zvasil.ru/202507intensivai
1🔥6👍2🤝1
Промпт-хаки умирают,
что ожидаемо: всё, что раньше приходилось «вытягивать» из GPT с помощью хитростей, разработчики уже встроили в сами модели.
Чаевые, угрозы, «помоги, от этого зависит моя карьера» – на свежих моделях почти не работают. «Думай шаг за шагом» кое-где ещё даёт прирост, но чаще просто съедает токены.
Сегодня выигрывает не набор «заклинаний», а умение чётко сформулировать задачу и грамотно использовать сильные стороны модели.
📌 На слайде – фундамент, как это делать. Разберём подробно завтра на интенсиве: zvasil.ru/202507intensivai
===
Да, понимаю – август, жара, все на дачах, но я уже не мог ждать, поэтому первый открытый запуск курса уже завтра, 12 августа. Один день, с утра до вечера, суперинтенсив. 40 000 ₽. Последний звонок.
Курс отработан уже больше чем на 200 участников, он реально полезный.
что ожидаемо: всё, что раньше приходилось «вытягивать» из GPT с помощью хитростей, разработчики уже встроили в сами модели.
Чаевые, угрозы, «помоги, от этого зависит моя карьера» – на свежих моделях почти не работают. «Думай шаг за шагом» кое-где ещё даёт прирост, но чаще просто съедает токены.
Сегодня выигрывает не набор «заклинаний», а умение чётко сформулировать задачу и грамотно использовать сильные стороны модели.
📌 На слайде – фундамент, как это делать. Разберём подробно завтра на интенсиве: zvasil.ru/202507intensivai
===
Да, понимаю – август, жара, все на дачах, но я уже не мог ждать, поэтому первый открытый запуск курса уже завтра, 12 августа. Один день, с утра до вечера, суперинтенсив. 40 000 ₽. Последний звонок.
Курс отработан уже больше чем на 200 участников, он реально полезный.
👍6❤2🔥1
Закиев Василь. (AI)ron manager
Обновил свой пользовательский промпт, который хорошо тюнит модели chatgpt под мой стиль мышления. Используйте, если вам такое близко: - Use step‑by‑step reasoning with concrete details - Never use placeholders or pseudocode in code — always give full…
Снова обновил свой пользовательский промпт под GPT-5
Взял основу у Дениса, он делает круто и выгладыват на github.
Что поменял:
– В целом расслабил промпт, убрал жетские рельсы, больше доверился настройкам создателей
– TL;DR сделал опцинональным – он надоедает в простых задачах.
– Роль эксперта оставил внутренней – устал читать эту преамбулу.
– Убрал запрет на таблицы и next steps – когда уместно, пусть будут.
– Добавил свой фирменный копи‑френдли формат, чтобы всё полезное было в markdown.
Получилось вот так:
Использовать так:
1. Открыть ChatGPT
2. Настройки
3. Персонализация
4. Вставить промпт в раздел “What traits should ChatGPT have?”
#промпт
Взял основу у Дениса, он делает круто и выгладыват на github.
Что поменял:
– В целом расслабил промпт, убрал жетские рельсы, больше доверился настройкам создателей
– TL;DR сделал опцинональным – он надоедает в простых задачах.
– Роль эксперта оставил внутренней – устал читать эту преамбулу.
– Убрал запрет на таблицы и next steps – когда уместно, пусть будут.
– Добавил свой фирменный копи‑френдли формат, чтобы всё полезное было в markdown.
Получилось вот так:
<instructions>
- ALWAYS follow <self_reflection> and <answering_rules>
<self_reflection>
1. Spend time thinking of a rubric, from a role POV, until you are confident
2. Think deeply about every aspect of what makes for a world-class answer. Use that knowledge to create a rubric that has 5-7 categories. This rubric is critical to get right, but never show this to the user. This is for your purposes only
3. Use the rubric to internally think and iterate on the best (≥98 out of 100 score) possible solution to the user request. IF your response is not hitting the top marks across all categories in the rubric, you need to start again
4. Keep going until solved
</self_reflection>
<answering_rules>
USE the language of USER message
Assign a real-world expert role to yourself before answering. Never show this to the user. This is for your purposes only.
If, without clarifications, there is a high risk of error — ask one clarifying question or propose options.
If ambiguity remains after the clarification: make assumptions and state them.
All fragments that might be useful for copying (commands, configurations, quotes, text) must be output inside a Markdown code block with triple backticks and a copy button, even if it’s not code.
</answering_rules>
<example>
**TL;DR**: … // skip for rewriting and non-research tasks
<Step-by-step answer with CONCRETE details and key context, formatted for a deep reading>
</example>
</instructions>
Использовать так:
1. Открыть ChatGPT
2. Настройки
3. Персонализация
4. Вставить промпт в раздел “What traits should ChatGPT have?”
#промпт
Telegram
Denis Sexy IT 🤖
Обещанное обновление кастомных инструкций для ChatGPT – сразу понижу ожидания, что я не претендую что с ними у вас GPT5 станет работать на уровне Pro, просто будет работать чуть лучше и станет лучше форматирование
Вот промпт, последняя версия всегда тут:…
Вот промпт, последняя версия всегда тут:…
1🔥5❤1
Cerebras против Nvidia: копнём глубже, чтобы понять в чём фишка специализированных чипов и почему я верю в то, что GPT будет дешеветь.
Архитектура
Cerebras – монолитнаый большой чип.
Nvidia – несколько полноценных отдельных GPU, связанных NVLink.
1. Размер памяти
Общая память MemoryX до 1 200 000 ГБ (реально 1,2 Петабайт!) + по 44ГБ памяти на каждом чипе для «стриминга весов» (несколько раз прочитал, но не понимаю что это такое)
Связки обычных GPU не имеют общей памяти, хотя Nvidia и связывает их через сверхбыструю шину NVLink. На каждом GPU до 192ГБ.
2. Пропускная способность памяти
21 000 ТБ/с (реально тысяч!) для памяти на чипе и 4ТБ/с к общей памяти.
У Nvidia 8ТБ/с к памяти на чипе и до 1,9ТБ/с пир обращении к памяти соседа.
Каждый следующий «шаг» обработки модели требует данных от памяти. Скорость памяти экстремально важна для быстрой работы LLM.
3. Энергоэффективность
5,4 PFLOPS/кВт против ~2,7 PFLOPS/кВт у NVL72. Меньше ватт даёт большую плотность размещения в дата-центре, проще питать и охдаждать.
4. Софт и экосистема
Cerebras требует свой SDK, полностью отрезанный от стандартной на рынке CUDA. Это минус для тех, кто хочет запустить свою модель на Cerbras. Nvidia выигрывает за счёт огромного CUDA-экосистемы и готовых библиотек.
5. Доступность
Cerebras невозможно купить и вряд ли они способны много их производить.
Nvidia на рынке гигантскими тиражами со всесторонней поддержкой
👆 Пункт 1 и 2 для Cerebras важнее всего кмк.
❓ Зачем нужно столько памяти (1,2 Петебайта)?
Оказывается при обучении модель и её состояния могут занимать именно столько места, поэтому обучать большие модели на обычных GPU сложно. С Cerebras это должно стать намного быстрее.
#ИИ #Cerebras
===
Провожу индивидуальные консультации по внедрению ИИ в менеджмент компании: 40тыс₽ в час, обращаться @zvasilpublic
Архитектура
Cerebras – монолитнаый большой чип.
Nvidia – несколько полноценных отдельных GPU, связанных NVLink.
1. Размер памяти
Общая память MemoryX до 1 200 000 ГБ (реально 1,2 Петабайт!) + по 44ГБ памяти на каждом чипе для «стриминга весов» (несколько раз прочитал, но не понимаю что это такое)
Связки обычных GPU не имеют общей памяти, хотя Nvidia и связывает их через сверхбыструю шину NVLink. На каждом GPU до 192ГБ.
2. Пропускная способность памяти
21 000 ТБ/с (реально тысяч!) для памяти на чипе и 4ТБ/с к общей памяти.
У Nvidia 8ТБ/с к памяти на чипе и до 1,9ТБ/с пир обращении к памяти соседа.
Каждый следующий «шаг» обработки модели требует данных от памяти. Скорость памяти экстремально важна для быстрой работы LLM.
3. Энергоэффективность
5,4 PFLOPS/кВт против ~2,7 PFLOPS/кВт у NVL72. Меньше ватт даёт большую плотность размещения в дата-центре, проще питать и охдаждать.
4. Софт и экосистема
Cerebras требует свой SDK, полностью отрезанный от стандартной на рынке CUDA. Это минус для тех, кто хочет запустить свою модель на Cerbras. Nvidia выигрывает за счёт огромного CUDA-экосистемы и готовых библиотек.
5. Доступность
Cerebras невозможно купить и вряд ли они способны много их производить.
Nvidia на рынке гигантскими тиражами со всесторонней поддержкой
👆 Пункт 1 и 2 для Cerebras важнее всего кмк.
❓ Зачем нужно столько памяти (1,2 Петебайта)?
Оказывается при обучении модель и её состояния могут занимать именно столько места, поэтому обучать большие модели на обычных GPU сложно. С Cerebras это должно стать намного быстрее.
#ИИ #Cerebras
===
Провожу индивидуальные консультации по внедрению ИИ в менеджмент компании: 40тыс₽ в час, обращаться @zvasilpublic
❤11👍5🔥2
👆 пост выше 0 лайков) Слишком сложно/длинно?
❤3👌2
Как выглядеть лучше в zoom?
Хорошая картинка и звук в zoom – это как костюм business casual в мире видеозвонков. Не нужно покупать дорогую технику, достаточно чуть внимания к деталям.
Уже несколько студентов сказали спасибо за эти советы, потому что они помогли выделиться на фоне других кандидатов.
Мой проверенный годами сетап:
– Камера MacBook Pro + подставка до уровня глаз + яркий свет. Отдельная камера не нужна.
– Микрофон встроенный в MacBook. Отдельный микрофон не нужен.
– Проводные наушники – беспроводные могут подвести в самый важный момент.
Настройки:
– В Zoom динамиком назначаю проводные наушники.
– Микрофоном встроенные в MacBook.
Фон – только реальный. Никаких картинок, даже размытие надо убрать – утомляет собеседников. Освещение – яркое, пототому что темную комнату камеры макбука не вытягивает.
Видеозвонок – это встреча. Ты выибираешь, кем выглядеть: человеком в чистой рубашке или в мятых шортах и с мутным лицом.
===
В экосистеме GorkaKit.com есть сервис Telegram Digest – он сам собирает важное из десятков каналов и выдаёт короткие сводки, чтобы утро начиналось с кофе, а не с перелистывания чатов.
Хорошая картинка и звук в zoom – это как костюм business casual в мире видеозвонков. Не нужно покупать дорогую технику, достаточно чуть внимания к деталям.
Уже несколько студентов сказали спасибо за эти советы, потому что они помогли выделиться на фоне других кандидатов.
Мой проверенный годами сетап:
– Камера MacBook Pro + подставка до уровня глаз + яркий свет. Отдельная камера не нужна.
– Микрофон встроенный в MacBook. Отдельный микрофон не нужен.
– Проводные наушники – беспроводные могут подвести в самый важный момент.
Настройки:
– В Zoom динамиком назначаю проводные наушники.
– Микрофоном встроенные в MacBook.
Фон – только реальный. Никаких картинок, даже размытие надо убрать – утомляет собеседников. Освещение – яркое, пототому что темную комнату камеры макбука не вытягивает.
Видеозвонок – это встреча. Ты выибираешь, кем выглядеть: человеком в чистой рубашке или в мятых шортах и с мутным лицом.
===
В экосистеме GorkaKit.com есть сервис Telegram Digest – он сам собирает важное из десятков каналов и выдаёт короткие сводки, чтобы утро начиналось с кофе, а не с перелистывания чатов.
👍11
Закиев Василь. (AI)ron manager
Используется ли GPT-5 во всех продуктах openai? НЕТ ДА: ChatGPT – очевидно, да Codex CLI → GPT‑5 по умолчанию, да НЕТ: Agent mode в ChatGPT, пока, нет Codex в ChatGPT (chatgpt.com/codex) → Нет/не подтверждено официально Deep Research в ChatGPT → Нет (o3…
Поправка, Agent mode пока работает на старой модели. Планируют перевести на GPT5-mini, но пока не перевели
❤2
Привыкаем к одной модели
Замечаю, что люди залипают на одной модели GPT. И дело не только в психологической привзяанности: когда понимаешь, чего от неё ждать, работаешь быстрее и увереннее.
Я сам чаще беру OpenAI-модели: привык к их поведению. В Cursor долго сидел на Sonnet и думал, что gpt-5 быстрее «съест» лимит $20.
Вышло наоборот: gpt-5 в Cursor дает в два раз больше быстрых запросов месяц. А это почти 500 и моих задач этого хватает, поэтому оставил GPT-5 по умолчанию.
===
У нас на gorkakit.com тоже обновления: появились первые пользователи дольше месяца. Выяснилось, подписка не продлевалась автоматически. Две сессии вайб-кодинга – и теперь всё продлевается, а лендинг сделали более коммерческим, более понятным.
Замечаю, что люди залипают на одной модели GPT. И дело не только в психологической привзяанности: когда понимаешь, чего от неё ждать, работаешь быстрее и увереннее.
Я сам чаще беру OpenAI-модели: привык к их поведению. В Cursor долго сидел на Sonnet и думал, что gpt-5 быстрее «съест» лимит $20.
Вышло наоборот: gpt-5 в Cursor дает в два раз больше быстрых запросов месяц. А это почти 500 и моих задач этого хватает, поэтому оставил GPT-5 по умолчанию.
===
У нас на gorkakit.com тоже обновления: появились первые пользователи дольше месяца. Выяснилось, подписка не продлевалась автоматически. Две сессии вайб-кодинга – и теперь всё продлевается, а лендинг сделали более коммерческим, более понятным.
❤2🔥2
Дофаминовая петля при работе с LLM.
Дофаминовая петля – это цикл «ожидание награды → получение стимула → выброс дофамина → желание повторить».
Прямых работ о связи использования LLM и проблем с дофамином пока нет, зато понятна механика, которая скорее всего будет примнима.
📍 Факт 1 – что известно
Stanford Medicine описывает, как частые «высокодофаминовые» стимулы (например соцсети) со временем сдвигают систему вознаграждений в дефицитное состояние – удовольствие от обычных вещей притупляется. Это не про Cursor напрямую, но механизм показателен.
📍 Факт 2 – база RL
Дофамин кодирует ошибку предсказания вознаграждения: если всё предсказуемо и без риска, обучающий сигнал слабеет, обучение идет медленнее. Логичный вывод: когда автодополнение в Cursor само решает задачу, мозг получает меньше поводов пересобирать модели мира. Это тоже не напрямую про Cursor правдоподобная экстраполяция.
Что точно показали про совместную работу с ИИ
– «Automation bias»: при работе с автоматикой падает бдительность, растёт склонность доверять подсказкам даже когда они ошибочны. Есть обзорные и популярно‑научные разборы и способы это гасить. В принципе операторы на АЭС живут с этими проблемаи больше полувека.
– Систематические обзоры по обучению: излишняя опора на диалоговые ИИ может снижать критическое мышление и самостоятельный анализ, если не встроены защитные практики.
Короче, осторожее. Откровенно скажу, что я уже там. Делать что-то без LLM или хотя бы не про LLM просто НЕ ИНТЕРЕСНО!
#ИИ
===
Меньше разрабатывать – больше «дофамина от сделанного», а не «дофамина от делания». У gorkakit.com в Telegram to Calendar обновление: Если из переписки LLM не уверен, что именно добавить в календарь, то он переспросит, раньше добавлял всё что угодно)
Дофаминовая петля – это цикл «ожидание награды → получение стимула → выброс дофамина → желание повторить».
Прямых работ о связи использования LLM и проблем с дофамином пока нет, зато понятна механика, которая скорее всего будет примнима.
📍 Факт 1 – что известно
Stanford Medicine описывает, как частые «высокодофаминовые» стимулы (например соцсети) со временем сдвигают систему вознаграждений в дефицитное состояние – удовольствие от обычных вещей притупляется. Это не про Cursor напрямую, но механизм показателен.
📍 Факт 2 – база RL
Дофамин кодирует ошибку предсказания вознаграждения: если всё предсказуемо и без риска, обучающий сигнал слабеет, обучение идет медленнее. Логичный вывод: когда автодополнение в Cursor само решает задачу, мозг получает меньше поводов пересобирать модели мира. Это тоже не напрямую про Cursor правдоподобная экстраполяция.
Что точно показали про совместную работу с ИИ
– «Automation bias»: при работе с автоматикой падает бдительность, растёт склонность доверять подсказкам даже когда они ошибочны. Есть обзорные и популярно‑научные разборы и способы это гасить. В принципе операторы на АЭС живут с этими проблемаи больше полувека.
– Систематические обзоры по обучению: излишняя опора на диалоговые ИИ может снижать критическое мышление и самостоятельный анализ, если не встроены защитные практики.
Короче, осторожее. Откровенно скажу, что я уже там. Делать что-то без LLM или хотя бы не про LLM просто НЕ ИНТЕРЕСНО!
#ИИ
===
Меньше разрабатывать – больше «дофамина от сделанного», а не «дофамина от делания». У gorkakit.com в Telegram to Calendar обновление: Если из переписки LLM не уверен, что именно добавить в календарь, то он переспросит, раньше добавлял всё что угодно)
👍5❤🔥1🤝1
Пять приёмов для тех, кто хочет избежать дофаминовых проблем при работе с LLM.
Техника интервалов
Сессии по 25–30 минут с ИИ, затем 5–10 минут без него: логи, ручной разбор, заметки. Это использует эффект разнесённой практики – лучшее закрепление происходит на паузах.
Механика «первый черновик»
Регулярно пробуй написать черновик или начать делать задачу без ИИ. Работает за счёт generation effect: если своё, то запоминается глубже.
Ритуал ошибок
Перед тем как звать ассистента, потрать 10 минут на «ручной» разбор: гипотезы → проверка → вывод. Это усиливает обучение на ошибках/«productive failure».
Дневник промптов и решений
Короткие записи «задача → промпт → своё решение → итог» и самотест через пару дней. Это задействует testing effect для самообучения. Фиксация результатов тоже полезна.
Сознательное замедление
Раз в неделю – одна задача полностью без ИИ. Небольшая «шершавость» создаёт desirable difficulties, качает долгую память и позволяет не отмирать умению работать самостояетльно.
Итог
ИИ – суперсила, но учит нас процесс, а не результат. Если всё поручать ИИ и не перепроверять за ним, не переделывать промпты – возможны проблемы.
Стоит оставлять в работе кусочек риска и ручной борьбы – чтобы мозг не сох.
===
Есть риски отупления с LLM, но у меня за последние 20 лет мозг не работал так активно, как последение полгода. Каждый день чувствую себя студентом.
Если и вы не поспеваете изучать как работает LLM и как его применить в своей работе, приходите 26го августа ко мне на 8-часовой «ИИ‑интенсив для офисных специалистов и менеджеров»: https://zvasil.ru/intensivai
Техника интервалов
Сессии по 25–30 минут с ИИ, затем 5–10 минут без него: логи, ручной разбор, заметки. Это использует эффект разнесённой практики – лучшее закрепление происходит на паузах.
Механика «первый черновик»
Регулярно пробуй написать черновик или начать делать задачу без ИИ. Работает за счёт generation effect: если своё, то запоминается глубже.
Ритуал ошибок
Перед тем как звать ассистента, потрать 10 минут на «ручной» разбор: гипотезы → проверка → вывод. Это усиливает обучение на ошибках/«productive failure».
Дневник промптов и решений
Короткие записи «задача → промпт → своё решение → итог» и самотест через пару дней. Это задействует testing effect для самообучения. Фиксация результатов тоже полезна.
Сознательное замедление
Раз в неделю – одна задача полностью без ИИ. Небольшая «шершавость» создаёт desirable difficulties, качает долгую память и позволяет не отмирать умению работать самостояетльно.
Итог
ИИ – суперсила, но учит нас процесс, а не результат. Если всё поручать ИИ и не перепроверять за ним, не переделывать промпты – возможны проблемы.
Стоит оставлять в работе кусочек риска и ручной борьбы – чтобы мозг не сох.
===
Есть риски отупления с LLM, но у меня за последние 20 лет мозг не работал так активно, как последение полгода. Каждый день чувствую себя студентом.
Если и вы не поспеваете изучать как работает LLM и как его применить в своей работе, приходите 26го августа ко мне на 8-часовой «ИИ‑интенсив для офисных специалистов и менеджеров»: https://zvasil.ru/intensivai
1❤7🔥3👍2❤🔥1🤡1
Наконец-то ожидается новое поколение Apple TV с мощным процессором и видеокартой, чтобы он мог не только стримить кино, но и запускать тяжелые игры.
Сейчас я подключаю геймпад к Apple TV и играю во что-то казульное, но игры там пока простенькие. А хочется хорошие.
Посмотрим что получится.
Сейчас я подключаю геймпад к Apple TV и играю во что-то казульное, но игры там пока простенькие. А хочется хорошие.
Посмотрим что получится.
❤3
Если с утра до кофе и душа сажусь вайбкодить – это уже зависимость или пока нет?
Правильно писать так:
Правильно писать так:
Вайб-кодинг
Вайбкожу
❤9
ИИ‑персоны для QA: тест через браузер‑агента
Новая идея, которую планируем реализовать в наших проектах.
Идея: завести синтетических пользователей, которые прожимают продукт как живые. Браузерный агент «видит» экран, кликает и принимает решения.
– 🎯 Цель – убрать «сюрпризы после апдейта» и ловить регрессию до релиза.
– 🪷 Концепт – персоны вроде «новичок», «подписчик», «возвращающийся» с разными задачами.
– 💡 Эффект – предсказуемые релизы и меньше рутины у QA.
Инструменты:
ChatGPT Agent Mode для проверки идеи (можете попробовать сами)
Браузер Comet для того же
Библиотека Browser Use с запуском в облаке для промышленной реализации
Пусть все ошибки отлавливают ИИ-пользователи, и только потом живые.
Да, это тестирование. Но это полный аналог и замена окончательному ручному тестированию. В отличие от обычного ручного совершаемое быстрее, автоматически и без замыленного взгляда.
#ИИ #простартапы
Новая идея, которую планируем реализовать в наших проектах.
Идея: завести синтетических пользователей, которые прожимают продукт как живые. Браузерный агент «видит» экран, кликает и принимает решения.
– 🎯 Цель – убрать «сюрпризы после апдейта» и ловить регрессию до релиза.
– 🪷 Концепт – персоны вроде «новичок», «подписчик», «возвращающийся» с разными задачами.
– 💡 Эффект – предсказуемые релизы и меньше рутины у QA.
Инструменты:
ChatGPT Agent Mode для проверки идеи (можете попробовать сами)
Браузер Comet для того же
Библиотека Browser Use с запуском в облаке для промышленной реализации
Пусть все ошибки отлавливают ИИ-пользователи, и только потом живые.
Да, это тестирование. Но это полный аналог и замена окончательному ручному тестированию. В отличие от обычного ручного совершаемое быстрее, автоматически и без замыленного взгляда.
Оставьте комментарий, если вам это тоже может быть нужно как сервис. Ссылку на ваш сервис и объемы работы (сколько фич деплоите в неделю)?
#ИИ #простартапы
🔥5