ИИ в финансах и инвестициях
Каждые сутки в мире публикуются сотни тысяч новостей, отчётов, транскриптов звонков и аналитических материалов. Полноценная ручная обработка такого объёма информации требует армии финансовых аналитиков и огромных временных затрат, что делает быструю реакцию на рыночные события практически невозможной.
На помощь инвесторам пришли LLM-инструменты, которые как раз хорошо справляются с подобными задачами: анализировать большое количество скучных документов и текстов, делать выжимки и отвечать на вопросы по материалам!
Например, решения компании AlphaSense позволяет быстро извлекать ценные инсайты из отчётов компаний, новостей, аналитических материалов и стенограмм звонков с инвесторами. ИИ-инструмент помогает за считанные минуты получить информацию, на обработку которой раньше уходили часы. AlphaSense уже активно используют тысячи крупных компаний и фондов, включая большинство компаний из списка S&P 500.
Если вы хорошо разбираетесь в теме инвестирования или сбора и анализа важной инвест-информации, возможно, сейчас идеальное время для тестирования своих подобных продуктов!
Каждые сутки в мире публикуются сотни тысяч новостей, отчётов, транскриптов звонков и аналитических материалов. Полноценная ручная обработка такого объёма информации требует армии финансовых аналитиков и огромных временных затрат, что делает быструю реакцию на рыночные события практически невозможной.
На помощь инвесторам пришли LLM-инструменты, которые как раз хорошо справляются с подобными задачами: анализировать большое количество скучных документов и текстов, делать выжимки и отвечать на вопросы по материалам!
Например, решения компании AlphaSense позволяет быстро извлекать ценные инсайты из отчётов компаний, новостей, аналитических материалов и стенограмм звонков с инвесторами. ИИ-инструмент помогает за считанные минуты получить информацию, на обработку которой раньше уходили часы. AlphaSense уже активно используют тысячи крупных компаний и фондов, включая большинство компаний из списка S&P 500.
Если вы хорошо разбираетесь в теме инвестирования или сбора и анализа важной инвест-информации, возможно, сейчас идеальное время для тестирования своих подобных продуктов!
ИИ в обучении от Y Combinator
Y Combinator, самый известный в мире акселератор, обновил список идей и ниш, в которых ищет новые проекты. Весь список здесь.
Для Standard Data наиболее интересны пункты про образование, их там целых два из 14!
Удивительно, но не подглядывая в этот документ, мы сделали пост про создание визуализаций высокого качества для всех курсов! Y Combinator идет чуть дальше и говорит, что сейчас становится возможным действительно персонализированное обучение, когда каждому ученику на лету создаются объяснения, иллюстрации или даже анимации, как в 3Blue1Brown!
В Y Combinator напоминают, что образование — это гигантский рынок, который очень медленно изменяется. Идеи про персонализированное обучение ходят уже несколько десятилетий, но воплотить их в жизнь оказалось очень сложно, как технически, так и административно. Надежда на совершенно новые возможности, которые открывают нам LLM!
Отдельный неочевидный вопрос — это бизнес-модель, ведь бюджеты на обучение обычно не очень большие, цикл продаж очень долгий (если речь про b2b или b2g), цикл обратной связи еще дольше (обычно требуются годы, чтобы измерить реальный эффект от обучения).
Получится ли построить Apple в мире образования? Вопрос открытый!
Поделитесь мыслями в комментариях!
Y Combinator, самый известный в мире акселератор, обновил список идей и ниш, в которых ищет новые проекты. Весь список здесь.
Для Standard Data наиболее интересны пункты про образование, их там целых два из 14!
Удивительно, но не подглядывая в этот документ, мы сделали пост про создание визуализаций высокого качества для всех курсов! Y Combinator идет чуть дальше и говорит, что сейчас становится возможным действительно персонализированное обучение, когда каждому ученику на лету создаются объяснения, иллюстрации или даже анимации, как в 3Blue1Brown!
В Y Combinator напоминают, что образование — это гигантский рынок, который очень медленно изменяется. Идеи про персонализированное обучение ходят уже несколько десятилетий, но воплотить их в жизнь оказалось очень сложно, как технически, так и административно. Надежда на совершенно новые возможности, которые открывают нам LLM!
Отдельный неочевидный вопрос — это бизнес-модель, ведь бюджеты на обучение обычно не очень большие, цикл продаж очень долгий (если речь про b2b или b2g), цикл обратной связи еще дольше (обычно требуются годы, чтобы измерить реальный эффект от обучения).
Получится ли построить Apple в мире образования? Вопрос открытый!
Поделитесь мыслями в комментариях!
Платежи и репутация ИИ-агентов
Представим себе мир через 5 (возможно, 10) лет, где существенную часть онлайн задач выполняют ИИ-агенты. Например, создание маркетинговых креативов, создание приложений, веб-сайтов, несложная аналитика и тд. По скромным оценкам к 2030 этот рынок будет 50 млрд $, по другим оценкам он принесет дополнительные триллионы долларов в экономику (конечно, дело еще и в способе подсчета!).
Можно вручную попробовать сделать прикидку самостоятельно: с помощью ChatGPT делаем и проверяем грубую оценку на общий объем зарплат в год за онлайн-работы (программирование, дизайн, маркетинг и тд). Получается около 2.5 трлн$. Если ИИ-агенты смогут взять на себя 1% работ, то это около 25 млрд$. Но конечно, это расчет «салфетке» без учета возможного роста экономики и других эффектов.
Возникает много вопросов: как проверять ИИ-агента, что он действительно что-то умеет, что у него есть настоящий «послужной список», как безопасно проводить финансовые платежи агент-человек и особенно агент-агент?
Довольно естественным решением выглядит использование блокчейн-технологий. Они позволяют и вести честную запись всех активностей агента, и проводить безопасные транзакции. Такие решения уже активно разрабатываются и привлекают инвестиции, например: 1, 2. Важно заметить, что и традиционные игроки активно готовят платежную инфраструктуру для ИИ-агентов, например, Stripe.
Получается, если мы верим в активное развитие агентской экономики, то с большой вероятностью это даст дополнительный импульс развитию и распространению криптовалют в ближайшие 5 лет. Не инвестиционная рекомендация!
Представим себе мир через 5 (возможно, 10) лет, где существенную часть онлайн задач выполняют ИИ-агенты. Например, создание маркетинговых креативов, создание приложений, веб-сайтов, несложная аналитика и тд. По скромным оценкам к 2030 этот рынок будет 50 млрд $, по другим оценкам он принесет дополнительные триллионы долларов в экономику (конечно, дело еще и в способе подсчета!).
Можно вручную попробовать сделать прикидку самостоятельно: с помощью ChatGPT делаем и проверяем грубую оценку на общий объем зарплат в год за онлайн-работы (программирование, дизайн, маркетинг и тд). Получается около 2.5 трлн$. Если ИИ-агенты смогут взять на себя 1% работ, то это около 25 млрд$. Но конечно, это расчет «салфетке» без учета возможного роста экономики и других эффектов.
Возникает много вопросов: как проверять ИИ-агента, что он действительно что-то умеет, что у него есть настоящий «послужной список», как безопасно проводить финансовые платежи агент-человек и особенно агент-агент?
Довольно естественным решением выглядит использование блокчейн-технологий. Они позволяют и вести честную запись всех активностей агента, и проводить безопасные транзакции. Такие решения уже активно разрабатываются и привлекают инвестиции, например: 1, 2. Важно заметить, что и традиционные игроки активно готовят платежную инфраструктуру для ИИ-агентов, например, Stripe.
Получается, если мы верим в активное развитие агентской экономики, то с большой вероятностью это даст дополнительный импульс развитию и распространению криптовалют в ближайшие 5 лет. Не инвестиционная рекомендация!
Grandviewresearch
AI Agents Market Size, Share & Trends | Industry Report 2030
The global AI agents market size was estimated at USD 5.40 billion in 2024 and is projected to reach USD 50.31 billion by 2030, growing at a CAGR of 45.8% from 2025 to 2030
Тесты тестов
Задача: вычитать и проверить набор из 150+ тестовых вопросов по математике и программированию не самого легкого уровня.
Прорешать все тесты, вычитать – дорогое муторное занятие. При этом тесты заказчику должны быть сданы без каких-либо ошибок!
ИИ может дать быструю содержательную обратную связь. Для этого сохраняем документ в pdf (так лучше считаются формулы, если нет tex / markdown), просим пошагово пройтись отдельно по каждому вопросу, самостоятельно ответить на него, проверить правильность вариантов ответов. По возможности лучше разбить файл на несколько небольших и обрабатывать их отдельно. Также рекомендуется один и тот же файл прогнать несколько раз, можно как с одной моделью, так и с разными (мы в основном все делаем с gpt o3 или gemini 2.5).
На выходе получаем отчет по каждому вопросу. На практике таким образом удалось отловить несколько опечаток и 3 реальные ошибки на раннем этапе проверки тестов. Пока что обязательно все равно делается ручная проверка 2-3 разными проверяющими, чтобы отловить сложность вопросов, четкость формулировок и тд.
Для полноценного внедрения и реальной экономической пользы пока что не хватает уверенности в точности и полноте ИИ – нужно разработать качественный валидационный тест и на нем отладить систему проверки тестов. Про оценку систем на основе LLM писали здесь.
Задача: вычитать и проверить набор из 150+ тестовых вопросов по математике и программированию не самого легкого уровня.
Прорешать все тесты, вычитать – дорогое муторное занятие. При этом тесты заказчику должны быть сданы без каких-либо ошибок!
ИИ может дать быструю содержательную обратную связь. Для этого сохраняем документ в pdf (так лучше считаются формулы, если нет tex / markdown), просим пошагово пройтись отдельно по каждому вопросу, самостоятельно ответить на него, проверить правильность вариантов ответов. По возможности лучше разбить файл на несколько небольших и обрабатывать их отдельно. Также рекомендуется один и тот же файл прогнать несколько раз, можно как с одной моделью, так и с разными (мы в основном все делаем с gpt o3 или gemini 2.5).
На выходе получаем отчет по каждому вопросу. На практике таким образом удалось отловить несколько опечаток и 3 реальные ошибки на раннем этапе проверки тестов. Пока что обязательно все равно делается ручная проверка 2-3 разными проверяющими, чтобы отловить сложность вопросов, четкость формулировок и тд.
Для полноценного внедрения и реальной экономической пользы пока что не хватает уверенности в точности и полноте ИИ – нужно разработать качественный валидационный тест и на нем отладить систему проверки тестов. Про оценку систем на основе LLM писали здесь.
Telegram
Эксперименты с ИИ
С чего начать ЛЛМ-проект?
Возьмем два проекта с ЛЛМ:
1) ИИ-ассистент, отвечающий на вопросы школьников по конкретному курсу.
2) ИИ-корректор, подсвечивающий все ошибки в документе (в том числе, в таблицах и на картинках).
Опыт и здравый смысл подсказывают…
Возьмем два проекта с ЛЛМ:
1) ИИ-ассистент, отвечающий на вопросы школьников по конкретному курсу.
2) ИИ-корректор, подсвечивающий все ошибки в документе (в том числе, в таблицах и на картинках).
Опыт и здравый смысл подсказывают…
Известный венчурный фонд Sequoia Capital недавно провел свою ежегодную конференцию, на которой представил интересный доклад по ИИ: AI's Trillion-Dollar Opportunity
На конференции AI Ascent 2025 партнёры Sequoia — Пэт Грейди, Соня Хуанг и Константин Бюлер — представили стратегический взгляд на развитие AI. Они подчеркнули, что рынок ИИ уже стартует с базы, в разы большей, чем у облака, и через 10–20 лет может стать колоссальным в триллионы долларов. ИИ влияет не только на рынок услуг, но и на рынок софта, трансформируя его от инструментов к ко-пилотам и автопилотам. Кроме того, ИИ может забрать и часть огромнейшего бюджета фонда оплаты труда, если начнет давать действительно ощутимые экономические результаты!
Важный момент: AI не просто неизбежен — он уже здесь. Волна ИИ накрыла мир быстрее, чем что либо до этого! В эпоху появления облачных технологий Бениоффу приходилось устраивать партизанский маркетинг, чтобы вообще кто-то его заметил. Сейчас же у новых продуктов в распоряжении 1.2–1.8 миллиарда пользователей Reddit и Twitter.
Их главный вывод — чтобы успеть в мир ИИ, надо бежать со всех ног. Они проводят слайд, где еще есть много места на уровне приложений над большими ЛЛМ-моделями. Но место занимают очень быстро — нельзя тормозить!
На конференции AI Ascent 2025 партнёры Sequoia — Пэт Грейди, Соня Хуанг и Константин Бюлер — представили стратегический взгляд на развитие AI. Они подчеркнули, что рынок ИИ уже стартует с базы, в разы большей, чем у облака, и через 10–20 лет может стать колоссальным в триллионы долларов. ИИ влияет не только на рынок услуг, но и на рынок софта, трансформируя его от инструментов к ко-пилотам и автопилотам. Кроме того, ИИ может забрать и часть огромнейшего бюджета фонда оплаты труда, если начнет давать действительно ощутимые экономические результаты!
Важный момент: AI не просто неизбежен — он уже здесь. Волна ИИ накрыла мир быстрее, чем что либо до этого! В эпоху появления облачных технологий Бениоффу приходилось устраивать партизанский маркетинг, чтобы вообще кто-то его заметил. Сейчас же у новых продуктов в распоряжении 1.2–1.8 миллиарда пользователей Reddit и Twitter.
Их главный вывод — чтобы успеть в мир ИИ, надо бежать со всех ног. Они проводят слайд, где еще есть много места на уровне приложений над большими ЛЛМ-моделями. Но место занимают очень быстро — нельзя тормозить!
Тест_LLM_агентов_на_реальных_задачах.wav
23.3 MB
ИИ-подкасты из любой статьи за минуту
Протестировали notebookLM от Google – инструмент, который за пару кликов превращает любые текстовые материалы в подкаст.
Работает просто:
- берем интересную статью (например, про ИИ-агентов);
- загружаем в notebookLM;
- выбираем язык;
- нажимаем «создать подкаст»;
- ждем, по готовности скачиваем и слушаем готовый подкаст, наслаждаемся.
Получается на удивление живо и естественно, даже на русском языке! Есть, конечно, мелкие недочёты в ударениях, но общее впечатление не сильно портится.
Главная ценность (лично для автора) –– это возможность освоить важный материал на ходу или за рулём, когда читать совсем неудобно. В итоге экономится время и успевается больше.
Пример готового мини-подкаста (по статье про ИИ-агентов) –– в приложении.
Поделитесь, если тоже пользуетесь таким сервисом!
Протестировали notebookLM от Google – инструмент, который за пару кликов превращает любые текстовые материалы в подкаст.
Работает просто:
- берем интересную статью (например, про ИИ-агентов);
- загружаем в notebookLM;
- выбираем язык;
- нажимаем «создать подкаст»;
- ждем, по готовности скачиваем и слушаем готовый подкаст, наслаждаемся.
Получается на удивление живо и естественно, даже на русском языке! Есть, конечно, мелкие недочёты в ударениях, но общее впечатление не сильно портится.
Главная ценность (лично для автора) –– это возможность освоить важный материал на ходу или за рулём, когда читать совсем неудобно. В итоге экономится время и успевается больше.
Пример готового мини-подкаста (по статье про ИИ-агентов) –– в приложении.
Поделитесь, если тоже пользуетесь таким сервисом!
Бизнес на LLM
Когда мы в Standard Data начали делать проекты на LLM, казалось, ключевая компетенция — глубокое знание самих моделей: подготовка данных, prompt-инжиниринг, дообучение, эксперименты с агентами и тд. Но реальность быстро скорректировала картинку.
Каждое внедрение LLM-решения в бизнес — это 30-50% работы с ключевой частью системы, с «LLM-мозгами», и 50-70% традиционной разработки и интеграции.
Это хорошо видно на проектах с внедрением образовательных ИИ-ассистентов, которые помогают быстро отвечать на вопросы студентов. У каждой образовательной компании свой набор используемых технологий, свой подход к взаимодействию со слушателями: кто-то общается прямо на платформе, кто-то использует Telegram, а кто-то — старый добрый email. Казалось бы, достаточно сделать API, в которое приходят вопросы и возвращаются LLM-ответы. Но нет.
Отдельная большая задача — это качественная интеграция решения в текущие процессы компании-заказчика. Для начала потребуется сильная продуктовая экспертиза: нужно погрузиться в бизнес заказчика, понять, как и что работает прямо сейчас. Предложить, как оптимально встроить LLM-решение в текущие процессы.
Далее — классическая разработка. После согласования продуктовой части начинается большой блок технических задач. Это проектирование интерфейсов, обработка и маршрутизация запросов, кастомные коннекторы под специфические системы заказчика, мониторинг, масштабирование, а также интеграция «LLM-мозгов» с текущими CRM, LMS и другими внутренними инструментами компании.
Бизнес на LLM — это не просто про сами модели. Чем лучше ты умеешь интегрировать решения в текущие процессы и системы заказчика, тем выше ценность твоей команды.
Когда мы в Standard Data начали делать проекты на LLM, казалось, ключевая компетенция — глубокое знание самих моделей: подготовка данных, prompt-инжиниринг, дообучение, эксперименты с агентами и тд. Но реальность быстро скорректировала картинку.
Каждое внедрение LLM-решения в бизнес — это 30-50% работы с ключевой частью системы, с «LLM-мозгами», и 50-70% традиционной разработки и интеграции.
Это хорошо видно на проектах с внедрением образовательных ИИ-ассистентов, которые помогают быстро отвечать на вопросы студентов. У каждой образовательной компании свой набор используемых технологий, свой подход к взаимодействию со слушателями: кто-то общается прямо на платформе, кто-то использует Telegram, а кто-то — старый добрый email. Казалось бы, достаточно сделать API, в которое приходят вопросы и возвращаются LLM-ответы. Но нет.
Отдельная большая задача — это качественная интеграция решения в текущие процессы компании-заказчика. Для начала потребуется сильная продуктовая экспертиза: нужно погрузиться в бизнес заказчика, понять, как и что работает прямо сейчас. Предложить, как оптимально встроить LLM-решение в текущие процессы.
Далее — классическая разработка. После согласования продуктовой части начинается большой блок технических задач. Это проектирование интерфейсов, обработка и маршрутизация запросов, кастомные коннекторы под специфические системы заказчика, мониторинг, масштабирование, а также интеграция «LLM-мозгов» с текущими CRM, LMS и другими внутренними инструментами компании.
Бизнес на LLM — это не просто про сами модели. Чем лучше ты умеешь интегрировать решения в текущие процессы и системы заказчика, тем выше ценность твоей команды.
Привет! Я Никита Волков, выпускник Физтеха и CEO Standard Data.
В этом канале я экспериментирую с разными ИИ-инструментами для своих рабочих и личных задач: аналитика, контент, идеи, продуктивность.
Рассказываю, что вышло, что сломалось, что из этого можно повторить самому и сэкономить часы своей жизни!
Никакой скучной теории — только живые эксперименты, выводы из практики и просто мысли.
Присоединяйтесь! → @experiment_ai
В этом канале я экспериментирую с разными ИИ-инструментами для своих рабочих и личных задач: аналитика, контент, идеи, продуктивность.
Рассказываю, что вышло, что сломалось, что из этого можно повторить самому и сэкономить часы своей жизни!
Никакой скучной теории — только живые эксперименты, выводы из практики и просто мысли.
Присоединяйтесь! → @experiment_ai
Эксперименты с ИИ pinned «Привет! Я Никита Волков, выпускник Физтеха и CEO Standard Data. В этом канале я экспериментирую с разными ИИ-инструментами для своих рабочих и личных задач: аналитика, контент, идеи, продуктивность. Рассказываю, что вышло, что сломалось, что из этого можно…»
Пришло время поста-закрепа:)
Удачно, что это 32-ой пост. Небольшой юбилей, все-таки 2^5!
Удачно, что это 32-ой пост. Небольшой юбилей, все-таки 2^5!
Применение ИИ в Standard Data – Анализ целевой аудитории курса.
На старте курса слушатели обычно заполняют анкету о себе: возраст, образование, опыт работы, текущие место работы и должность, цели обучения, оценка навыков и прочее. Если слушателей много, то проанализировать целевую аудиторию и сделать полезные для курса выводы — это отдельная аналитическая задача.
С такой задачей хорошо справляется Gpt!
Для начала надо создать копию файла с данными анкеты и удалить оттуда все персональные данные, которые могут как-то деанонимизировать человека.
Скачиваем этот файл и загружаем в LLM (сейчас используем gpt o3). Рекомендуется дополнительно сделать отдельный файл с всеми основными вводными про курс, его структуру, цели, механики, форматы.
Далее пишем промпт с описанием роли (проджект, методист и тд), свои цели (результаты слушателей, метрики) и просим проанализировать описание целевой аудитории из файла, сделать выводы.
Отдельно обычно просим проверить себя: что никаких ошибок не допущено, что ничего не выдумано и все факты подтверждены данными из файлов.
На выходе получается довольно качественный отчет. Таким образом можно получить, например:
- сегментацию слушателей по уровню знаний и опыту, по сфере деятельности;
- выделение групп с особыми потребностями (например, новички, которым нужна доп. поддержка);
- рекомендации по корректировке формата проектных заданий под конкретные сегменты;
- идеи для мотивации и дополнительного вовлечения групп с разными целями.
Такой подход позволяет получить быстрое и глубокое понимание целевой аудитории курса буквально за несколько минут, экономя не менее часа работы.
Отлично работает для экспресс-анализа и оперативных решений.
На старте курса слушатели обычно заполняют анкету о себе: возраст, образование, опыт работы, текущие место работы и должность, цели обучения, оценка навыков и прочее. Если слушателей много, то проанализировать целевую аудиторию и сделать полезные для курса выводы — это отдельная аналитическая задача.
С такой задачей хорошо справляется Gpt!
Для начала надо создать копию файла с данными анкеты и удалить оттуда все персональные данные, которые могут как-то деанонимизировать человека.
Скачиваем этот файл и загружаем в LLM (сейчас используем gpt o3). Рекомендуется дополнительно сделать отдельный файл с всеми основными вводными про курс, его структуру, цели, механики, форматы.
Далее пишем промпт с описанием роли (проджект, методист и тд), свои цели (результаты слушателей, метрики) и просим проанализировать описание целевой аудитории из файла, сделать выводы.
Отдельно обычно просим проверить себя: что никаких ошибок не допущено, что ничего не выдумано и все факты подтверждены данными из файлов.
На выходе получается довольно качественный отчет. Таким образом можно получить, например:
- сегментацию слушателей по уровню знаний и опыту, по сфере деятельности;
- выделение групп с особыми потребностями (например, новички, которым нужна доп. поддержка);
- рекомендации по корректировке формата проектных заданий под конкретные сегменты;
- идеи для мотивации и дополнительного вовлечения групп с разными целями.
Такой подход позволяет получить быстрое и глубокое понимание целевой аудитории курса буквально за несколько минут, экономя не менее часа работы.
Отлично работает для экспресс-анализа и оперативных решений.
Выжимки звонков, которые любят коллеги
Недавно знакомый управленец из крупной ИТ-компании поделился, как он делает выжимки звонков, от которых его коллеги в восторге.
Для начала он протестировал различные имеющиеся на рынке сервисы. Ему не понравилось: многие теряют контекст разговора, плохо работают с русским языком, упрощают ключевые детали и пропускают важные договоренности.
Тогда он начал экспериментировать и сейчас пришел к такому подходу:
1) сохраняет полную транскрибацию звонка (в большинстве сервисов сейчас доступна такая возможность);
2) просит GPT причесать транскрибацию и структурировать в нужном ему виде, например: основные тезисы звонка, основные вопросы, основные договоренности и тд. Обычно за несколько итераций получается хороший черновик;
3) далее он за 5-10 минут «наводит красоту»: убирает повторы, добавляет акценты. подстраивает отчёт под себя.
Такой подход дает гораздо больше контроля над результатом: ИИ выступает в роли инструмента для «черновой» работы, а человек – верховный архитектор. Он направляет процесс, корректирует детали и обеспечивает соответствие личным представлениям о прекрасном.
В итоге всего за 10-15 минут у вас на руках готовый и понятный отчёт, а во время самой встречи вы можете активно участвовать в разговоре, не отвлекаясь на бесконечные записи.
Недавно знакомый управленец из крупной ИТ-компании поделился, как он делает выжимки звонков, от которых его коллеги в восторге.
Для начала он протестировал различные имеющиеся на рынке сервисы. Ему не понравилось: многие теряют контекст разговора, плохо работают с русским языком, упрощают ключевые детали и пропускают важные договоренности.
Тогда он начал экспериментировать и сейчас пришел к такому подходу:
1) сохраняет полную транскрибацию звонка (в большинстве сервисов сейчас доступна такая возможность);
2) просит GPT причесать транскрибацию и структурировать в нужном ему виде, например: основные тезисы звонка, основные вопросы, основные договоренности и тд. Обычно за несколько итераций получается хороший черновик;
3) далее он за 5-10 минут «наводит красоту»: убирает повторы, добавляет акценты. подстраивает отчёт под себя.
Такой подход дает гораздо больше контроля над результатом: ИИ выступает в роли инструмента для «черновой» работы, а человек – верховный архитектор. Он направляет процесс, корректирует детали и обеспечивает соответствие личным представлениям о прекрасном.
В итоге всего за 10-15 минут у вас на руках готовый и понятный отчёт, а во время самой встречи вы можете активно участвовать в разговоре, не отвлекаясь на бесконечные записи.
Дайджест 20.05
Опубликовано 34 содержательных поста (были еще совсем короткие), пришло время провести первую аналитику!
Всего реакций: 576
Самые популярные: 👍 167 > 🔥 143 > 🕊 47 > 🏆 39 > ❤️ 34
Ожидаемо больше всего лайкают посты с анимацией, видео и картинками!
Безотносительно формата файла, больше всего нравятся посты именно про прикладные пошаговые эксперименты!
Постов:
- только с текстом: 17
- с картинкой: 18
- с видео / анимацией: 6
- с другими файлами: 1 (подкаст)
- с интервью: 1
Суммарно слов: 6 742
Суммарно символов: 47 416
Средняя длина поста: 1 396 символов
Топ постов по реакциям:
- Пост-знакомство (закреп) - 25 реакций (🔥10, 👍6, 🤝4, 🥰3, 🕊2)
- Математические анимации с помощью ИИ - 21 реакция (👍11, 🔥5, 👏2, 🏆2, 🕊1)
- ИИ-подкасты из любой статьи за минуту - 21 реакция (🔥7, 👍6, 🏆5, 🤔2, 🕊1)
Задолжал перевод 2027 – надо исправляться!
Опубликовано 34 содержательных поста (были еще совсем короткие), пришло время провести первую аналитику!
Всего реакций: 576
Самые популярные: 👍 167 > 🔥 143 > 🕊 47 > 🏆 39 > ❤️ 34
Ожидаемо больше всего лайкают посты с анимацией, видео и картинками!
Безотносительно формата файла, больше всего нравятся посты именно про прикладные пошаговые эксперименты!
Постов:
- только с текстом: 17
- с картинкой: 18
- с видео / анимацией: 6
- с другими файлами: 1 (подкаст)
- с интервью: 1
Суммарно слов: 6 742
Суммарно символов: 47 416
Средняя длина поста: 1 396 символов
Топ постов по реакциям:
- Пост-знакомство (закреп) - 25 реакций (🔥10, 👍6, 🤝4, 🥰3, 🕊2)
- Математические анимации с помощью ИИ - 21 реакция (👍11, 🔥5, 👏2, 🏆2, 🕊1)
- ИИ-подкасты из любой статьи за минуту - 21 реакция (🔥7, 👍6, 🏆5, 🤔2, 🕊1)
Задолжал перевод 2027 – надо исправляться!
Telegram
Эксперименты с ИИ
Привет! Я Никита Волков, выпускник Физтеха и CEO Standard Data.
В этом канале я экспериментирую с разными ИИ-инструментами для своих рабочих и личных задач: аналитика, контент, идеи, продуктивность.
Рассказываю, что вышло, что сломалось, что из этого можно…
В этом канале я экспериментирую с разными ИИ-инструментами для своих рабочих и личных задач: аналитика, контент, идеи, продуктивность.
Рассказываю, что вышло, что сломалось, что из этого можно…
Давно видел посты про создание ИИ-презентаций и посадочных страниц с помощью ИИ, но все никак не доходили руки.
Сегодня успел лишь немного в это погрузиться, посмотрел сервис Gamma.
Шаги:
1) Просим GPT на основе всех знаний про Standard Data из чатов сделать структуру и контент для лендинга.
2) Копируем ответ GPT, идем в Gamma, выбираем вариант: Сгенерировать с ИИ на основе текста. Выбираем формат: сайт, презентация или что-то другое.
3) Получаем результат – черновик от Gamma.
4) Правим черновик, меняем тему, картинки и тд.
Результат: здесь.
Конечно, результат не впечатляет. С другой стороны, это сделано довольно быстро и может послужить хорошей отправной точкой, чтобы перебороть страх белого листа!
Сегодня успел лишь немного в это погрузиться, посмотрел сервис Gamma.
Шаги:
1) Просим GPT на основе всех знаний про Standard Data из чатов сделать структуру и контент для лендинга.
2) Копируем ответ GPT, идем в Gamma, выбираем вариант: Сгенерировать с ИИ на основе текста. Выбираем формат: сайт, презентация или что-то другое.
3) Получаем результат – черновик от Gamma.
4) Правим черновик, меняем тему, картинки и тд.
Результат: здесь.
Конечно, результат не впечатляет. С другой стороны, это сделано довольно быстро и может послужить хорошей отправной точкой, чтобы перебороть страх белого листа!