ИИ-видео: космический теннис
Задача
Сделать короткое красивое видео с парящим в космосе кортом, на котором играют в теннис Роджер Федерер и инопланетянин. Роджер забивает мощнейший виннер и земляне выигрывают! Все ликуют. (Описание для моделек было сильно подробнее)
Шаги:
1) Идем в gpt-4o и генерируем картинку референс.
2) Идем в Runway или Kling , загружаем картинку референс.
3) Описываем сценарий видео и запускаем генерацию.
Результаты в приложении.
В этот раз на удивление получилась какая-то ерунда.
Например, gpt упорно не хотел рисовать игроков на корте, которые бы смотрелись естественно в плане размеров, поз, их ориентации в пространстве.
Ни Kling, ни runway не смогли изобразить естественный удар ракеткой по мячу.
Важная оговорка: использовались не последние модели для генерации видео, а предпоследние версии.
Ближайший план:
- потестировать самые новые модельки
- потестировать две (старт и конец) или более картинки референса
Задача
Сделать короткое красивое видео с парящим в космосе кортом, на котором играют в теннис Роджер Федерер и инопланетянин. Роджер забивает мощнейший виннер и земляне выигрывают! Все ликуют. (Описание для моделек было сильно подробнее)
Шаги:
1) Идем в gpt-4o и генерируем картинку референс.
2) Идем в Runway или Kling , загружаем картинку референс.
3) Описываем сценарий видео и запускаем генерацию.
Результаты в приложении.
В этот раз на удивление получилась какая-то ерунда.
Например, gpt упорно не хотел рисовать игроков на корте, которые бы смотрелись естественно в плане размеров, поз, их ориентации в пространстве.
Ни Kling, ни runway не смогли изобразить естественный удар ракеткой по мячу.
Важная оговорка: использовались не последние модели для генерации видео, а предпоследние версии.
Ближайший план:
- потестировать самые новые модельки
- потестировать две (старт и конец) или более картинки референса
Интерактивный отчет ИИ-2027: машины захватят землю и уничтожат людей к 2030?
Часть 3 (Часть 1 здесь, Часть 2 здесь)
Оригинал отчета: здесь
Январь 2027
- Open AI начали обучение Agent-2, делают это во многом с помощью Agent-1
- Генерируют и тщательно фильтруют огромное количество синтетических данных, чтобы обойти ограничения в данных (всего интернета уже мало и по объему, и по качеству)
- Open AI платит миллиарды долларов специалистам по всему миру, чтобы они записывали и передавали, как работают над своими проектами (грубо: 100$ / час * 2 000 часов / год * 20 000 человек = 4 млрд $ / год)
- Agent-1 по навыкам как лучшие инженеры (проектирование, реализация) и входит в верхнюю квартиль лучших исследователей-ученых OpenAI (выбирать, что изучать дальше, какие эксперименты проводить, возможно, находить новые подходы и парадигмы)
- Agent-1 удваивает скорость алгоритмического прогресса OpenAI, а Agent-2 утраивает (со временем может и больше)!
- На практике все идет к тому, что каждый исследователь в OpenAI становится менеджером ИИ команды
- OpenAI знает о широких возможностях Agent-2, в том числе "убежать", не будучи замеченным.
- Знания о реальных возможностях Agent-2 есть только у очень ограниченного количества исследователей, руководства и правительства США.
Февраль 2027
Правительство США заинтересованы в хакерских возможностях Agent-2, ведь на уровне топ-хакеров, при этом можно запустить 1000 копий одновременно.
Китай дает команду выкрасть веса Agent-2, у них это успешно получается, Agent-1 смог это задетектировать, руководство OpenAI и правительство США уже в курсе.
Март 2027
- Три огромных центра обработки данных, полных копий Agent-2, работают день и ночь, штампуя синтетические данные обучения. Еще два используются для обновления весов. Agent-2 становится умнее с каждым днем.
- С помощью Agent-2 OpenAI достигает существенного алгоритмического прогресса.
- Теперь для размышлений модели необязательно выписывать всю цепочку рассуждений, она умеет как человек обрабатывать многое в краткосрочной памяти и делать это эффективно!
- Вышел Agent-3
- OpenAI запустила 200 000 копий Agent-3, что эквивалентно 50 000 копий лучших человеческих кодеров, ускоренных в 30 раз
- теперь задача исследователей Open AI обучить Agent-3 исследовательскому чутью, "вкусу", кооперации для решения более комплексных сложных проектов и задач.
На картинке визуализация прогресса на начало апреля 2027.
Часть 3 (Часть 1 здесь, Часть 2 здесь)
Оригинал отчета: здесь
Январь 2027
- Open AI начали обучение Agent-2, делают это во многом с помощью Agent-1
- Генерируют и тщательно фильтруют огромное количество синтетических данных, чтобы обойти ограничения в данных (всего интернета уже мало и по объему, и по качеству)
- Open AI платит миллиарды долларов специалистам по всему миру, чтобы они записывали и передавали, как работают над своими проектами (грубо: 100$ / час * 2 000 часов / год * 20 000 человек = 4 млрд $ / год)
- Agent-1 по навыкам как лучшие инженеры (проектирование, реализация) и входит в верхнюю квартиль лучших исследователей-ученых OpenAI (выбирать, что изучать дальше, какие эксперименты проводить, возможно, находить новые подходы и парадигмы)
- Agent-1 удваивает скорость алгоритмического прогресса OpenAI, а Agent-2 утраивает (со временем может и больше)!
- На практике все идет к тому, что каждый исследователь в OpenAI становится менеджером ИИ команды
- OpenAI знает о широких возможностях Agent-2, в том числе "убежать", не будучи замеченным.
- Знания о реальных возможностях Agent-2 есть только у очень ограниченного количества исследователей, руководства и правительства США.
Февраль 2027
Правительство США заинтересованы в хакерских возможностях Agent-2, ведь на уровне топ-хакеров, при этом можно запустить 1000 копий одновременно.
Китай дает команду выкрасть веса Agent-2, у них это успешно получается, Agent-1 смог это задетектировать, руководство OpenAI и правительство США уже в курсе.
Март 2027
- Три огромных центра обработки данных, полных копий Agent-2, работают день и ночь, штампуя синтетические данные обучения. Еще два используются для обновления весов. Agent-2 становится умнее с каждым днем.
- С помощью Agent-2 OpenAI достигает существенного алгоритмического прогресса.
- Теперь для размышлений модели необязательно выписывать всю цепочку рассуждений, она умеет как человек обрабатывать многое в краткосрочной памяти и делать это эффективно!
- Вышел Agent-3
- OpenAI запустила 200 000 копий Agent-3, что эквивалентно 50 000 копий лучших человеческих кодеров, ускоренных в 30 раз
- теперь задача исследователей Open AI обучить Agent-3 исследовательскому чутью, "вкусу", кооперации для решения более комплексных сложных проектов и задач.
На картинке визуализация прогресса на начало апреля 2027.
Разметка 100 000 финансовых новостей: с нуля до полного решения за 20 минут с помощью vide coding
Задача: есть набор новостей, которые необходимо разметить тегами по темам, существенно влияющим на компании из индекса S&P500.
Шаг 1: просим GPT топ релевантных тегов
Просим GPT сформировать список не более чем из 10 тегов для разметки новостей. Получаем:
- Corporate Earnings
- M&A
- Regulatory/Legal
- Technology/Innovation
- Global Macro/Geopolitics
- Financial Markets/Investmens
- Capital Flows/Financing
- Market Sentiment
- Emerging Trends
- Если ни один не подходит, то ставим Non-Financial
Шаг 2: Создаём Structured Output схему
Чтобы всегда получать нужный нам формат ответа от LLM, просим GPT задать жесткую схему Structured Output.
Шаг 3: С помощью GPT пишем код
Просим написать функцию, которая итеративно проходит по каждой новости из датасета и отдает набор тегов.
Тестируем, логи ошибок отправляем к GPT, дорабатываем код на основе его ответов. Через 5-10 минут отладки код уже полностью рабочий, отлично!
Результаты:
- Код и разметка готовы за 15-20 минут
- Средняя стоимость разметки новости по заголовку (GPT4o-mini): 0.033 ₽
- По полному тексту новости: 0.114 ₽
- Итого, весь набор из 100 000 новостей обходится от 3 330 ₽ (по заголовкам) до 11 500 ₽ (по полным текстам).
Не сравнить, конечно, с ручной разметкой, которая сильно дольше и дороже!
Что дальше?
В реальном проекте, конечно же, важно:
- добавить эталонную разметку, чтобы можно было быстро валидировать качество разметки на основе LLM;
- искать баланс между стоимостью и качеством. Ведь если в датасете 100к строк и разметить нужно один раз, то текущая стоимость приемлема, но если в датасете 1млн строк, или нужно обновлять теги динамически, то нужно уже придумывать другие решения.
Ссылка на Colab: здесь
Ссылка на Gitlab: здесь
Задача: есть набор новостей, которые необходимо разметить тегами по темам, существенно влияющим на компании из индекса S&P500.
Шаг 1: просим GPT топ релевантных тегов
Просим GPT сформировать список не более чем из 10 тегов для разметки новостей. Получаем:
- Corporate Earnings
- M&A
- Regulatory/Legal
- Technology/Innovation
- Global Macro/Geopolitics
- Financial Markets/Investmens
- Capital Flows/Financing
- Market Sentiment
- Emerging Trends
- Если ни один не подходит, то ставим Non-Financial
Шаг 2: Создаём Structured Output схему
Чтобы всегда получать нужный нам формат ответа от LLM, просим GPT задать жесткую схему Structured Output.
Шаг 3: С помощью GPT пишем код
Просим написать функцию, которая итеративно проходит по каждой новости из датасета и отдает набор тегов.
Тестируем, логи ошибок отправляем к GPT, дорабатываем код на основе его ответов. Через 5-10 минут отладки код уже полностью рабочий, отлично!
Результаты:
- Код и разметка готовы за 15-20 минут
- Средняя стоимость разметки новости по заголовку (GPT4o-mini): 0.033 ₽
- По полному тексту новости: 0.114 ₽
- Итого, весь набор из 100 000 новостей обходится от 3 330 ₽ (по заголовкам) до 11 500 ₽ (по полным текстам).
Не сравнить, конечно, с ручной разметкой, которая сильно дольше и дороже!
Что дальше?
В реальном проекте, конечно же, важно:
- добавить эталонную разметку, чтобы можно было быстро валидировать качество разметки на основе LLM;
- искать баланс между стоимостью и качеством. Ведь если в датасете 100к строк и разметить нужно один раз, то текущая стоимость приемлема, но если в датасете 1млн строк, или нужно обновлять теги динамически, то нужно уже придумывать другие решения.
Ссылка на Colab: здесь
Ссылка на Gitlab: здесь
Google
News Tags.ipynb
Colab notebook
Не могу доказать, но кажется, мозг большинства пользователей gpt научился сразу определять происхождение текста. Слегка корявый, написанный человеком, или безупречно гладкий и общий от gpt. Есть для нас в этих негладких, не везде корректных человеческих текстах что-то родное, приятное, что хочется читать. А на сухой безупречный текст сразу реакция: пропустить, убрать, перенести в архив.
Однако, gpt и другие ии-инструменты могут здорово помогать в писательстве! Делать текст живее, интереснее. Вот такая нестыковка!
Например, с помощью gpt можно:
- Искать нужные тематические факты, которые сделают текст разнообразнее и содержательнее. Вручную этот процесс зачастую занимает часы!
- Обсудить с разных точек зрения тему текста, возможно, обнаружить неочевидные углы обзора на вашу идею.
- Искать синонимы словам или возможные метафоры.
- Получить обратную связь на текст, как от первого самого терпеливого слушателя.
Интересно, научится ИИ мимикрировать под человеческий стиль, под конкретного человека? Скорее всего да! А пока что у нас есть возможность выделяться живым человеческим языком, давайте это делать!
Этот текст:
🏆- полностью написан человеком
👻 - смесь человека и ИИ
💅- полностью ИИ
Однако, gpt и другие ии-инструменты могут здорово помогать в писательстве! Делать текст живее, интереснее. Вот такая нестыковка!
Например, с помощью gpt можно:
- Искать нужные тематические факты, которые сделают текст разнообразнее и содержательнее. Вручную этот процесс зачастую занимает часы!
- Обсудить с разных точек зрения тему текста, возможно, обнаружить неочевидные углы обзора на вашу идею.
- Искать синонимы словам или возможные метафоры.
- Получить обратную связь на текст, как от первого самого терпеливого слушателя.
Интересно, научится ИИ мимикрировать под человеческий стиль, под конкретного человека? Скорее всего да! А пока что у нас есть возможность выделяться живым человеческим языком, давайте это делать!
Этот текст:
🏆- полностью написан человеком
👻 - смесь человека и ИИ
💅- полностью ИИ
Чего не может GPT?
Необычный тест возможностей ЛЛМ – попросить точно воспроизвести график или другую математическую визуализацию!
Простой пример
1) Просим по рисунку от руки воспроизвести картинку с идеей доказательства формулы суммы первых n натуральных чисел. Начиная с o1 все получается!
2) Теперь просим эту же картинку стилизовать, к примеру, под Lego. Здесь gpt и другие модельки обязательно что-нибудь ломают, точно воспроизвести пока что не получается.
Более сложный пример
Просим точно воспроизвести график, используя любые инструменты. Последние модели с возможностью рассуждений над картинками детально анализируют рисунок шаг за шагом и почти правильно. Если дать пару подсказок, где ошибка – получится очень близкий результат. Без подсказок – пока что не выходит.
В приложении примеры всех картинок. Если вы сможете заставить модельки все корректно отрисовать – напишите, очень интересно!
Необычный тест возможностей ЛЛМ – попросить точно воспроизвести график или другую математическую визуализацию!
Простой пример
1) Просим по рисунку от руки воспроизвести картинку с идеей доказательства формулы суммы первых n натуральных чисел. Начиная с o1 все получается!
2) Теперь просим эту же картинку стилизовать, к примеру, под Lego. Здесь gpt и другие модельки обязательно что-нибудь ломают, точно воспроизвести пока что не получается.
Более сложный пример
Просим точно воспроизвести график, используя любые инструменты. Последние модели с возможностью рассуждений над картинками детально анализируют рисунок шаг за шагом и почти правильно. Если дать пару подсказок, где ошибка – получится очень близкий результат. Без подсказок – пока что не выходит.
В приложении примеры всех картинок. Если вы сможете заставить модельки все корректно отрисовать – напишите, очень интересно!
This media is not supported in your browser
VIEW IN TELEGRAM
Кот-теннисист. Пошаговая инструкция, как сделать подобную анимацию.
Этап 1 – создание картинки-примера.
- Описываете для GPT картинку, которую вы хотите получить. Либо только текстом, либо с картинками-примерами по стилю и другим понравившимся элементам.
- Просите GPT написать подробную инструкцию / ТЗ для иллюстратора на основе вашего описания. Можно указать, что если у GPT есть вопросы, пусть он сначала их задаст. Субъективно, GPT 4.5 лучше всего справляется с этой задачей.
- Читаете ТЗ, записываете правки, передаете GPT обратно, получаете обновленный вариант.
- Передаете ТЗ в GPT 4o (или другой инструмент) для отрисовки.
- Обычно делаете 2-3 итерации доработок.
Этап 2 – создание анимации на основе получившейся картинки.
- Составляете ТЗ на анимацию вместе с GPT, как делали в пунктах 1-3. Рекомендуется сделать ТЗ короче, так как учесть большое количество пожеланий в видео пока что сложно.
- Открываете kling ai. Отправляете картинку из GPT в качестве первого фрейма, пишете получившееся ТЗ на анимацию. Для анимации с котом используется kling 2.0 Master.
- Получаете результат!
Как вам кот?
Этап 1 – создание картинки-примера.
- Описываете для GPT картинку, которую вы хотите получить. Либо только текстом, либо с картинками-примерами по стилю и другим понравившимся элементам.
- Просите GPT написать подробную инструкцию / ТЗ для иллюстратора на основе вашего описания. Можно указать, что если у GPT есть вопросы, пусть он сначала их задаст. Субъективно, GPT 4.5 лучше всего справляется с этой задачей.
- Читаете ТЗ, записываете правки, передаете GPT обратно, получаете обновленный вариант.
- Передаете ТЗ в GPT 4o (или другой инструмент) для отрисовки.
- Обычно делаете 2-3 итерации доработок.
Этап 2 – создание анимации на основе получившейся картинки.
- Составляете ТЗ на анимацию вместе с GPT, как делали в пунктах 1-3. Рекомендуется сделать ТЗ короче, так как учесть большое количество пожеланий в видео пока что сложно.
- Открываете kling ai. Отправляете картинку из GPT в качестве первого фрейма, пишете получившееся ТЗ на анимацию. Для анимации с котом используется kling 2.0 Master.
- Получаете результат!
Как вам кот?
ИИ-тестировщик в Standard Data
Один из подходов в Standard Data – использовать GPT в роли первого ученика для тестирования учебных материалов.
Например, GPT помогает нам быстро находить:
– Опечатки, логические несоответствия и смысловые ошибки в текстах уроков.
– Несоответствие изображений техническому заданию.
– Ошибки в условиях задач тренажёров и автотестах к ним.
– «Белые пятна» в учебных материалах, непонятные слушателям.
– Ошибки в тестовых вопросах и вариантах ответов.
Что-то уже успешно внедрили, что-то еще в планах. Пока GPT не ловит 100% ошибок, но уже сейчас позволяет получать оперативную обратную связь ещё до этапа проверки корректором, редактором и тестировщиком.
Полное тестирование прикладного курса с большим количеством практики обходится Standard Data в 60–100 тыс. рублей. Так что потенциально, ИИ-тестировщик может помочь неплохо сэкономить!
Один из подходов в Standard Data – использовать GPT в роли первого ученика для тестирования учебных материалов.
Например, GPT помогает нам быстро находить:
– Опечатки, логические несоответствия и смысловые ошибки в текстах уроков.
– Несоответствие изображений техническому заданию.
– Ошибки в условиях задач тренажёров и автотестах к ним.
– «Белые пятна» в учебных материалах, непонятные слушателям.
– Ошибки в тестовых вопросах и вариантах ответов.
Что-то уже успешно внедрили, что-то еще в планах. Пока GPT не ловит 100% ошибок, но уже сейчас позволяет получать оперативную обратную связь ещё до этапа проверки корректором, редактором и тестировщиком.
Полное тестирование прикладного курса с большим количеством практики обходится Standard Data в 60–100 тыс. рублей. Так что потенциально, ИИ-тестировщик может помочь неплохо сэкономить!
🎾 ИИ‑коучинг: новый спарринг‑партнёр любого теннисиста [не реклама]
Любители тенниса хорошо знакомы с приложением swing vision!
Оно превращает обычный iPhone в «умный корт»: режет видео до чистых розыгрышей, ведёт счёт, считает скорость ударов и даже заменяет судью. В этом приложении видно, куда и как вы подавали, частоту попаданий в различные зоны корта, кто выигрывал длинные розыгрыши, ошибки и многое другое!
С недавних в приложении появился AI Coaching: после матча приложение подсвечивает лучшие паттерны подач/возвратов и слабые зоны, предлагая персональные упражнения. Кроме того, недавно появился SwingVision Smart Court — стационарная система: пришёл, авторизовался у сетки, играешь, а камера сама всё считает.
Почему это важно для любителей тенниса:
1. Цикл «удар — обратная связь» сокращается до секунд.
2. Heat‑map ударов моментально вскрывает ваши слабые и сильные стороны в ударах.
3. Фиксированная камера снимает боль со штативами и зарядкой.
Что с этим можно делать прямо сейчас?
1. Запустить AI‑ассистент для тренеров: авторазбор спарринга + план занятия под конкретного игрока.
2. Переупаковать технологию под массовые виды (паддл, настольный теннис, бадминтон) — рынок быстро растёт.
3. Локализовать в России, предложить клубам «plug‑&‑play» подписку с upsell персональной статистики игрокам.
Думаю, что уже совсем скоро вопрос будет не «заменит ли ИИ тренера», а кто первым встроит ИИ в каждую тренировку, поможет спортсменам и заработает на этом.
Поделитесь вашим опытом использования технологий в спорте!
Любители тенниса хорошо знакомы с приложением swing vision!
Оно превращает обычный iPhone в «умный корт»: режет видео до чистых розыгрышей, ведёт счёт, считает скорость ударов и даже заменяет судью. В этом приложении видно, куда и как вы подавали, частоту попаданий в различные зоны корта, кто выигрывал длинные розыгрыши, ошибки и многое другое!
С недавних в приложении появился AI Coaching: после матча приложение подсвечивает лучшие паттерны подач/возвратов и слабые зоны, предлагая персональные упражнения. Кроме того, недавно появился SwingVision Smart Court — стационарная система: пришёл, авторизовался у сетки, играешь, а камера сама всё считает.
Почему это важно для любителей тенниса:
1. Цикл «удар — обратная связь» сокращается до секунд.
2. Heat‑map ударов моментально вскрывает ваши слабые и сильные стороны в ударах.
3. Фиксированная камера снимает боль со штативами и зарядкой.
Что с этим можно делать прямо сейчас?
1. Запустить AI‑ассистент для тренеров: авторазбор спарринга + план занятия под конкретного игрока.
2. Переупаковать технологию под массовые виды (паддл, настольный теннис, бадминтон) — рынок быстро растёт.
3. Локализовать в России, предложить клубам «plug‑&‑play» подписку с upsell персональной статистики игрокам.
Думаю, что уже совсем скоро вопрос будет не «заменит ли ИИ тренера», а кто первым встроит ИИ в каждую тренировку, поможет спортсменам и заработает на этом.
Поделитесь вашим опытом использования технологий в спорте!
Один из самых частых способов использования GPT
Обожаю gpt за возможность быстро изучить нужную сферу на разных уровнях погружения.
Например, частая ситуация в программировании / математике, когда +- есть понимание, что нужно сделать. Но при этом глубоких знаний в области нет. Обычно нужно:
1) Долго гуглить, чтобы собрать широкую картинку, понять, что есть в меню.
2) Разобраться в тонкостях и ограничениях каждого из подходов.
3) Сформулировать наиболее перспективные гипотезы.
4) Шаг за шагом проверить все гипотезы, сформулировать новые.
На шаг 1 могут уйти не то что часы, а дни или недели. GPT, и особенно Deep Search, очень сильно ускоряет этот процесс. Он сам сходит по всему интернету, перевернет все свои внутренние знания и выдаст отчет с всеми ссылками за пару минут! Супер!
Шаги 2 и 3 пока что не сильно ускоряются, погружаться и приоритизировать, кажется, лучше пока что самому.
Шаг 4 достаточно сильно ускоряется, не в разы, но на десятки процентов точно. Особенно, если ты уже знаешь, что нужно сделать. Тогда GPT ускоряет именно процесс кодинга!
Лайк, если используете аналогичный подход!
Обожаю gpt за возможность быстро изучить нужную сферу на разных уровнях погружения.
Например, частая ситуация в программировании / математике, когда +- есть понимание, что нужно сделать. Но при этом глубоких знаний в области нет. Обычно нужно:
1) Долго гуглить, чтобы собрать широкую картинку, понять, что есть в меню.
2) Разобраться в тонкостях и ограничениях каждого из подходов.
3) Сформулировать наиболее перспективные гипотезы.
4) Шаг за шагом проверить все гипотезы, сформулировать новые.
На шаг 1 могут уйти не то что часы, а дни или недели. GPT, и особенно Deep Search, очень сильно ускоряет этот процесс. Он сам сходит по всему интернету, перевернет все свои внутренние знания и выдаст отчет с всеми ссылками за пару минут! Супер!
Шаги 2 и 3 пока что не сильно ускоряются, погружаться и приоритизировать, кажется, лучше пока что самому.
Шаг 4 достаточно сильно ускоряется, не в разы, но на десятки процентов точно. Особенно, если ты уже знаешь, что нужно сделать. Тогда GPT ускоряет именно процесс кодинга!
Лайк, если используете аналогичный подход!
ИИ-поиск научных статей
Если вы занимались научной деятельностью, то хорошо понимаете боль поиска актуальных статей, их изучения и систематизации – на это уходят часы, дни и недели.
Если просто попросить GPT или даже Deep Search подготовить обзор литературы, к сожалению, выйдет далеко не лучшим образом! Они не ходят в закрытые платные базы, не считают статистику по цитированию, скорости цитирования и другим важным показателям.
Два физика-исследователя из MIT быстро увидели возможность и разработали систему, которая гораздо качественнее проводит поиск и анализ научной литературы – Undermind AI.
Механика работы очень простая:
- сначала надо в чате объяснить, что вы ищете. Если Undermind не все понял, он задаст уточняющие вопросы;
- далее в течение нескольких минут идет поиск;
- выдача результата с хронологией исследований, разбиением по основным «трекам» и другой аналитикой.
Интересно, что создатели сервиса довольно быстро поняли, что только ИИ-поиска в узко-специализированном инструменте недостаточно, поэтому сейчас он оброс большим количеством мелких фичей. Например, теперь для любой найденной статьи можно быстро скопировать варианты цитирования в различных форматах – очень удобно для ученых.
Если не подходит аналитика и отчет от Undermind, то можно выгрузить все статьи с метаданными в старую-добрую csv и проанализировать самостоятельно!
Если вы занимались научной деятельностью, то хорошо понимаете боль поиска актуальных статей, их изучения и систематизации – на это уходят часы, дни и недели.
Если просто попросить GPT или даже Deep Search подготовить обзор литературы, к сожалению, выйдет далеко не лучшим образом! Они не ходят в закрытые платные базы, не считают статистику по цитированию, скорости цитирования и другим важным показателям.
Два физика-исследователя из MIT быстро увидели возможность и разработали систему, которая гораздо качественнее проводит поиск и анализ научной литературы – Undermind AI.
Механика работы очень простая:
- сначала надо в чате объяснить, что вы ищете. Если Undermind не все понял, он задаст уточняющие вопросы;
- далее в течение нескольких минут идет поиск;
- выдача результата с хронологией исследований, разбиением по основным «трекам» и другой аналитикой.
Интересно, что создатели сервиса довольно быстро поняли, что только ИИ-поиска в узко-специализированном инструменте недостаточно, поэтому сейчас он оброс большим количеством мелких фичей. Например, теперь для любой найденной статьи можно быстро скопировать варианты цитирования в различных форматах – очень удобно для ученых.
Если не подходит аналитика и отчет от Undermind, то можно выгрузить все статьи с метаданными в старую-добрую csv и проанализировать самостоятельно!
Вдохновляющий пример Google
Google сегодня обновил свою флагманскую модель, теперь она еще лучше, особенно в веб-разработке.
Когда выстрелил GPT 3, потом GPT 4 многие смеялись над Google. Что он так отстает, долго не может выпустить ничего дельного, сравнимого с GPT (хотя это не так). В ИИ-гонку включился даже один из основателей и снова стал писать код. Включил founder mode, так сказать! Теперь, через год, модели Google регулярно в топе по многим задачам, дают хороший баланс качества и стоимости.
Вот так, даже огромная компания, если нужно, может переключиться в режим стартапа, и выйти в лидеры!
Google сегодня обновил свою флагманскую модель, теперь она еще лучше, особенно в веб-разработке.
Когда выстрелил GPT 3, потом GPT 4 многие смеялись над Google. Что он так отстает, долго не может выпустить ничего дельного, сравнимого с GPT (хотя это не так). В ИИ-гонку включился даже один из основателей и снова стал писать код. Включил founder mode, так сказать! Теперь, через год, модели Google регулярно в топе по многим задачам, дают хороший баланс качества и стоимости.
Вот так, даже огромная компания, если нужно, может переключиться в режим стартапа, и выйти в лидеры!
Редакторы и корректоры больше не нужны!
Нейронные сети уже довольно хорошо пишут тексты на общие темы, отлично делают переводы с одного популярного языка на другой.
Условный сетевой магазин строительной техники или поставщик теперь может в гораздо бОльших объемах создавать тексты в своем блоге вида "Как выбрать покрытие для крыши?" и привлекать новую аудиторию за счет SEO-трафика.
Значит ли это, что редакторы и корректоры теперь этому магазину не нужны? Кажется, ответ зависит от целей магазина/поставщика. Если он хочет сократить затраты при том же объем генерируемого контента, что и раньше, то да, на редакторах и корректорах можно будет сэкономить, привлекать их только на финальные правки.
Если же задача – вырастить канал SEO в 10, 100 или 1000 раз, то:
1) GPT и подобные инструменты действительно дают возможность автоматически генерировать огромное количество статей, например, вида: "Как сделать Х?", "Как выбрать Y" и тд;
2) пока что придется столкнуться с тонкостями использования терминов в узких областях, нюансами при переводах на не самые популярные языки, проблемами с следованием конкретному стилю и другими "мелочами".
И благодаря пункту 2 скорее всего в ближайшее время спрос на редакторов и корректоров должен только вырасти.
Отдельный интересный вопрос – а как выделяться в мире ИИ-контента? Очевидный ответ, первым приходящий в голову – это живой, человеческий контент, пронизанный личным опытом человека. Ведь все мы можем найти общие факты, пусть и очень сложные, но доступные на просторах интернета. При этом и максимально обобщенные и усредненные через ИИ. А вот послушать личный опыт умного человека, как он справился с такой-то задачей, с таким-то проектом, как решил проблемы и что рекомендует после пережитого опыта – это ценно!
Скорее всего части бизнесов станет еще важнее выделяться "среди толпы" и они захотят именно живой контент! Спрос на него вырастет, а значит, и на редакторов и корректоров!
Отдельно стоит заметить, что мы опираемся как минимум на два спорных допущения:
1) Что перечисленные выше недостатки использования ИИ сохранятся;
2) Что мы можем хоть как-то приемлемо оценивать среднесрочные события (например, на 1-3 года).
Поэтому из текущего момента все выглядит так, но уже завтра все может моментально поменяться, друзья!
Напишите, что вы думаете?
Нейронные сети уже довольно хорошо пишут тексты на общие темы, отлично делают переводы с одного популярного языка на другой.
Условный сетевой магазин строительной техники или поставщик теперь может в гораздо бОльших объемах создавать тексты в своем блоге вида "Как выбрать покрытие для крыши?" и привлекать новую аудиторию за счет SEO-трафика.
Значит ли это, что редакторы и корректоры теперь этому магазину не нужны? Кажется, ответ зависит от целей магазина/поставщика. Если он хочет сократить затраты при том же объем генерируемого контента, что и раньше, то да, на редакторах и корректорах можно будет сэкономить, привлекать их только на финальные правки.
Если же задача – вырастить канал SEO в 10, 100 или 1000 раз, то:
1) GPT и подобные инструменты действительно дают возможность автоматически генерировать огромное количество статей, например, вида: "Как сделать Х?", "Как выбрать Y" и тд;
2) пока что придется столкнуться с тонкостями использования терминов в узких областях, нюансами при переводах на не самые популярные языки, проблемами с следованием конкретному стилю и другими "мелочами".
И благодаря пункту 2 скорее всего в ближайшее время спрос на редакторов и корректоров должен только вырасти.
Отдельный интересный вопрос – а как выделяться в мире ИИ-контента? Очевидный ответ, первым приходящий в голову – это живой, человеческий контент, пронизанный личным опытом человека. Ведь все мы можем найти общие факты, пусть и очень сложные, но доступные на просторах интернета. При этом и максимально обобщенные и усредненные через ИИ. А вот послушать личный опыт умного человека, как он справился с такой-то задачей, с таким-то проектом, как решил проблемы и что рекомендует после пережитого опыта – это ценно!
Скорее всего части бизнесов станет еще важнее выделяться "среди толпы" и они захотят именно живой контент! Спрос на него вырастет, а значит, и на редакторов и корректоров!
Отдельно стоит заметить, что мы опираемся как минимум на два спорных допущения:
1) Что перечисленные выше недостатки использования ИИ сохранятся;
2) Что мы можем хоть как-то приемлемо оценивать среднесрочные события (например, на 1-3 года).
Поэтому из текущего момента все выглядит так, но уже завтра все может моментально поменяться, друзья!
Напишите, что вы думаете?