Мы привыкли думать, что «лучший ИИ = лучшие результаты». MIT Sloan проверили это на практике и выяснили: только половина прогресса действительно приходит от новой модели. Остальное — от того, как мы пишем промпты. В эксперименте с DALL·E 3 люди стали формулировать запросы длиннее и точнее — и именно это дало заметную прибавку. А автоматическое переписывание промптов без ведома пользователя, наоборот, сильно ухудшило качество.
https://mitsloan.mit.edu/ideas-made-to-matter/study-generative-ai-results-depend-user-prompts-much-models
https://mitsloan.mit.edu/ideas-made-to-matter/study-generative-ai-results-depend-user-prompts-much-models
MIT Management Sloan School
Study: Generative AI results depend on user prompts as much as models
Only half of performance gains seen after using a more advanced AI model come from the model itself. The other half come from how users adapted their prompts.
Forwarded from Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Кроме чипов в ход идет и секс. Сэм Альтман сообщил, что с декабря будет доступен секс контент в ChatGPT.
Как говорится, если хочешь больше людей привлечь на свою площадку и удержать их, то дай им всего несколько вещей: секс, деньги и драму.
OpenAI старается показать своим инвесторам хоть что-нибудь.
Как говорится, если хочешь больше людей привлечь на свою площадку и удержать их, то дай им всего несколько вещей: секс, деньги и драму.
OpenAI старается показать своим инвесторам хоть что-нибудь.
X (formerly Twitter)
Sam Altman (@sama) on X
We made ChatGPT pretty restrictive to make sure we were being careful with mental health issues. We realize this made it less useful/enjoyable to many users who had no mental health problems, but given the seriousness of the issue we wanted to get this right.…
🍓5😁3❤1🏆1
Forwarded from AI Inside
Безопасное взаимодействие с внешними LLM
Вы уже используете ChatGPT или другие внешние языковые модели в работе? А кто гарантирует, что ваши корпоративные данные не попадут в обучающие модели злоумышленников?
Всеслав Соленик, директор по кибербезопасности в СберТехе, рассказал о реальных рисках использования общедоступных нейросетей: от утечки конфиденциальной информации до внедрения и подмены контекста.
👉 Смотреть видео
Узнайте, как работает шлюз безопасности ИИ, как контролировать запросы и ответы ИИ и почему LLM нужно мониторить так же строго, как сеть или почту.
#безопасный_AI
Вы уже используете ChatGPT или другие внешние языковые модели в работе? А кто гарантирует, что ваши корпоративные данные не попадут в обучающие модели злоумышленников?
Всеслав Соленик, директор по кибербезопасности в СберТехе, рассказал о реальных рисках использования общедоступных нейросетей: от утечки конфиденциальной информации до внедрения и подмены контекста.
Узнайте, как работает шлюз безопасности ИИ, как контролировать запросы и ответы ИИ и почему LLM нужно мониторить так же строго, как сеть или почту.
#безопасный_AI
Please open Telegram to view this post
VIEW IN TELEGRAM
RUTUBE
Доклад «Безопасное взаимодействие с внешними LLM»
Вы уже используете ChatGPT или другие внешние языковые модели в работе? А кто гарантирует, что ваши корпоративные данные не попадут в обучающие модели злоумышленников? Всеслав Соленик из «СберТех» рассказывает о реальных рисках использования общедоступных…
🔥4
Если вы что то хотели прочитать про LLM просто прочитайте этот 277-ми страничный документ :)
На самом деле очень хорошая "дисциляция" всей сути алгоритмов и математики
https://arxiv.org/abs/2501.09223
На самом деле очень хорошая "дисциляция" всей сути алгоритмов и математики
https://arxiv.org/abs/2501.09223
arXiv.org
Foundations of Large Language Models
This is a book about large language models. As indicated by the title, it primarily focuses on foundational concepts rather than comprehensive coverage of all cutting-edge technologies. The book...
🔥5😁2
Друзья, привет! Небольшой анонс от нашей редации. Мы хотим что бы этот канал был про управление данными, про инженирию данных и подобные инженерные технологические вещи.
Тем не менее современные реалии так же требуют уделять все больше внимания ИИ в части его трансформации, бизнес применения и связаных с ними вещами.
Поэтому мы вместе с командой СберТеха запускаем новый проект: Телеграм-канал AI Inside.
Он станет точкой притяжения всех, кто смотрит на ИИ как на рабочий инструмент, а не на хайп. Мы фокусируемся на практическом применении искусственного интеллекта в бизнесе.
Что вас ждет в AI Inside:
🔹 Глубокие разборы реальных кейсов внедрения ИИ-инструментов
🔹 Анализ технологий без воды, с фокусом на измеримый результат
🔹 Инсайды, которые помогут принимать взвешенные решения по внедрению ИИ
Мы создаем пространство для глубокого, профессионального разговора о рабочих инструментах и подходах, которые уже доказали свою эффективность.
Присоединяйтесь к каналу! Буду рад видеть вас там!
Тем не менее современные реалии так же требуют уделять все больше внимания ИИ в части его трансформации, бизнес применения и связаных с ними вещами.
Поэтому мы вместе с командой СберТеха запускаем новый проект: Телеграм-канал AI Inside.
Он станет точкой притяжения всех, кто смотрит на ИИ как на рабочий инструмент, а не на хайп. Мы фокусируемся на практическом применении искусственного интеллекта в бизнесе.
Что вас ждет в AI Inside:
🔹 Глубокие разборы реальных кейсов внедрения ИИ-инструментов
🔹 Анализ технологий без воды, с фокусом на измеримый результат
🔹 Инсайды, которые помогут принимать взвешенные решения по внедрению ИИ
Мы создаем пространство для глубокого, профессионального разговора о рабочих инструментах и подходах, которые уже доказали свою эффективность.
Присоединяйтесь к каналу! Буду рад видеть вас там!
Telegram
AI Inside
Практическое применение ИИ для бизнеса.
Разборы рабочих кейсов и технологий от экспертов СберТеха.
Рассказываем, как ИИ решает реальные задачи и повышает эффективность.
Разборы рабочих кейсов и технологий от экспертов СберТеха.
Рассказываем, как ИИ решает реальные задачи и повышает эффективность.
🔥6👍4❤3👎1
Иногда самые вдохновляющие тексты — не про ИИ, а про инженерную практику. Прочитал разбора Raptor от SpaceX и поймал важную мысль: не обязательно делать «лучшее в мире» по всем метрикам. Важно сделать «наилучшее для своей задачи».
Raptor — не рекордсмен по всем показателям. Он не самый мощный (F‑1 сильнее), не самый экономичный (RS‑25 эффективнее), и уже случались отказы. Но для миссии Starship — многоразовой системы с десятками двигателей, метаном, высоким давлением в камере и возможностью производить топливо на Марсе — Raptor оказался «идеально подошедшим» решением.
Ключевой урок для нас, продуктовых и инженерных команд:
- Оптимизируй под контекст, а не под абстрактные «лучшие» метрики.
- Прагматичная архитектура побеждает перфекционизм: полный газовый цикл, чистое сгорание метана, управляемость и повторное использование — ровно те свойства, которые нужны системе, а не всем возможным системам.
- «Лучшее решение» почти всегда кастомное: оно рождается из ограничений, целей и среды эксплуатации.
Стоит помнить: делать технологию, которая «удивит мир», и делать технологию, которая выполнит миссию — это разные стратегии. SpaceX выбрала вторую и задала стандарт инженерного прагматизма. Нам — на заметку.
https://prokosmos.ru/2025/08/28/naskolko-idealen-raketnii-dvigatel-raptor-polnii-razbor
Raptor — не рекордсмен по всем показателям. Он не самый мощный (F‑1 сильнее), не самый экономичный (RS‑25 эффективнее), и уже случались отказы. Но для миссии Starship — многоразовой системы с десятками двигателей, метаном, высоким давлением в камере и возможностью производить топливо на Марсе — Raptor оказался «идеально подошедшим» решением.
Ключевой урок для нас, продуктовых и инженерных команд:
- Оптимизируй под контекст, а не под абстрактные «лучшие» метрики.
- Прагматичная архитектура побеждает перфекционизм: полный газовый цикл, чистое сгорание метана, управляемость и повторное использование — ровно те свойства, которые нужны системе, а не всем возможным системам.
- «Лучшее решение» почти всегда кастомное: оно рождается из ограничений, целей и среды эксплуатации.
Стоит помнить: делать технологию, которая «удивит мир», и делать технологию, которая выполнит миссию — это разные стратегии. SpaceX выбрала вторую и задала стандарт инженерного прагматизма. Нам — на заметку.
https://prokosmos.ru/2025/08/28/naskolko-idealen-raketnii-dvigatel-raptor-polnii-razbor
prokosmos.ru
Насколько идеален ракетный двигатель Raptor: полный разбор
Многие эксперты считают, что Raptor, созданный компанией SpaceX для сверхтяжелой ракетно-космической системы Starship, — вершина инженерной мысли в области жидкостных ракетных двигателей. Его уникальность и высокие характеристики объясняются сочетанием схемы…
👍7🔥2
Дайджест статей
To Cache or Not to Cache
- https://newsletter.systemdesignclassroom.com/p/to-cache-or-not-to-cache
- Статья объясняет, в каких ситуациях стоит использовать кэширование, а когда оно может быть неэффективным или вредным, приводя практические примеры и рекомендации по проектированию систем.
Какой табличный формат LLM понимают лучше всего? (Результаты по 11 форматам)
- https://habr.com/ru/articles/955778/
- Статья рассказывает о сравнительном исследовании 11 различных табличных форматов и определяет, какие из них лучше всего воспринимаются крупными языковыми моделями (LLM).
Что я вынес из Oxford Machine Learning Summer School 2025
- https://habr.com/ru/articles/956138/
- Автор делится личным опытом участия в Летней школе машинного обучения в Оксфорде 2025 года, рассказывает о лекциях, проектах и ключевых мыслях, которые он почерпнул из мероприятия.
ClickHouse уже не один: StarRocks показывает, что lakehouse-аналитика может быть проще и быстрее
- https://habr.com/ru/articles/956334/
- В статье рассматривается, как система StarRocks предлагает более простую и быструю альтернативу ClickHouse для аналитики lakehouse-данных.
Экспертная система в отраслях: почему человеческий фактор остается ключевым
- https://habr.com/ru/articles/957100/
- Статья рассказывает о том, почему, несмотря на развитие экспертных систем в различных отраслях, человеческий фактор по-прежнему играет решающую роль в принятии решений и обеспечении качества работы.
Indexing Across Data Models: Tables, Documents, and Text
- https://dzone.com/articles/data-model-indexing-tables-documents-text
- Статья рассматривает принципы и различия индексирования данных в различных моделях — табличной, документной и текстовой — для повышения эффективности запросов и поиска информации.
When Dimensions Change Too Fast for Iceberg
- https://www.dataengineeringweekly.com/p/when-dimensions-change-too-fast-for
- Статья рассказывает о проблемах, возникающих при слишком быстром изменении размерностей данных в аналитических системах и о том, как это плохо сочетается с форматом таблиц Apache Iceberg.
Галлюцинации LLM: запретить нельзя использовать
- https://habr.com/ru/articles/947964/
- Статья рассматривает проблему галлюцинаций языковых моделей, обсуждая потенциальные риски их использования и возможные подходы к решению этой проблемы.
To Cache or Not to Cache
- https://newsletter.systemdesignclassroom.com/p/to-cache-or-not-to-cache
- Статья объясняет, в каких ситуациях стоит использовать кэширование, а когда оно может быть неэффективным или вредным, приводя практические примеры и рекомендации по проектированию систем.
Какой табличный формат LLM понимают лучше всего? (Результаты по 11 форматам)
- https://habr.com/ru/articles/955778/
- Статья рассказывает о сравнительном исследовании 11 различных табличных форматов и определяет, какие из них лучше всего воспринимаются крупными языковыми моделями (LLM).
Что я вынес из Oxford Machine Learning Summer School 2025
- https://habr.com/ru/articles/956138/
- Автор делится личным опытом участия в Летней школе машинного обучения в Оксфорде 2025 года, рассказывает о лекциях, проектах и ключевых мыслях, которые он почерпнул из мероприятия.
ClickHouse уже не один: StarRocks показывает, что lakehouse-аналитика может быть проще и быстрее
- https://habr.com/ru/articles/956334/
- В статье рассматривается, как система StarRocks предлагает более простую и быструю альтернативу ClickHouse для аналитики lakehouse-данных.
Экспертная система в отраслях: почему человеческий фактор остается ключевым
- https://habr.com/ru/articles/957100/
- Статья рассказывает о том, почему, несмотря на развитие экспертных систем в различных отраслях, человеческий фактор по-прежнему играет решающую роль в принятии решений и обеспечении качества работы.
Indexing Across Data Models: Tables, Documents, and Text
- https://dzone.com/articles/data-model-indexing-tables-documents-text
- Статья рассматривает принципы и различия индексирования данных в различных моделях — табличной, документной и текстовой — для повышения эффективности запросов и поиска информации.
When Dimensions Change Too Fast for Iceberg
- https://www.dataengineeringweekly.com/p/when-dimensions-change-too-fast-for
- Статья рассказывает о проблемах, возникающих при слишком быстром изменении размерностей данных в аналитических системах и о том, как это плохо сочетается с форматом таблиц Apache Iceberg.
Галлюцинации LLM: запретить нельзя использовать
- https://habr.com/ru/articles/947964/
- Статья рассматривает проблему галлюцинаций языковых моделей, обсуждая потенциальные риски их использования и возможные подходы к решению этой проблемы.
Systemdesignclassroom
To Cache or Not to Cache
A 7-question framework for making caching a design decision, not a default.
❤8
Python 3.14 — быстрее, но не революция
Большая новость прошлой недели — релиз Python 3.14, в котором снова сделали упор на производительность. Python традиционно критикуют за медлительность, но при этом скорость разработки в нем часто компенсирует скорость выполнения.
А теперь к сути: насколько же он реально быстрее?
Согласно тестам Мигеля Гринберга, прирост над 3.13 есть, но умеренный. Переломным моментом остается версия 3.11 — именно тогда Python стал ощутимо быстрее, а дальше идет уже органический рост.
Что показали бенчмарки:
- Fibonacci — примерно +27% к скорости относительно 3.13
- Bubble sort — улучшения есть, но незначительные
- Free-threading (FT) в 3.14 работает заметно лучше: Fibonacci (4 потока): примерно 3.1 раза быстрее стандартного 3.14 (в 3.13 было 2.2 раза). Bubble (4 потока): примерно 2 раза быстрее
- JIT-интерпретатор пока без ощутимой пользы — на рекурсии (Fibonacci) прироста нет, на итерации (bubble) эффект небольшой и непоследовательный
- PyPy по-прежнему монстр — до 18 раз быстрее CPython, местами быстрее Node
Разница между Linux и macOS есть, но соотношения стабильны — macOS иногда чуть быстрее.
Вывод: переходить на 3.14 специально ради скорости не обязательно. Но если вы все еще на 3.10 или ниже — обновляйтесь хотя бы до 3.11. Именно с нее Python стал по-настоящему пригоден для нагруженных задач.
https://blog.miguelgrinberg.com/post/python-3-14-is-here-how-fast-is-it
Большая новость прошлой недели — релиз Python 3.14, в котором снова сделали упор на производительность. Python традиционно критикуют за медлительность, но при этом скорость разработки в нем часто компенсирует скорость выполнения.
А теперь к сути: насколько же он реально быстрее?
Согласно тестам Мигеля Гринберга, прирост над 3.13 есть, но умеренный. Переломным моментом остается версия 3.11 — именно тогда Python стал ощутимо быстрее, а дальше идет уже органический рост.
Что показали бенчмарки:
- Fibonacci — примерно +27% к скорости относительно 3.13
- Bubble sort — улучшения есть, но незначительные
- Free-threading (FT) в 3.14 работает заметно лучше: Fibonacci (4 потока): примерно 3.1 раза быстрее стандартного 3.14 (в 3.13 было 2.2 раза). Bubble (4 потока): примерно 2 раза быстрее
- JIT-интерпретатор пока без ощутимой пользы — на рекурсии (Fibonacci) прироста нет, на итерации (bubble) эффект небольшой и непоследовательный
- PyPy по-прежнему монстр — до 18 раз быстрее CPython, местами быстрее Node
Разница между Linux и macOS есть, но соотношения стабильны — macOS иногда чуть быстрее.
Вывод: переходить на 3.14 специально ради скорости не обязательно. Но если вы все еще на 3.10 или ниже — обновляйтесь хотя бы до 3.11. Именно с нее Python стал по-настоящему пригоден для нагруженных задач.
https://blog.miguelgrinberg.com/post/python-3-14-is-here-how-fast-is-it
Miguelgrinberg
Python 3.14 Is Here. How Fast Is It?
In November of 2024 I wrote a blog post titled "Is Python Really That Slow?", in which I tested several versions of Python and noted the steady progress the language has been making in terms of…
👍4❤3
Очень хорошая статья на Хабре про фреймворк CrewAI — наконец-то понятно объяснено, как устроена оркестрация LLM-агентов на инженерном уровне.
Суть CrewAI проста: это конструктор промптов, который превращает описанных в коде агентов в запросы к LLM и управляет их взаимодействием. Разработчик описывает агентов как классы — с ролями, задачами и инструментами. Фреймворк под капотом превращает эти определения в промпты, отправляет их в модель, следит за исполнением и оркестрацией. То есть ты пишешь код, а CrewAI делает всю работу по генерации и управлению промптами.
Фреймворк поддерживает два основных режима работы.
В sequential процессе задачи выполняются строго по порядку, как в конвейере. Это детерминированный пайплайн, где каждая задача закреплена за конкретным агентом.
В hierarchical процессе появляется менеджер-агент, который сам анализирует задачи и доступных исполнителей, распределяет работу и управляет процессом. Это уже гибкая структура, где принятие решений переносится внутрь самой системы.
Из коробки CrewAI решает многие вспомогательные задачи, о которых обычно приходится думать вручную:
• Memory — сохранение и передача контекста между шагами.
• Entity Memory — извлечение и хранение сущностей (людей, мест, концепций).
• Callbacks — возможность встроить свою логику в процесс выполнения, например для логирования, мониторинга или внешних интеграций.
В целом, CrewAI делает шаг в сторону того, чтобы оркестрация LLM перестала быть магией промптов и стала прозрачным инженерным паттерном. Он делает с агентами то же, что FastAPI когда-то сделал с API: описываешь структуру декларативно — получаешь готовый управляемый runtime.
https://habr.com/ru/articles/957384/
Суть CrewAI проста: это конструктор промптов, который превращает описанных в коде агентов в запросы к LLM и управляет их взаимодействием. Разработчик описывает агентов как классы — с ролями, задачами и инструментами. Фреймворк под капотом превращает эти определения в промпты, отправляет их в модель, следит за исполнением и оркестрацией. То есть ты пишешь код, а CrewAI делает всю работу по генерации и управлению промптами.
Фреймворк поддерживает два основных режима работы.
В sequential процессе задачи выполняются строго по порядку, как в конвейере. Это детерминированный пайплайн, где каждая задача закреплена за конкретным агентом.
В hierarchical процессе появляется менеджер-агент, который сам анализирует задачи и доступных исполнителей, распределяет работу и управляет процессом. Это уже гибкая структура, где принятие решений переносится внутрь самой системы.
Из коробки CrewAI решает многие вспомогательные задачи, о которых обычно приходится думать вручную:
• Memory — сохранение и передача контекста между шагами.
• Entity Memory — извлечение и хранение сущностей (людей, мест, концепций).
• Callbacks — возможность встроить свою логику в процесс выполнения, например для логирования, мониторинга или внешних интеграций.
В целом, CrewAI делает шаг в сторону того, чтобы оркестрация LLM перестала быть магией промптов и стала прозрачным инженерным паттерном. Он делает с агентами то же, что FastAPI когда-то сделал с API: описываешь структуру декларативно — получаешь готовый управляемый runtime.
https://habr.com/ru/articles/957384/
Хабр
Мультиагентный фреймворк CrewAI: разбор архитектуры и внутренностей
CrewAI — фреймворк интересный. Он похож на самый быстрый способ удивить своего босса: легкий, у него очень низкий порог входа, он по дизайну нацелен на мультиагентность и из него можно очень быстро...
👍4🔥4🤔1
Коллеги, не пропустите очередное мероприятие! Как показывает практика - оффлайн формат без записи и стриминга располагает к очень интересным обсуждениям и новым инсайтам. Воспользуйтесь! highly recommended :)
🔥1
Forwarded from VTORNIK.Company
VTORNIK.Вечер #3
28 октября, с 19:00 до 21:00 мы приглашаем на третье мероприятие в серии. Оно пройдет офлайн и будет посвящено тому, как подходить к внедрению AI в корпорациях. В этот раз вас ждет следующая программа:
1. Дорожная карта ИИ: от быстрых побед к экосистеме и новым возможностям
Спикер: Иван Дашкевич, Владелец ИИ-интегратора Octobrain и Главный архитектор Finam Flow – мультиагентного корпоративного ИИ компании Finam. Совладелец, главный архитектор и ключевой разработчик Lia Chat — системного решения для автоматизации первой и второй линии поддержки.
2. AI-First Трансформация. Почему главный барьер — не технологии,
а мышление лидеров
Спикер: Денис Реймер, Основатель и CEO Reymer Digital. В прошлом:
- Вице-президент ГК ЛАНИТ (LANIT-BPM, CleverDATA, DTG)
- Директор по продуктам B2B и инновациям, ЭР-Телеком Холдинг
- Член совета директоров банков и технологических компаний
Executive MBA, IoD Certified Director.
Место проведения: Офис наших партнеров — компании «Virtu Systems». м. Кропоткинская / м. Полянка, Берсеневская наб., 6, стр. 2, Москва, 3-й этаж.
Мероприятие бесплатное. Регистрация обязательна. Количество мест ограничено.
Будем рады всех видеть!
28 октября, с 19:00 до 21:00 мы приглашаем на третье мероприятие в серии. Оно пройдет офлайн и будет посвящено тому, как подходить к внедрению AI в корпорациях. В этот раз вас ждет следующая программа:
1. Дорожная карта ИИ: от быстрых побед к экосистеме и новым возможностям
Спикер: Иван Дашкевич, Владелец ИИ-интегратора Octobrain и Главный архитектор Finam Flow – мультиагентного корпоративного ИИ компании Finam. Совладелец, главный архитектор и ключевой разработчик Lia Chat — системного решения для автоматизации первой и второй линии поддержки.
2. AI-First Трансформация. Почему главный барьер — не технологии,
а мышление лидеров
Спикер: Денис Реймер, Основатель и CEO Reymer Digital. В прошлом:
- Вице-президент ГК ЛАНИТ (LANIT-BPM, CleverDATA, DTG)
- Директор по продуктам B2B и инновациям, ЭР-Телеком Холдинг
- Член совета директоров банков и технологических компаний
Executive MBA, IoD Certified Director.
Место проведения: Офис наших партнеров — компании «Virtu Systems». м. Кропоткинская / м. Полянка, Берсеневская наб., 6, стр. 2, Москва, 3-й этаж.
Мероприятие бесплатное. Регистрация обязательна. Количество мест ограничено.
Будем рады всех видеть!
vtornik.company
VTORNIK.Вечер #3
Дорожная карта развития ИИ в организации и развитие мышления лидеров в рамках AI-First трансформации
🔥7❤1👍1
Forwarded from AI Inside
Почему ИИ-агенты (пока) не заменят ваших сотрудников
Про ИИ-агентов говорят все. Но что происходит, когда демоверсию пытаются внедрить в реальный бизнес? Ниже – инсайты от инженера-создателя более десятка таких систем (спойлер:суровая инженерная правда прозаичнее маркетинговых обещаний ).
• Наслоение ошибок.
Допустим, каждый шаг агента точен на 95%. Но если шагов 20, общая надежность падает до 36%. Улучшение промптов не поможет. Нужно разбивать длинные цепочки действий на короткие шаги с верификацией человеком и возможностью отката.
• Высокая стоимость работы с контекстом.
ИИ-ассистенты при каждом новом запросе перечитывают всю историю диалога. Объем передаваемых данных растет – а с ним и стоимость. После нескольких десятков сообщений это становится экономически невыгодно.
• Сложность создания инструментов для ИИ.
Такие инструменты должны давать короткие и четкие ответы, а не перегружать ИИ-агента длинными текстами. Но даже если сам инструмент написан идеально, ему приходится работать со старыми корпоративными системами: тут и ограничения, и задержки, и риски сбоев.
Итог:
Не стоит гнаться за полной автономией ИИ-агента. Лучше воспринимать его как мощного ассистента с четкими границами: ИИ генерирует идеи и код, человек – проверяет и контролирует выполнение. Такой подход приносит реальную пользу уже сейчас.
Больше деталей – в статье по ссылке
#Tech_Inside
Про ИИ-агентов говорят все. Но что происходит, когда демоверсию пытаются внедрить в реальный бизнес? Ниже – инсайты от инженера-создателя более десятка таких систем (спойлер:
• Наслоение ошибок.
Допустим, каждый шаг агента точен на 95%. Но если шагов 20, общая надежность падает до 36%. Улучшение промптов не поможет. Нужно разбивать длинные цепочки действий на короткие шаги с верификацией человеком и возможностью отката.
• Высокая стоимость работы с контекстом.
ИИ-ассистенты при каждом новом запросе перечитывают всю историю диалога. Объем передаваемых данных растет – а с ним и стоимость. После нескольких десятков сообщений это становится экономически невыгодно.
• Сложность создания инструментов для ИИ.
Такие инструменты должны давать короткие и четкие ответы, а не перегружать ИИ-агента длинными текстами. Но даже если сам инструмент написан идеально, ему приходится работать со старыми корпоративными системами: тут и ограничения, и задержки, и риски сбоев.
Итог:
Не стоит гнаться за полной автономией ИИ-агента. Лучше воспринимать его как мощного ассистента с четкими границами: ИИ генерирует идеи и код, человек – проверяет и контролирует выполнение. Такой подход приносит реальную пользу уже сейчас.
Больше деталей – в статье по ссылке
#Tech_Inside
👍8
На этой неделе прошла конференция Blockchain London — одно из крупнейших событий в области цифровых финансов и технологий.
Хотя технических докладов было немного (а точнее, не было совсем), мероприятие получилось насыщенным — акценты были сделаны на финансах, регулировании, платежах и будущем цифровых валют.
Особенно запомнились выступления:
• CEO Udacity, который рассказал об эволюции автопилотов и обучении систем ИИ на реальных данных;
• дискуссия о новых вызовах кибербезопасности в эпоху квантовых технологий — квантовые вычисления уже выходят за пределы лабораторий и начинают менять ландшафт защиты данных;
• серия панелей о будущем платежей, стейблкоинов и цифровых активов в международных расчетах.
Главный вывод, который можно сделать после конференции:
Крипта — это не только про доверие, это про снижение транзакционных издержек.
Если раньше я говорил, что фундаментальным критерием эффективности экономики является коэффициент эффективности труда, то теперь добавлю ещё один — стоимость транзакции.
Чем ниже цена транзакции, тем больше экономических процессов становится возможным, тем выше их скорость и эффективность.
Если ИИ — это про эффективность труда,
то крипта — про стоимость транзакции.
И вместе они формируют контуры новой, более рациональной экономики будущего.
Хотя технических докладов было немного (а точнее, не было совсем), мероприятие получилось насыщенным — акценты были сделаны на финансах, регулировании, платежах и будущем цифровых валют.
Особенно запомнились выступления:
• CEO Udacity, который рассказал об эволюции автопилотов и обучении систем ИИ на реальных данных;
• дискуссия о новых вызовах кибербезопасности в эпоху квантовых технологий — квантовые вычисления уже выходят за пределы лабораторий и начинают менять ландшафт защиты данных;
• серия панелей о будущем платежей, стейблкоинов и цифровых активов в международных расчетах.
Главный вывод, который можно сделать после конференции:
Крипта — это не только про доверие, это про снижение транзакционных издержек.
Если раньше я говорил, что фундаментальным критерием эффективности экономики является коэффициент эффективности труда, то теперь добавлю ещё один — стоимость транзакции.
Чем ниже цена транзакции, тем больше экономических процессов становится возможным, тем выше их скорость и эффективность.
Если ИИ — это про эффективность труда,
то крипта — про стоимость транзакции.
И вместе они формируют контуры новой, более рациональной экономики будущего.
👍2
