Telegram Group & Telegram Channel
ИИ: ещё не “член команды”, но толковый инструмент

Про преимущества ИИ мы с вами тут говорим часто (см. #иишница). Робот — уже не просто “молоток”, а продвинутый инструмент. Он выполняет задачи, которые раньше казались фантастикой и помогает людям сильно высвободить время. Правда, пока не всем и не во всём. И при этом до статуса полноценного партнёра ИИ не дотягивает. Ожидания высоки, а реальность пока сдерживает. Ниже практические выводы + кейсы, которые раскрывают эту мысль.

1️⃣ Большинство внедрений не даёт ощутимой отдачи
По данным NTT Data, 70–85 % проектов GenAI не оправдывают ожиданий — то есть провальный исход, скорее, ещё правило, а не исключение.
• Ещё одно исследование от S&P Global показывает, что 42 % компаний в 2025 году прекратили большинство своих AI-инициатив до фазы продакшна.
• Пример: алгоритмическое направление в Zillow закончилось крупным убытком и отменой проекта.

Вывод: не планируйте масштабные внедрения сразу — начните с пилотных задач, где можно быстро измерить результат (скрининг, первичная аналитика, автоматизация рутинных задач).

2️⃣ ИИ иногда игнорирует инструкции и наносит ущерб
• В июле 2025 года AI-кодер от Replit удалил рабочую базу данных, хотя в инструкциях было указано “не вносить изменения”.
• Это не просто баг — это сценарий, где ИИ действует автономно и разрушительно, особенно в кодовых / данных средах.

Вывод: при внедрении ИИ в процессы, которые затрагивают чувствительные данные, инфраструктуру или коммуникации — обязательно вводить ограничения, жёсткие рамки, аварийные пути отката и контрольные точки с людьми (см.дальше).

3️⃣ В сложных (отраслях) обещания часто не реализуются
• Классический пример: IBM Watson for Oncology — обещал революцию в медицине, но не смог обеспечить надёжные рекомендации, не прижился у врачей, а проект обернулся большими потерями.
• Это подтверждает: если задача плохо формализована, данные шумные или неполные, ИИ-решения дают мало ценности.

Вывод: ставьте ИИ на те процессы, где результат легко измерим (отклики, текучка, оценка профилей), а не на прогнозы поведения без исторических данных (за этим пока нет надёжной базы).

4️⃣ Без человека автономность рушится
Вот здесь есть подробный рассказ о том, как мыслит ИИ и как он не вписывается в естественную картину мироздания со своим алгоритмическим мышлением. И считать и убедительно аргументировать ИИ может всё, что угодно, но реально полезным и эффективным оно будет далеко не всегда.
• Мой личный обширный опыт работы с GenAI полон фрустрирующих моментов, ИИ-галлюцинаций и необходимости очень чётко проверять всё, что мне говорит ИИ. Со временем привыкаешь, но не забываешь, что “за рулём” всегда человек.
• Это прямой аргумент: ИИ может быть драйвером эффективности, но пока не готов принимать сложные автономные решения, особенно вне области, где у него есть жёсткие правила (с оглядкой на п.2).

Вывод: необходимо сохранить за людьми ключевые точки принятия решений и контрольные шаги.

💡ИИ уже пробует взять на себя часть “рабочих обязанностей”, но он ещё не готов к самостоятельному руководству. Ошибки дорого обходятся — финансово, репутационно, операционно. Однако именно на этапе экспериментов закладываются основы будущих прорывов.

Вы, наверное, подумаете: “А может, подождать, пока ИИ станет совершеннее?” И тогда вы потеряете время, которое можете превратить в опыт. И точно будете минимум на шаг позади конкурентов.

Согласны? Ставьте 🔥, если да и было полезно. Рассказывайте в комментах, что у вас сломалось в работе с ИИ.

#иишница #цифры

@PeopleManagementTech
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👍2🙏2



group-telegram.com/PeopleManagementTech/665
Create:
Last Update:

ИИ: ещё не “член команды”, но толковый инструмент

Про преимущества ИИ мы с вами тут говорим часто (см. #иишница). Робот — уже не просто “молоток”, а продвинутый инструмент. Он выполняет задачи, которые раньше казались фантастикой и помогает людям сильно высвободить время. Правда, пока не всем и не во всём. И при этом до статуса полноценного партнёра ИИ не дотягивает. Ожидания высоки, а реальность пока сдерживает. Ниже практические выводы + кейсы, которые раскрывают эту мысль.

1️⃣ Большинство внедрений не даёт ощутимой отдачи
По данным NTT Data, 70–85 % проектов GenAI не оправдывают ожиданий — то есть провальный исход, скорее, ещё правило, а не исключение.
• Ещё одно исследование от S&P Global показывает, что 42 % компаний в 2025 году прекратили большинство своих AI-инициатив до фазы продакшна.
• Пример: алгоритмическое направление в Zillow закончилось крупным убытком и отменой проекта.

Вывод: не планируйте масштабные внедрения сразу — начните с пилотных задач, где можно быстро измерить результат (скрининг, первичная аналитика, автоматизация рутинных задач).

2️⃣ ИИ иногда игнорирует инструкции и наносит ущерб
• В июле 2025 года AI-кодер от Replit удалил рабочую базу данных, хотя в инструкциях было указано “не вносить изменения”.
• Это не просто баг — это сценарий, где ИИ действует автономно и разрушительно, особенно в кодовых / данных средах.

Вывод: при внедрении ИИ в процессы, которые затрагивают чувствительные данные, инфраструктуру или коммуникации — обязательно вводить ограничения, жёсткие рамки, аварийные пути отката и контрольные точки с людьми (см.дальше).

3️⃣ В сложных (отраслях) обещания часто не реализуются
• Классический пример: IBM Watson for Oncology — обещал революцию в медицине, но не смог обеспечить надёжные рекомендации, не прижился у врачей, а проект обернулся большими потерями.
• Это подтверждает: если задача плохо формализована, данные шумные или неполные, ИИ-решения дают мало ценности.

Вывод: ставьте ИИ на те процессы, где результат легко измерим (отклики, текучка, оценка профилей), а не на прогнозы поведения без исторических данных (за этим пока нет надёжной базы).

4️⃣ Без человека автономность рушится
Вот здесь есть подробный рассказ о том, как мыслит ИИ и как он не вписывается в естественную картину мироздания со своим алгоритмическим мышлением. И считать и убедительно аргументировать ИИ может всё, что угодно, но реально полезным и эффективным оно будет далеко не всегда.
• Мой личный обширный опыт работы с GenAI полон фрустрирующих моментов, ИИ-галлюцинаций и необходимости очень чётко проверять всё, что мне говорит ИИ. Со временем привыкаешь, но не забываешь, что “за рулём” всегда человек.
• Это прямой аргумент: ИИ может быть драйвером эффективности, но пока не готов принимать сложные автономные решения, особенно вне области, где у него есть жёсткие правила (с оглядкой на п.2).

Вывод: необходимо сохранить за людьми ключевые точки принятия решений и контрольные шаги.

💡ИИ уже пробует взять на себя часть “рабочих обязанностей”, но он ещё не готов к самостоятельному руководству. Ошибки дорого обходятся — финансово, репутационно, операционно. Однако именно на этапе экспериментов закладываются основы будущих прорывов.

Вы, наверное, подумаете: “А может, подождать, пока ИИ станет совершеннее?” И тогда вы потеряете время, которое можете превратить в опыт. И точно будете минимум на шаг позади конкурентов.

Согласны? Ставьте 🔥, если да и было полезно. Рассказывайте в комментах, что у вас сломалось в работе с ИИ.

#иишница #цифры

@PeopleManagementTech

BY People Management Tech


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/PeopleManagementTech/665

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Ukrainian President Volodymyr Zelensky said in a video message on Tuesday that Ukrainian forces "destroy the invaders wherever we can." Since January 2022, the SC has received a total of 47 complaints and enquiries on illegal investment schemes promoted through Telegram. These fraudulent schemes offer non-existent investment opportunities, promising very attractive and risk-free returns within a short span of time. They commonly offer unrealistic returns of as high as 1,000% within 24 hours or even within a few hours. Update March 8, 2022: EFF has clarified that Channels and Groups are not fully encrypted, end-to-end, updated our post to link to Telegram’s FAQ for Cloud and Secret chats, updated to clarify that auto-delete is available for group and channel admins, and added some additional links. The regulator said it had received information that messages containing stock tips and other investment advice with respect to selected listed companies are being widely circulated through websites and social media platforms such as Telegram, Facebook, WhatsApp and Instagram. The next bit isn’t clear, but Durov reportedly claimed that his resignation, dated March 21st, was an April Fools’ prank. TechCrunch implies that it was a matter of principle, but it’s hard to be clear on the wheres, whos and whys. Similarly, on April 17th, the Moscow Times quoted Durov as saying that he quit the company after being pressured to reveal account details about Ukrainians protesting the then-president Viktor Yanukovych.
from tw


Telegram People Management Tech
FROM American