group-telegram.com/ai_mind_set/277
Last Update:
рефлексия на 100 человек
сегодня у нас в {space} стало 100 человек. шутка про алгоритмы выкидывания людей перестала быть шуткой. реальный вопрос: какой размер сообщества позволяет оставаться чистым?
сегодняшнее занятие Founder OS было шестым. Ольга и Виктория показали исследование на полгода. обе делали продукты для терапии + AI. обе закрыли. почему? поняли: AI-продукт и терапия должны быть супериндивидуальными. нельзя сделать один инструмент для всех.
три гипотезы, зачем автоматизируют терапию: игрушка (интерес затихает), профдеформация (трекаем всё как метрики), базовая конфигурация (систематизация как способ мышления). скорее всего сочетание в разных пропорциях.
- вампиризм знаний — транскрибируешь сессии, делаешь замену терапевта, перестаешь ходить к живому человеку.
- усложнение системы — она напоминает про всё, ты на неё опираешься, не принимаешь ответственность.
- отказ от чувств — спрашиваешь базу знаний «что я чувствую». мам, я голодный или замерз?
- портянки от AI — приносишь длинные сгенерированные тексты, терапевт не понимает, это твои мысли или AI.
- AI помогает увидеть паттерны для работы с живым терапевтом.
- система уменьшается — интернализуешь голос терапевта, становишься себе терапевтом.
- используешь для подготовки к сессии, а не заменяешь сессию.
- железный и живой работают в связке. задача терапии – жить без неё
Анна Лозицкая показывала AI-коуч: ChatGPT + Claude cross-fire, Telegram-бот, локальная модель. принцип – максимум контекста о себе. биография со стыдными моментами. ключевой момент про стыд: если делишься с ботом, он валидирует чувства, ты чувствуешь облегчение. думаешь, проработал. но бессознательное узнаёт: мой стыд настолько ужасен, что с человеком поделиться невозможно. паттерн избегания, а не проработки. правильная настройка – бот как площадка для репетиции, чтобы потом пойти к людям.
вопрос про будущее. фаундеры будут power-юзерами, но без терапевтов с бэкграундом правильно не сделать. пока происходят кейсы, когда general purpose AI довёл до self-harm. не единичные. скоро судебная система даст ответ: кто несёт ответственность?
терапевты злятся, когда клиенты приходят с AI-практиками. некоторые включают запрет в контракт. но в обсуждении приходят к выводу: работы будет больше, не меньше.
первый шаг – спросить терапевта, как он относится к AI. сверка ценностей. если категорический отказ, возможно, стоит сменить. если нейтрален, показываешь flow и просишь поддержку. приглашаешь в сотрудничество.
"что-то стухло у тебя внутри, и ты стал токсичным. это стухло внутри тебя. вопрос в системе, в которой ты находишься, а не в том, что кто-то считает тебя токсичным" – цитата со звонка токсичность
как сохранить пространство безопасным для уязвимости, когда оно растёт? как воспитывать ребенка, когда он растет? на это нет ответа. но хочется вспомнить принцип – кастомные интерфейсы под себя. персонализация. взаимодействия. живой процесс.
27 октября стартует Automation Lab, на месяц плотно вываливаемся в практику. надеемся, не только порефлексировать, но и поделать на эту тему.
