Telegram Group Search
Please open Telegram to view this post
VIEW IN TELEGRAM
Экспериментирую с плейбуками (в простонародье - чек-листами).

В комментах под постом про новый "народный" сервис докзиллы, автор канала HoReCa-юрист Юлия Вербицкая | Право для рестораторов поделилась своим чеклистом по договору аренды. Прикрутил его к экспериментаторской. Залетайте по ссылке, загружайте свои договоры аренды, проверяйте и, пожалуйста, не забывайте делиться обратной связью. Это важно для меня. Нет ОС - раздел не двигается, т.к. считаю его не нужным.

Кто хочет/может поделиться своим чек-листом, кидайте сюда в комменты, или мне в личку, добавлю в экспериментаторскую с упоминанием автора и ссылкой на личный блог.

В идеале прям сделать раздел в котором будем много хороших и разных чек-листов и проверка на них.

экспериментаторская.рф/чеклист
Всё, что нужно знать про автоматизацию в докзиле) В 12.22 приходит уведомление о том, что мероприятие начнется в 10.55☺️
Please open Telegram to view this post
VIEW IN TELEGRAM
В видосе к предыдущему посту мне надо было показать как получить токен от апи. Замазывать сам токен в видосе мне было лень. Поэтому решил выпустить временный ключ специально для демо, а потом сразу же удалить. Еще когда записывал демо, был уверен что придет народ в комменты и скажут мне что я лох и зараспространил свой ключ от апи, хе-хе, а еще LawCoder'ом себя называю.

Рассказываю ниже почему такая самоуверенность может выйти боком

В мире крипты есть очень популярный скам мамонтов, который называют «honeypot-мошенничеством» (мёдовая ловушка) или «смарт-контрактным скамом-ловушкой». Суть его такова:

Притворный “лох” раскрывает кошелёк
Мошенник создаёт или снимает видео/пост, где якобы «случайно» под видом новичка делится приватным ключом или прямым доступом к кошельку, полный криптовалюты (ETH, токены ERC-20 и т. п.). Он демонстрирует баланс, чтобы убедить зрителей, что на кошельке много денег и он не знает как их достать и просит помочь с этим.

Ловушка в смарт-контракте
На самом деле в кошельке лежит не просто эфир, а токены, привязанные к хитро запрограммированному смарт-контракту. Внешний кошелёк имеет возможность «ввести» или «вывести» токены только при выполнении особых условий — например, чтобы вывести токен A, нужно сначала отправить 1 ETH или выполнить какую-то функцию, которая на самом деле переведёт ваш эфир мошеннику.

Жертвы “пытаются украсть” и теряют средства
Пользователи, желающие «поживиться», выполняют транзакцию: вызывают функцию контракта (обычно transfer() или withdraw()) и в результате теряют либо всю сумму газа (ETH на покрытие комиссии), либо они переводят свой эфир (или другие токены) на адрес мошенника. При этом сами «хозяева» контракта успешно не получают ничего — все «оттянутые» деньги идут на счёт злоумышленника.

Почему это работает
Большинство пользователей проверяют только баланс токена в кошельке и упускают из виду код контракта.
Смарт-контракт может блокировать вывод средств на любые адреса, кроме одного заранее зарегистрированного в логике (адрес мошенника).
Часто эти контракты запрещают массовое чтение кода или используют минимизированный/обфусцированный байткод, чтобы усложнить аудит.

Так что, если вдруг увидели лоха и хотите его обуть, посмотритесь для начала в зеркало, может быть лох в этой схеме - вы)))
Всерьез подумываю сменить действующее место работы и поискать что-то на стыке айтишки и юризма и вместо публичной деятельности попилить что-то внутри бизнеса в какой-нибудь нестандартной для себя роли.

Может быть вы заинтересованы в скиллах юриста умеющего в разработку, пишите в личку, обсудим!
Please open Telegram to view this post
VIEW IN TELEGRAM
LawCoder
Вроде как опубликовали. Не очень понимаю, что за статус "из песочницы", типа из детского сада штоле?)

Вот прямая ссылка. У кого есть акк на хабре, поддержите, плиз, чтобы зараспространить среди максимального количества разрабов.
Там народ ломанулся шатать сайт РКН и он прилег. В комментариях под постами известных блогеров ругаются, что предзаполненные данные слетают. Вспомнил, что чуть больше года назад выкладывал расширение для браузера гугл хром, которое помогает заполнять по ИНН данные по юрику из ЕГРЮЛ (самое муторное - адрес, огрн, оквэды, окпо и остальные малопонятные аббревиатуры). Может пригодится вам в борьбе за секунды доступности сайта.

Прямая ссылка на пост. Там расширенька и инструкция как установить и пользоваться.
Кирилл Буряков (докзилла) ищет партнеров (субчиков?) экспертных экспертов по LLM и внедрению их в бизнес процессы и попросил зараспространить пост среди жильцов нашего жэка. Зараспространяю, вот ссылка на пост, откликайтесь если среди вас такие есть. Хотя я в свою очередь думал, что там поле непаханое для экспериментов, а оказывается уже ищут экспертов, т.е. тех кто так делал и не раз с определенным качеством.

Сама идея для бизнеса докзиллы здравая, подсадить максимальное количество компаний на свои инструменты, при этом даже не задействуя внутренние ресурсы. Но вот реализация мой взгляд должна быть такая же как делает, к примеру, Qwen или Llama, т.е. отдавать свои продукты в опенсурс и тем самым подсаживать максимальное количество независимых разрабов на твой продукт. Подробно почему опенсурс это круто писать не буду, вот здесь если хотите прочитайте, 100% совпадает с моим видением.
You're asking for directions As if to move you got to know it You find someone who could teach you To see when "change" is a verb or a noun

Правотех позвали меня в качестве эксперта на мероприятие:
ИИ-агенты: временный тренд или будущее юридической профессии?

Вообще ИИ агенты они повсюду, они заполонили всю планету. Из каждого утюга доносится это слово, при этом мало кто его употребляет в правильном значении, но об этом как-нибудь запилю отдельный пост.

Так вот я сначала был польщён, мое эго такое: "Ух, круто! Тебя считают экспертом в области которой еще никто ничего не добился! Жаль аэропорт закрыт, а так бы можно было бы поучаствовать и поумничать на тему ИИ-агентов." Промелькнула даже мысль, а не поехать ли на паровозе туда? Подумаешь, сутки туда, сутки обратно, зато покажу свою экспертную экспертность! Но быстро пришло осознание, что за это время можно более продуктивно той же самой ИИшкой позаниматься, а не поговорить о ней. На волне изменений, я хочу быть тем кто изменяет жизнь юристов с помощью ИИ, а не тем кто ждёт этого момента и обсуждает хорошо это или плохо, придет или нет, заменят или не заменят нас и т.д. и т.п..

Собственно вас тоже призываю посещать поменьше вебинаров, круглых столов и других мероприятий, особенно в качестве слушателя. Вместо тысячи слов, лучше откройте бесплатный дипсик, гугл студию или купите доступ к чату жипити, клоду и начините уже быть полноценным участником процесса, а не просто слушателем/наблюдателем, а также потребителем производного продукта, который вам попытаются впарить на очередном мероприятии.
Давно хотел запилить пост, собрав наиболее частые заблуждения про ИИ, которым можно кидаться в человеков, которых хотите образумить, но начав писать понял что их (рассуждений, но и человеков тоже) слишком много для одного поста, поэтому придется вам потерпеть (читать, лайкать, репостить, психовать, отписываться) следующие 6-7 дней по посту за день)

Чтобы не быть голословным умником, все объяснения взял у основателя чата жипити Андрея Карпати из вот этих видео РАЗ и ДВА. Это авторитетнейший авторитет и самый уважаемый мной спец по ИИ из развалившейся команды опенаи. Рекомендую вместо прочтения моих постов эти видосы посмотреть и закрыть вопрос с пониманием ИИ на уровне базы.

Фундаментальное заблуждение: LLM умеют думать/понимать как человек
В действительности, как объясняет Карпати, LLM представляют собой статистические системы, обученные на огромных объемах текстовых данных для предсказания следующего токена в последовательности.
Эта фундаментальная механика означает, что модели не "понимают" текст в человеческом смысле, а распознают статистические паттерны. Карпати подчеркивает, что вся кажущаяся "магия" ChatGPT и подобных систем сводится к изощренному статистическому моделированию, основанному на трансформерной архитектуре нейронных сетей.

Т.е. нейросеть не понимает, что она говорит, не понимает что вы говорите, она видит ваши токены, которые вы ей написали (дали на вход модели), и на основе этих токенов просто строит токен за токеном свой ответ, выбирая определенное количество статистически наиболее подходящих и "подбрасывая монетку" перед тем как выбрать один из них. Именно поэтому ответы нейросети на один и тот же вопрос каждый раз хоть немного, но отличаются.

LawCoder
Заблуждение о токенизации и обработке текста

Одним из наиболее распространенных и важных для понимания заблуждений является представление о том, что LLM обрабатывают текст на уровне отдельных букв или символов. Карпати объясняет, что современные языковые модели работают с токенами - фрагментами текста, которые могут представлять части слов, целые слова или даже фразы. Этот процесс токенизации создает словарь из десятков тысяч токенов. Токен при этом состоит не из букв в человеческом понимании. Токен - это набор цифр в таком виде [302, 1618, 19772] (так LLM видит слово strawberry).

Токенизация является корнем многих ограничений LLM, которые пользователи ошибочно приписывают архитектуре или алгоритмам обучения. Классический пример, который приводит Карпати - неспособность модели правильно подсчитать количество букв "r" в слове "strawberry". Поскольку слово может быть токенизировано как "st" + raw" +"berry", модель не имеет прямого доступа к отдельным символам, потому что видит его так [302, 1618, 19772]. Это объясняет, почему мощные языковые модели могут решать сложные математические задачи, но испытывают трудности с простым подсчетом символов.

В экспериментаторской есть раздел с объяснением понятия токен и калькулятор для подсчета количество токенов в тексте:
экспериментаторская.рф/tiktoken
Можете поиграться с этим на досуге.

Это серия постов с заблуждениями об ЛЛМ. Предыдущий здесь.

LawCoder
Проблема галлюцинаций: особенность, а не дефект

Все слышали про то, что ЛЛМ могут галлюцинировать, т.е. ошибаться, придумывать несуществующие факты и т.д. И естественно реакцией является: ну, вот эта ЛЛМ еще несовершенная, сейчас умные умы её допилят и она не будет ошибаться, т.е. галлюцинировать.

Но Карпати в своих объяснения говорит, что это не баг, а фича. Все что делает ЛЛМ это постоянные галлюцинации. Карпати называет ЛЛМ "машины снов" (dream machines). В этом её принципиальное отличие от алгоритмических систем, в которых вы даете что-то конкретное на вход и получаете 100% контролируемый результат на выходе.

Для решения проблемы галлюцинаций в практических приложениях Карпати предлагает такие методы как RAG (Retrieval Augmented Generation), использование множественной генерации с проверкой, цепочки верификации и применение внешних инструментов. Эти подходы позволяют "заземлить" креативные способности модели в фактических данных.

Но это уже на мой субъективный взгляд, по сути просто костыли, которые мы прикручиваем к изначально проблемной технологии.

Это серия постов с заблуждениями об ЛЛМ. Предыдущий здесь и здесь.

LawCoder
Заблуждение о математических способностях

Особое внимание в своих видео Карпати уделяет заблуждению о математических способностях LLM. Популярнейший мем, который он разбирает - неспособность некоторых моделей правильно сравнить числа 9.11 и 9.9. Модели довольно часто ошибочно отвечают, что 9.11 больше 9.9, что кажется абсурдным.

Карпати объясняет, что эта ошибка возникает из-за того, что модель обнаруживает корреляцию с библейскими стихами, где 9:11 действительно следует после 9:9 в порядке нумерации. Это демонстрирует, как LLM полагаются на статистические паттерны из обучающих данных, а не на логическое понимание арифметики.

Одним из возможных решением этой проблемы по мнению Карпати является просьба к модели использовать программный код для вычислений вместо "ментальной арифметики".

Поэтому и я тоже не советую вам пихать свои таблички в чат жипити с просьбой что-то посчитать. Он сделает и без проверки будет казаться, что все очень круто, но с вероятностью 99% там будет все очень печально. Не подставляйтесь так, лучше попросите его написать вам скрипт на GAS, запустив который все будет посчитано как надо, с помощью надежных алгоритмов, а не галлюцинаций ИИ.

Это серия постов с заблуждениями об ЛЛМ. Предыдущие здесь, здесь и здесь.

LawCoder
Концепция "зубчатого интеллекта"

Думаю, что многие из вас зайдя в очередной расхайпленный чат-бот с ИИ и не зная, что бы такого действительно полезного спросить, начинают с чего-нибудь вроде "А и Б сидели на трубе." и других логических задачек для детского садика. И когда вдруг чат-бот не может разгадать казалось бы столь легкую загадку, вы ликуете и закрываете чатик с чувством собственного превосходства со словами: "Да уж, далеко этой машине до меня... Долго еще она не сможет заменить такого умника как Я!".

Но почему так происходит, ведь все вокруг только и говорят о том как круто ЛЛМ решают ту или иную задачу, программирует на уровне мидлов, легко переваривает огромные массивы информации извлекая из них суть и т.д. и т.п?

Объясняя этот феномен Карпати ввел термин "jagged intelligence" (зубчатый интеллект). Этот концепт объясняет, почему языковые модели могут превосходить людей в решении сложных задач, но терпят неудачу в простых логических упражнениях.
"Зубчатый интеллект" проявляется в том, что модели демонстрируют выдающиеся результаты в областях, близко совпадающих с их обучающими данными, но показывают неожиданные провалы в задачах, требующих базовой логики или здравого смысла. Например, модель может написать сложное эссе о квантовой физике, но ошибиться в подсчете букв в простом слове.

Причина этого феномена кроется в том, что LLM не обладают истинным "пониманием" задач. Они полагаются на распознавание паттернов, а не на внутреннее осмысление, которым обладают люди. Это ограничение подчеркивает важность понимания того, что современный ИИ представляет собой очень мощный инструмент распознавания паттернов, а не систему общего интеллекта. Так что лучше пользуйтесь этой супер-силой, а не пытайтесь поставить её в тупик задачами на логику из детского сада, в этом нет никакого смысла.

Это серия постов с заблуждениями об ЛЛМ. Предыдущие здесь, здесь, здесь и здесь.

LawCoder
Ля чё купил
ИИ-агент ≠ ИИ-бот ≠ автоматизация

Этот год смело можно называть годом ИИ-агентов. Про них слышно из каждого утюга. Все их хотят себе в помощники, но не все понимают о чем на самом деле говорят.

Просто запилить бота, которому вы, например, кинете договор, а он вам проверку по чек-листу сделает и вернет результат, не равно сделать ИИ-агента, помощника юриста. Сделав такого бота вы просто автоматизировали общение с ЛЛМ, убрав стандартный интерфейс предлагаемый вендором, и заменив его на удобный вам, к примеру телеграм.

ИИ-агент это другое, это бот, который сам принимает решения. Т.е. вы ему кинули договор, а он такой: "так, мне прислали договор. Что я могу/должен с ним сделать? Задам юзеру уточняющий вопрос, но для начала схожу в базу данных компании за доп. информацией о процессах компании по договорной работе, чтобы понимать кто из сотрудников ко мне обратился, из какого он отдела, на каком этапе мы находимся и какие вопросы я должен уточнить для правильного действия." или, например, бот сразу видел, что документ подписан с двух сторон и с учетом должности сотрудника (документооборотчик) и регламента сразу понял, что документ нужно не рассмотреть, а просто сохранить в архив, но перед этим еще зашел в срм и получил подтверждение, что все сотрудники этот договор согласовали, а стороны подписали утвержденный текст документа.

Т.е. у такого бота нет четких скриптов/инструкций, он уже достаточно умненький должен быть, чтобы самому понять чего вы от него хотите, с помощью тех инструментов которые вы к нему прикрутите.

Это серия постов с заблуждениями об ЛЛМ. Предыдущие здесь, здесь, здесь, здесь и здесь.

LawCoder
This media is not supported in your browser
VIEW IN TELEGRAM
Я не знаю когда юристов-профессионалов полностью смогут заменить ИИ-агенты, кажется что не скоро, но профессиональным жополизам точно уже пора приготовиться)

LawCoder
Удалил экспериментаторскую, вернул токен, выпилился из бесполезных чатов и каналов

Зачем удалил экспериментаторскую?
В попытках несколько раз реанимировать экспериментаторскую, я нашел только один выход - удолить и начать новый проект с нуля. Пока только непонятно какой. С завтрашнего дня в отпуске, вот и подумаю.
Склоняюсь к тому чтобы все-таки довести свое AJTBD-исследование лигатех потребностей юристов до ума, а потом запустить сервис с подпиской, но с такой ценой чтобы просто окупала затраты на проект.

Зачем вернул токен от опенаи?
Думаю, что мало кто помнит, но в октябре 2024 Валентин Микляев нам дал ключ от опенаи, чтобы мы могли тут хорошенько поэкспериментировать с чатом жипити. Эксперимент не удался. Вовлечь аудиторию в процесс создания новых легалтех продуктов и экспериментов с ИИ-юризмом у меня не получилось. В этом направлении я сворачиваю активность, а токен соответственно возвращаю.

Зачем выпилился из бесполезных чатов и каналов?
Надо разгрузить мозг от информационного шума.

LawCoder
2025/06/11 09:59:27
Back to Top
HTML Embed Code: