Telegram Group Search
Пятничная традиция продолжается, но сегодня обзор маленький, для двух очень маленьких игр. Зато выполняю обещание, данное в обзоре Amerzone: возвращаюсь к теме уток-детективов! Полный пост как всегда по ссылке:

Duck Detective

Сегодня у нас обзор мини-серии из двух маленьких игр про утку-детектива по имени Eugene McQuacklin, выдержанные в стиле hardboiled нуар-детектива с невероятным переизбытком утиных шуток. Делает серию компания Happy Broccoli Games (целых шесть человек!), и первая игра серии вышла в 2024 году, получив в Германии даже какие-то премии (студия базируется в Берлине).

Обозревать геймплей по отдельности в этих играх не имеет смысла, потому что он абсолютно идентичный. Нужно разговаривать со всеми доступными персонажами обо всём, в надежде узнать что-то новое и продвинуть сюжет. Время от времени в игре появляются “зоны интереса” (простите за коннотацию), в которых тебе показывают некоторую сцену или объект, и её надо просто осмотреть тщательно и найти там всё, что можно найти. Да, и ещё у вас есть инвентарь, но с ним редко происходит что-то интересное, обычно напрямую очевидно, что куда нужно принести и применить.

А потом, когда всё осмотришь, нужно сделать из увиденного и найденного выводы, чтобы завершить очередную “deducktion” и продвинуться к следующему шагу расследования. Выводы происходят или в виде сопоставления заданных атрибутов, которые выбираются из вариантов (например, узнать, кого из персонажей как зовут), или, что куда любопытнее, в виде заполнения законченных предложений.

Это самая интересная механика в игре, единственная, которая действительно иногда требует (небольшого!) мозгового усилия, и именно она (вместе с уткошутками, разумеется!) делает игры серии не совсем стандартными простенькими квестами. Можно сказать, что Duck Detective — это упрощённая, “детская” версия игр из серии Golden Idol. Кстати, к ним мы тоже наверняка ещё вернёмся.

Ну а сюжет и история... да ладно, что вы, юмористических детективов не видели? Юмор, кстати, мне понравился, уткошутки вполне на месте, рекомендую с ними ознакомиться, тем более что игра занимает максимум часа два.

Duck Detective: The Secret Salami

Утиный нуар: детектив вскоре после развода топит, точнее, погребает свои проблемы в хлебушке, к которому питает пагубную страсть. Ему приходится делать это на фоне расследования, в котором будут и роковая жирафиха, и предательства лучших друзей, и неожиданные повороты сюжета. Сможете ли вы раскрыть тайну пропавшего ланча и выяснить, кто скрывается под псевдонимом Salami Bandit?

Duck Detective: The Ghost of Glamping

Вторая игра серии продолжает начатое первой, и мне очень в ней нравится то, что она не пытается вливать те же щи более густо. Это всё ещё игра на два часа, и так и должно быть: если бы авторы начали раздувать длительность или усложнять загадки, то стиль и подача игры успевали бы наскучить. А так я с удовольствием сыграл во вторую часть, и с удовольствием сыграю и в третью, если она выйдет ещё через годик.
13🔥4👍1
В курсе "Глубокое обучение" в четверг была лекция не слишком математически содержательная, скорее обзорная:

СПбГУ — 2025.10.16 — Трансформеры в компьютерном зрении
(слайды и доска, как всегда, на странице курса)

Сначала дал обзор того, как трансформеры приложили к картиночкам и задачам компьютерного зрения. Главное здесь ViT и Swin Transformer, а обзор архитектур для распознавания объектов и сегментации скорее как необязательная вишенка на торте. Хотя всякие там DETR и DINO — это интересные идеи, там есть мощная мысль о том, что можно использовать виртуальные object queries для объектов в декодере трансформера, а картинку пропускать через кодировщик и брать из неё K и V.

Зато в конце успели обсудить CLIP (и брата его младшего BLIP), который обучает общее латентное пространство для текстов и картинок. Это тоже важная архитектура, с которой мы в курсе ещё наверняка встретимся.
🔥72
Выложил видео прошедшего в среду семинара:

Алексей Власов, Андрей Лаэтин
Состояния важнее внимания? От классических SSM к S4/S5 и Mamba
(Слайды на странице семинара)

По-моему, отличное начало. Алексей и Андрей разобрали смысл state-space models, рассказали в достаточных деталях о красивых более современных математических результатах вроде HiPPO и довели разговор до S6. Нас точно ждёт ещё один рассказ об этом очень интересном (и, надеюсь, важном) семействе архитектур, а может (ещё больше надеюсь!), и два.

Это был первый семинар с использованием доски. На монтаже я вырезал технические паузы при переходе от доски к слайдам и обратно, а также сделал видео доски покрупнее, но всё равно видно плохо, да и ракурс весьма так себе. Камеру специально для доски с собой носить, что ли...
22🔥8
На семинаре лаборатории Маркова продолжаем (но — ура! — точно не заканчиваем) серию докладов про state-space models и Mamba. Второй доклад будет конкретно про Mamba, с техническими деталями и во всех подробностях; думаю, это будет полезно даже безотносительно архитектуры как таковой.

Кстати, в deep learning частенько бывает так, что интересная математически сложная идея после пристального взгляда на архитектуру в реальности превращается в небольшой дополнительный трюк, до которого авторы скорее всего безо всякой математики дошли, а потом уже объяснили концептуально. Относится ли Mamba к этой категории? Узнаем об этом в среду.

Погружение в детали реализации Mamba
Ссылка на трансляцию (среда 22 октября, 14:00)

Владислав Ушаков (Яндекс)
Максим Романов (Лаборатория Маркова, МКН СПбГУ
)

Мы продолжаем детальный разбор SSM-based моделей. В начале семинара разберём архитектуру Mamba — что такое «селективность», как устроено обновление состояния, затем пройдёмся по минимальным имплементациям S4 и Mamba. А потом погрузимся в детали эффективной реализации по следующему плану.

1. Краткое введение в GPU-вычисления: архитектура GPU, модель массового параллелизма.

2. Постановка задачи префиксной суммы (Scan) и эволюция алгоритмов её решения на GPU: от Sequential Scan до Work-Efficient Parallel Scan.

3. Разберём, где и как Parallel Scan применяется в Mamba, а также какие ещё GPU-оптимизации используются при обучении.
🔥183👍3
Коллеги, хочу попросить у вас технической помощи, не понимаю что делать.

Но сначала представлю вторую лекцию курса "Технологии и фронтиры науки о данных" в ЮФУ. Напомню, что это обзорные лекции для первокурсников, так что в них нет никакой сложной математики и их можно слушать всем желающим:

ЮФУ — 2025.10.16 — Задачи машинного обучения и ранняя история AI
(слайды и доска на странице курса)

Во второй лекции мы закончили вводный разговор об общей структуре AI как науки, обсудив задачи обучения с учителем и без (обучение с подкреплением особенно не обсуждали, об этом потом поговорим). А потом начали разговор об истории AI, который я успел довести от Талоса до Тьюринга, то есть до появления AI как науки. Кажется, получилось интересно.

А теперь проблема. Как только я выложил первую лекцию на youtube, под ней сразу стали появляться комментарии о том, какой там ужасный звук и куда мне следовало бы засунуть свой микрофон.) Хамские комментарии я порицаю (и удаляю), но проблема действительно была, и была внезапно со стороны MTS Link, в котором проходят лекции в ЮФУ.

MTS Link вдруг решил поуправлять моим микрофоном и самостоятельно понизить ему громкость. На первой лекции я пытался с этим воевать, не знал что делать и просто возвращал микрофон обратно. Но, конечно, не справился с этим на 100%, и в результате звук в первой лекции и правда плохой, неровный: то тише, то громче. Я попытался его вытянуть постобработкой, но вышло так себе.

Потом я, конечно, погуглил, как с этим справиться, нагуглил какую-то галочку в опциях микрофона в Windows ("Allow applications to take exclusive control of this device"), снял её и пришёл на вторую лекцию. Но оказалось, что MTS Link на эту галочку наплевать, и он продолжил управлять моим микрофоном; тогда я просто расслабился и позволил ему понизить мне громкость микрофона и оставить на едином уровне (по подсчётам OBS на уровне -15-20 дБ). Звук стал ровнее, шумов я никаких во второй лекции тоже не слышу, но к ней опять пишут комментарии, что слышен клиппинг; у меня уши не особо чуткие, но вероятно, с такой громкостью шумодав действительно обрезает часть голоса.

Что делать? Проще всего было бы, конечно, запретить MTS Link трогать мой микрофон, но я не могу найти, как это сделать...
😢229
Думаю, вам срочно нужен кот.

Это не значит, что у меня закончился контент, но сколько ж можно сплошь лекции да лекции подряд. Сегодня убираем из контента первую "н".
❤‍🔥8631😍15👍9🔥5
Сегодня на семинаре была довольно мощная лекция, коллеги рассказали много интересного про параллельные вычисления, то бишь про то, что на всех этих пресловутых GPU происходит.

Дальше будет продолжение, оно же, видимо, окончание.
20🔥14
В курсе "Основы байесовского вывода" сегодня лекция про один развёрнутый пример, на мой взгляд, интересный и изрядно неожиданный:

СПбГУ — 2025.09.23 — Байесовский вывод для гауссиана
(слайды, доска и код на странице курса)

Мы уже много раз говорили в курсе о гауссианах, в основном в контексте линейной регрессии. И всё, что мы обсуждали, сводилось к тому, что что с гауссианами ни делай, получаются опять гауссианы. Можно их перемножать, маргинализовать, делать свёртку двух гауссианов, всё равно сумма многочленов второй степени останется многочленом второй степени. Байесовский вывод в линейной регрессии приводит к тому, что наша уверенность в (точечном) ответе уменьшается; но это уменьшение — это увеличение дисперсии в предсказательном распределении, а оно всё равно остаётся гауссианом.

И вот в этом примере оказывается, что не остаётся! Для этого, конечно, пришлось к гауссиану подмешать гамма-распределение как априорное для параметра τ (precision, величина, обратная дисперсии), но как иначе, это же как минимум положительная величина. Выясняется, что если маргинализовать апостериорное распределение по τ, то есть проинтегрировать по τ и оставить только μ, то его апостериорное распределение уже вовсе не будет гауссианом, а будет... распределением Стьюдента! Это, по-моему, очень интересный результат: не просто дисперсия увеличивается при байесовском выводе, а буквально меняется форма распределения; затухающий экспоненциально гауссиан превращается в распределение с тяжёлыми, полиномиальными хвостами. И это очень легко проверить на практике, мы это в численном примере на лекции увидели.

Кстати, здесь есть интересная историческая деталь: распределение Стьюдента начал рассматривать вовсе не Уильям Госсет, а совсем другие люди лет на двадцать раньше. Ещё в 1870-х годах немецкие математики Фридрих Хельмерт и Якоб Люрот занимались байесовским выводом и получили распределение Стьюдента именно как предсказательное распределение для гауссиана. Везде байесианисты!)
18👍1
Пятничный пост сегодня о небольшой, но необычной и интересной игре; как всегда, полностью по ссылке:

OneShot

OneShot — интересное произведение искусства. Одна из тех игр, которые не хочется подробно обсуждать, потому что хочется, чтобы вы играли в неё, ничего не зная заранее. Но я всё-таки немножечко попробую.

Во-первых, это нарративная история. Квест в самом классическом смысле этого слова: суть геймплея OneShot состоит в том, чтобы решать загадки и продвигаться по сюжету, путешествуя из одной локации в другую. Загадки иногда (далеко не всегда!) решаются буквально применением собранных предметов в нужные места. Но это, конечно, далеко не самое интересное, что есть в этой игре.

Главный герой по имени Нико (кажется, в игре нигде не сказано определённо, мальчик это или девочка) носит кошачьи ушки и смотрит на мир кошачьими глазками, но регулярно называет себя “обычным ребёнком” и отказывается самоидентифицироваться как кот. Завязка сюжета состоит в том, что Нико просыпается в незнакомой комнате и вскоре узнаёт, что ему нужно спасти мир, который потерял свет и в результате довольно быстро разрушается. Чтобы это сделать, нужно принести на самую высокую башню Солнце, которое представляет собой обычную электрическую лампочку. Скорее всего, вы уже зеваете и ждёте стандартного приключения с некоторой долей самоиронии вроде лампочки. Но подождите, you ain’t heard nothing yet.

Графически это 2D adventure, сделанная на RPG Maker, так что у самого геймплея есть узнаваемый графический стиль, который ничем особенным от других игр на RPG Maker не отличается.

Но в игре постоянно бывают вставки милых кавайных полноэкранных рисунков, которые появляются в важные сюжетные моменты и настроение которых мне очень понравилось. Они именно что милые, тёплые, эмоциональные и немного детские.

А теперь главное, что поднимает эту игру в моих глазах на два уровня выше. Это будет даже не то чтобы спойлер, я просто расскажу вам эпизод, который происходит в самом начале игры. Буквально первый NPC, которого вы встречаете в игре — это робот, предназначенный для того, чтобы приветствовать мессию и ввести его в курс дела. Да, мессия — это Нико, он несёт в мир солнце, и все, кого он встречает, тут же узнают мессию по лампочке.

Робот сначала рассказывает об этом удивлённому Нико. Потом Нико расспрашивает робота о том, как в этом мире всё устроено. В частности, Нико удивляется тому, что писал на экране компьютер, который был в самой первой комнате.

И робот говорит, что это было предназначено для… человека, сидящего за компьютером, называя того по юзернейму. Более того, оказывается, что Нико, будучи мессией, может напрямую общаться с этим человеком; нужно только закрыть глаза и сосредоточиться.

Я не буду рассказывать дальше, но на этом сломе четвёртой стены построена вся история в игре и многие загадки. Не читайте обзоров со спойлерами и прохождений, просто поиграйте в OneShot, и вы будете приятно удивлены.

Диалоги и вообще тексты в игре, кстати, первоклассные. Иногда — нечасто, но иногда! — проступает то, что Нико всего лишь ребёнок, который совершенно не готов(а) спасать какие-то чужие миры, и это действительно берёт за душу.

Слом четвёртой стены — это то ощущение, которое я очень люблю в играх; от OneShot остаётся то же послевкусие, как от Stanley Parable или Doki Doki Literature Club, только в другой форме, да ещё и с интересными не всегда тривиальными загадками. Попробуйте сами!
16
2025/10/25 04:14:34
Back to Top
HTML Embed Code: