group-telegram.com/hrlunapark/154
Last Update:
tl;dr: outstanding mathematicians, AI Alignment, full-time or visiting researchers, $150k-400k, US
Сегодня — вакансия в AI safety для научрука маминой подруги. Возможно, это вы и есть, но если пока нет, то можете нам посоветовать кого-нибудь запредельно крутого — мы любим платить рефералки
Есть такой чувак — Пол Кристиано. Он один из ключевых авторов RLHF, один из 100 самых влиятельных людей мира в 2023 году по версии Time, и один из самых известных ресёрчеров в алайнменте по версии той части Лунапарка, которая читает пейперы про алайнмент. Раньше он работал в OpenAI, а потом перестал, и стал делать ARC — лучшую теоретическую лабу по AI safety
Alignment Research Center — это небольшая команда математиков-ресёрчеров, которые пытаются решить задачу теоретического алайнмента. Одна из их самых известных и важных работ — Eliciting Latent Knowledge — о том, как "достать" из модели её истинные внутренние убеждения.
В их исследованиях часто возникает сложная математика — например, задача формализации презумпции независимости. Поэтому они ищут крутых ресёрчеров, чтобы думать над подобными вещами вместе!
Требования такие:
Можно устроиться в штат на постоянку, а можно приехать как visiting researcher на 1-3 месяца. В год платят $150k–400k. После успешного теста привезут на очные интервью. Офис в Калифорнии в Беркли, виза без лотереи
Наташа @natmartem ждёт ваших резюме и рекомендаций в личке