Data Secrets
Альтман: да Цукербергу все равно не удалось захантить тех, кого он на самом деле хотел
Тем временем мемы, которые постит один из главных девелоперов API из OpenAI:
Тем временем мемы, которые постит один из главных девелоперов API из OpenAI:
OpenAI подписали сделку с Oracle на 30 миллиардов долларов
Об этом заявили сами Oracle. Они, правда, напрямую не назвали заказчика, но обозначили, что сделка подписана в рамках проекта Stargate, так что всем и так все понятно.
OpenAI будет арендовать у Oracle 4.5 гигаватта. Такая мощность могла бы обеспечить энергией порядка 3.5 миллиона домов.
При этом, судя по всему, у корпорации столько пока даже нет: они сообщают, что им придется развернуть несколько датацентров на территории США, чтобы удовлетворить «дополнительный спрос» со стороны клиента.
Где-то потирает руки Дженсен Хуанг
Об этом заявили сами Oracle. Они, правда, напрямую не назвали заказчика, но обозначили, что сделка подписана в рамках проекта Stargate, так что всем и так все понятно.
OpenAI будет арендовать у Oracle 4.5 гигаватта. Такая мощность могла бы обеспечить энергией порядка 3.5 миллиона домов.
При этом, судя по всему, у корпорации столько пока даже нет: они сообщают, что им придется развернуть несколько датацентров на территории США, чтобы удовлетворить «дополнительный спрос» со стороны клиента.
Где-то потирает руки Дженсен Хуанг
Amazon расширили свой робо-парк и теперь на их заводах работает 1 миллион железных трудяг
Это делает компанию крупнейшим мировым оператором мобильных роботов. Они также сообщают, что теперь используют ИИ-технологии для оптимизации их работы.
Технология называется DeepFleet, она полностью контролирует передвижение роботов по центрам выполнения заказов. На данный момент DeepFleet уже помог сократить суммарную продолжительность маршрутов железных на 10%. В деньгах это, кажется, довольно много.
В компании говорят, что к концу года количество роботов на их предприятиях превзойдет количество людей. А уже сегодня, если заказываете что-то с амазона, знайте: с вероятностью 75% в доставке вашего заказа был задействован ИИ-робот.
Это делает компанию крупнейшим мировым оператором мобильных роботов. Они также сообщают, что теперь используют ИИ-технологии для оптимизации их работы.
Технология называется DeepFleet, она полностью контролирует передвижение роботов по центрам выполнения заказов. На данный момент DeepFleet уже помог сократить суммарную продолжительность маршрутов железных на 10%. В деньгах это, кажется, довольно много.
В компании говорят, что к концу года количество роботов на их предприятиях превзойдет количество людей. А уже сегодня, если заказываете что-то с амазона, знайте: с вероятностью 75% в доставке вашего заказа был задействован ИИ-робот.
Карьера в Meta такая типа:
Никогда не сдавайся, усердно учись и трудись, заложи основы ИИ, изобрети сверточные нейросети, которыми будут пользоваться все и повсюду, получи премию Тьюринга, стань главным профессором Нью-Йоркского университета и признанным отцом ML и однажды…
ты сможешь работать под начальством 28-летнего миллиардера.
Ладно, сам Лекун оправдывает сложившую иерархию тем, что он любит оставаться ученым, а не руководителем, и заниматься непосредственно рисерчем и генерацией идей. «Люди все равно слушают меня, но не потому что я босс, а потому что им нравятся мои идеи».
Никогда не сдавайся, усердно учись и трудись, заложи основы ИИ, изобрети сверточные нейросети, которыми будут пользоваться все и повсюду, получи премию Тьюринга, стань главным профессором Нью-Йоркского университета и признанным отцом ML и однажды…
ты сможешь работать под начальством 28-летнего миллиардера.
Ладно, сам Лекун оправдывает сложившую иерархию тем, что он любит оставаться ученым, а не руководителем, и заниматься непосредственно рисерчем и генерацией идей. «Люди все равно слушают меня, но не потому что я босс, а потому что им нравятся мои идеи».
This media is not supported in your browser
VIEW IN TELEGRAM
Смотрите: вот такой LLM-анализ нашего канала нам внезапно прилетел от подписчика 😍
Его в качестве пет-проекта сделал автор канала Neural Deep Валерий Ковальский. Причем сделал на собственных видеокартах с использованием локального qwen2.5-32b-instruct+SO.
Самое прекрасное – это, конечно, вот эта симпатичная кластерная визуализация на видео. Чтобы такую получить, надо:
1. Сначала классифицировать и извлечь метаданные из всех постов
2. Векторизовать все сообщения и запихнуть это в векторную БД
3. Визуализировать распределение по методу UMAP
В общем, мы в восторге. Давайте накидаем Валерию огонечков 🔥 за такую красоту.
Пост с канала Neural Deep с подробностями
Его в качестве пет-проекта сделал автор канала Neural Deep Валерий Ковальский. Причем сделал на собственных видеокартах с использованием локального qwen2.5-32b-instruct+SO.
Самое прекрасное – это, конечно, вот эта симпатичная кластерная визуализация на видео. Чтобы такую получить, надо:
1. Сначала классифицировать и извлечь метаданные из всех постов
2. Векторизовать все сообщения и запихнуть это в векторную БД
3. Визуализировать распределение по методу UMAP
В общем, мы в восторге. Давайте накидаем Валерию огонечков 🔥 за такую красоту.
Пост с канала Neural Deep с подробностями
Please open Telegram to view this post
VIEW IN TELEGRAM
Пользуясь случаем, не можем еще раз не подсветить замечательный канал Валерия Neural Deep
Во-первых, автор большой спец по RAG, LLMOps, локальному инференсу и всему, что связано с AI Infrastructure (отсюда и такие частые и глубокие разборы кейсов с локальными LLM на канале).
За весь свой опыт Валерий успел построить рексис в Билайне, кучу RAG-платформ для крупных заказчиков, а теперь работает Head of AI в red_mad_robot.
Пишет он про железо, RAG, реальный опыт внедрения LLM в прод и запуск ИИ-продуктов. Инженерно, интересно, иногда хардово.
Из последнего – обязательно почитайте пост про вайб-кодинг. Это, пожалуй, наиболее трезвое мнение по поводу этого явления: просто потому что это слова не вайб-кодера из X, которому «Ааа, ИИ сгенерировал приложение за 5 минут», а технически подкованного человека с кучей лет опыта, который видит в коде любые косяки и понимает важность системного подхода.
Советуем от души: @neuraldeep
Во-первых, автор большой спец по RAG, LLMOps, локальному инференсу и всему, что связано с AI Infrastructure (отсюда и такие частые и глубокие разборы кейсов с локальными LLM на канале).
За весь свой опыт Валерий успел построить рексис в Билайне, кучу RAG-платформ для крупных заказчиков, а теперь работает Head of AI в red_mad_robot.
Пишет он про железо, RAG, реальный опыт внедрения LLM в прод и запуск ИИ-продуктов. Инженерно, интересно, иногда хардово.
Из последнего – обязательно почитайте пост про вайб-кодинг. Это, пожалуй, наиболее трезвое мнение по поводу этого явления: просто потому что это слова не вайб-кодера из X, которому «Ааа, ИИ сгенерировал приложение за 5 минут», а технически подкованного человека с кучей лет опыта, который видит в коде любые косяки и понимает важность системного подхода.
Советуем от души: @neuraldeep
Внезапно: ИИ повысил вероятность пандемий в 5 раз
К такому выводу, по словам Time, пришли эксперты-биологи. В основном дело в биооружии: если мы достигнем AGI, возможность намеренно вызвать новую пандемию будет почти у каждого.
И даже при текущем уровне искусственного интеллекта вероятность возникновения массовой эпидемии уже в 5 раз выше, чем год назад. В 2024 эта величина равнялась 0.3%, сейчас же приближается к 1.5%😐
time.com/7298645/ai-pandemic-5-times-more-likely/#
К такому выводу, по словам Time, пришли эксперты-биологи. В основном дело в биооружии: если мы достигнем AGI, возможность намеренно вызвать новую пандемию будет почти у каждого.
И даже при текущем уровне искусственного интеллекта вероятность возникновения массовой эпидемии уже в 5 раз выше, чем год назад. В 2024 эта величина равнялась 0.3%, сейчас же приближается к 1.5%
time.com/7298645/ai-pandemic-5-times-more-likely/#
Please open Telegram to view this post
VIEW IN TELEGRAM
Для амбициозных бакалавров и молодых специалистов
Хочешь развиваться осознанно и расти в профессии и доходе? Выбирай высшее образование у сильных экспертов.
Центральный университет ведет набор на пять программ магистратуры по популярным ИТ-направлениям. Обучение с фокусом на практике: студенты используют актуальный софт и решают реальные задачи от бизнес-заказчиков.
Партнеры — ведущие компании на рынке РФ: ВТБ, Сбер, Т-Банк, Яндекс, Avito, Ozon, Х5 Tech и другие. 62% магистрантов ЦУ находят новую работу с ростом зарплаты в 1,6 раза уже на первом курсе. Средняя зарплата — 195 тысяч рублей.
Обучение можно совмещать с работой, а поступить — уже с третьего курса.
Выбери свое направление:
— Онлайн-магистратура по ML.
— Продуктовая аналитика.
— Машинное обучение.
— Продуктовый менеджмент.
— Backend-разработка.
И подавай заявку на поступление уже сейчас.
Реклама. АНО ВО "Центральный университет", ИНН 7743418023, erid:2RanykRgn49
Хочешь развиваться осознанно и расти в профессии и доходе? Выбирай высшее образование у сильных экспертов.
Центральный университет ведет набор на пять программ магистратуры по популярным ИТ-направлениям. Обучение с фокусом на практике: студенты используют актуальный софт и решают реальные задачи от бизнес-заказчиков.
Партнеры — ведущие компании на рынке РФ: ВТБ, Сбер, Т-Банк, Яндекс, Avito, Ozon, Х5 Tech и другие. 62% магистрантов ЦУ находят новую работу с ростом зарплаты в 1,6 раза уже на первом курсе. Средняя зарплата — 195 тысяч рублей.
Обучение можно совмещать с работой, а поступить — уже с третьего курса.
Выбери свое направление:
— Онлайн-магистратура по ML.
— Продуктовая аналитика.
— Машинное обучение.
— Продуктовый менеджмент.
— Backend-разработка.
И подавай заявку на поступление уже сейчас.
Реклама. АНО ВО "Центральный университет", ИНН 7743418023, erid:2RanykRgn49
Forwarded from Data Secrets | Карьера
Мира Мурати в погоне за талантами: сколько получают сотрудники секретного стартапа?
🔷 В Thinking Machines Lab — секретном стартапе бывшей сооучредительницы OpenAI Миры Мурати тех.специалисты получают от 450.000 до 500.000$ в год.
🔷 При этом это только базовая зарплата, без учета всех бонусов, акций и премий. По примерным подсчетам, средняя зарплата в стартапе у Мурати выше, чем у ее бывших коллег.
🔷 OpenAI платит в среднем 292.115$ своим 29 техническим сотрудникам, при этом самая высокооплачиваемая должность приносит 530.000$, а самая низкооплачиваемая — 200.000$.
🔷 Anthropic платит в среднем 387.500$ 14 техническим сотрудникам, при этом самая высокая зарплата составляет 690.000$, самая низкая — 300.000$.
🔷 Также известно, что в начале этого года компания TML устроила массовый набор сотрудников, наняв Боба МакГрю (бывшего главного научного сотрудника OpenAI), Джона Шульмана (одного из руководителей ChatGPT), Баррета Зофа (одного из создателей ChatGPT) и Александра Кириллова, который тесно сотрудничал с Мурати над голосовым режимом ChatGPT.
Как бы Цукерберг не нацелился на таланты Мурати😰
Как бы Цукерберг не нацелился на таланты Мурати
Please open Telegram to view this post
VIEW IN TELEGRAM
Как обучение математике влияет на другие способности модели – новое исследование от крупнейших университетов США и Китая
Уже долго в области LLM по умолчанию считается, что если затюнить модель на математику и кодинг, ее способности улучшаться и в других областях. Якобы, улучшаем общее научное мышление. Но так ли это?
Ученые из университетов Гонконга, Карнеги-Меллона, Пенсильвании и Вашингтона специально брали модель, обучали ее математике и замеряли так называемый Transferability Index – то есть относительный прирост метрик в новой группе задач относительно прироста в математике.
В итоге эмпирически доказано: математика действительно бустит общий интеллект, все как у людей. Но вот насколько сильно – зависит от того, как тюним.
Если с помощью обычного SFT, то TI получается около 40%. Неплохо, но с RL все интереснее. Там TI аж под 80%.
Почему так? PCA показывает, что SFT просто слишком сильно меняет латентное пространство моделей, и это ухудшает гибкость относительно новых задач.
А вот RL редактирует лишь ключевые предметно-важные распределения токенов, а нерелевантные слои не трогает. Получается синергия: сохраняем общие знания и усиливаем их техническими.
Вот так. На самом деле очень важный для практики результат. В статье, кстати, еще много интересных визуализаций и графиков: arxiv.org/pdf/2507.00432
Уже долго в области LLM по умолчанию считается, что если затюнить модель на математику и кодинг, ее способности улучшаться и в других областях. Якобы, улучшаем общее научное мышление. Но так ли это?
Ученые из университетов Гонконга, Карнеги-Меллона, Пенсильвании и Вашингтона специально брали модель, обучали ее математике и замеряли так называемый Transferability Index – то есть относительный прирост метрик в новой группе задач относительно прироста в математике.
В итоге эмпирически доказано: математика действительно бустит общий интеллект, все как у людей. Но вот насколько сильно – зависит от того, как тюним.
Если с помощью обычного SFT, то TI получается около 40%. Неплохо, но с RL все интереснее. Там TI аж под 80%.
Почему так? PCA показывает, что SFT просто слишком сильно меняет латентное пространство моделей, и это ухудшает гибкость относительно новых задач.
А вот RL редактирует лишь ключевые предметно-важные распределения токенов, а нерелевантные слои не трогает. Получается синергия: сохраняем общие знания и усиливаем их техническими.
Вот так. На самом деле очень важный для практики результат. В статье, кстати, еще много интересных визуализаций и графиков: arxiv.org/pdf/2507.00432
Дочерняя компания Google DeepMind набирает людей на первые испытания лекарственных препаратов, изобретенных ИИ
Лаборатория называется Isomorphic Labs, и в ней работают те же люди, что стояли за AlphaFold. Это та самая громкая модель для предсказания структуры белков и других молекул от Google.
В общем, недавно Isomorphic Labs получили финансирование в размере 600 миллионов долларов и сейчас сообщают журналистам, что скоро планируют перейти Рубикон в мире ИИ-медицины.
Амбиций у них хоть отбавляй: они верят, что в будущем смогут побороть с помощью ИИ любую болезнь. Сейчас они работают над единым ядром для разработки лекарств.
По слухам – есть успехи. Представители самой компании говорят, что несколько раз уже проводили испытания на людях.
Лаборатория называется Isomorphic Labs, и в ней работают те же люди, что стояли за AlphaFold. Это та самая громкая модель для предсказания структуры белков и других молекул от Google.
В общем, недавно Isomorphic Labs получили финансирование в размере 600 миллионов долларов и сейчас сообщают журналистам, что скоро планируют перейти Рубикон в мире ИИ-медицины.
Амбиций у них хоть отбавляй: они верят, что в будущем смогут побороть с помощью ИИ любую болезнь. Сейчас они работают над единым ядром для разработки лекарств.
По слухам – есть успехи. Представители самой компании говорят, что несколько раз уже проводили испытания на людях.