Warning: file_put_contents(aCache/aDaily/post/sinecor/--): Failed to open stream: No space left on device in /var/www/group-telegram/post.php on line 50
Sinекура | Telegram Webview: sinecor/628 -
Telegram Group & Telegram Channel
Сегодня выступаю на конференции Polynomial Computer Algebra 2025; спасибо Николаю Николаевичу Васильеву за приглашение! Кстати, вдруг выяснилось, что доклад будет транслироваться онлайн, так что если интересно, подключайтесь в 15 часов по этому адресу в Zoom (полный анонс в конце поста; видео тоже потом выложу, конечно).

Доклад в основном будет похож на то, что я рассказывал весной на заседании Матобщества, но, конечно, для сегодняшнего доклада подытожил и несколько недавних новостей. А ещё сделал такой вот любопытный таймлайн (см. картинку).

Мне кажется, многие люди, говоря о текущем положении дел с AI-моделями, каким-то волшебным образом мгновенно забывают о векторе прогресса, причём и о его направлении, и о длине. Смотрят на текущую модель от OpenAI и говорят, что "это ещё не то"; такие люди есть и среди математиков, пару любопытных примеров я приведу.

Но мы же не живём исключительно в настоящем времени. Любой учёный планирует свою работу минимум на ближайший год, а если нужно заявку на грант написать, то и на 2-3 года. И в этом смысле очень показательно посмотреть на то, какой путь прошли обычные, общедоступные LLM за последние три года, от первых проблесков chain of thought до GPT-5 Pro.

На картинке — задачи, с которыми могли с грехом пополам (то есть могли, но не очень устойчиво) справиться ведущие LLM в разное время. Речь идёт именно о базовых "пользовательских" LLM, не о специализированных системах вроде AlphaProof или AlphaEvolve; понятно, что возможности последних куда шире.

Мне кажется, мы часто забываем, что буквально три с половиной года назад, в начале 2022 года, LLM плохо справлялись с задачами вида "у Васи было три теннисных мячика, и он купил ещё две упаковки по пять, сколько всего стало?"; именно на таких задачах дали существенные улучшения первые попытки сделать chain of thought.

А прямо сейчас LLM успешно доказывают новые теоремы с одного промпта. Да, пока только очень простенькие новые теоремы, во многом аналогичные уже известным. И да, пока бывает, что с ошибками, в которые LLM иногда нужно ткнуть носом.

Но с чем они справятся ещё через год?.. Как вы планируете свою жизнь и деятельность?..

=====

AI и математика: последние результаты и прогнозы на будущее


Ссылка на Zoom: https://us06web.zoom.us/j/85851828893?pwd=Mbzz8vyy7sW6bFpEVwG7rSIuAs98om.1
Conference ID: 858 5182 8893
Access code: 740575

Аннотация:
Математика как область применения AI и компьютерных наук в целом всегда оставалась для меня загадкой: самая формализованная часть человеческой деятельности, тем не менее, неизменно оказывалась очень сложной для автоматизации. Громких теорем, доказанных полностью автоматически, всё ещё нет, но кажется, что успех понемногу приходит с неожиданной стороны: не от автоматических пруверов, а от больших языковых моделей (LLM). В докладе мы обсудим текущее положение дел с математическими рассуждениями у LLM и увидим, какой скачок произошёл с появлением рассуждающих моделей. Кроме того, мы обсудим самые последние результаты, которые похожи уже не на звоночек, а на колокол — по кому он звонит?..
16👍3🔥3😭2



group-telegram.com/sinecor/628
Create:
Last Update:

Сегодня выступаю на конференции Polynomial Computer Algebra 2025; спасибо Николаю Николаевичу Васильеву за приглашение! Кстати, вдруг выяснилось, что доклад будет транслироваться онлайн, так что если интересно, подключайтесь в 15 часов по этому адресу в Zoom (полный анонс в конце поста; видео тоже потом выложу, конечно).

Доклад в основном будет похож на то, что я рассказывал весной на заседании Матобщества, но, конечно, для сегодняшнего доклада подытожил и несколько недавних новостей. А ещё сделал такой вот любопытный таймлайн (см. картинку).

Мне кажется, многие люди, говоря о текущем положении дел с AI-моделями, каким-то волшебным образом мгновенно забывают о векторе прогресса, причём и о его направлении, и о длине. Смотрят на текущую модель от OpenAI и говорят, что "это ещё не то"; такие люди есть и среди математиков, пару любопытных примеров я приведу.

Но мы же не живём исключительно в настоящем времени. Любой учёный планирует свою работу минимум на ближайший год, а если нужно заявку на грант написать, то и на 2-3 года. И в этом смысле очень показательно посмотреть на то, какой путь прошли обычные, общедоступные LLM за последние три года, от первых проблесков chain of thought до GPT-5 Pro.

На картинке — задачи, с которыми могли с грехом пополам (то есть могли, но не очень устойчиво) справиться ведущие LLM в разное время. Речь идёт именно о базовых "пользовательских" LLM, не о специализированных системах вроде AlphaProof или AlphaEvolve; понятно, что возможности последних куда шире.

Мне кажется, мы часто забываем, что буквально три с половиной года назад, в начале 2022 года, LLM плохо справлялись с задачами вида "у Васи было три теннисных мячика, и он купил ещё две упаковки по пять, сколько всего стало?"; именно на таких задачах дали существенные улучшения первые попытки сделать chain of thought.

А прямо сейчас LLM успешно доказывают новые теоремы с одного промпта. Да, пока только очень простенькие новые теоремы, во многом аналогичные уже известным. И да, пока бывает, что с ошибками, в которые LLM иногда нужно ткнуть носом.

Но с чем они справятся ещё через год?.. Как вы планируете свою жизнь и деятельность?..

=====

AI и математика: последние результаты и прогнозы на будущее


Ссылка на Zoom: https://us06web.zoom.us/j/85851828893?pwd=Mbzz8vyy7sW6bFpEVwG7rSIuAs98om.1
Conference ID: 858 5182 8893
Access code: 740575

Аннотация:
Математика как область применения AI и компьютерных наук в целом всегда оставалась для меня загадкой: самая формализованная часть человеческой деятельности, тем не менее, неизменно оказывалась очень сложной для автоматизации. Громких теорем, доказанных полностью автоматически, всё ещё нет, но кажется, что успех понемногу приходит с неожиданной стороны: не от автоматических пруверов, а от больших языковых моделей (LLM). В докладе мы обсудим текущее положение дел с математическими рассуждениями у LLM и увидим, какой скачок произошёл с появлением рассуждающих моделей. Кроме того, мы обсудим самые последние результаты, которые похожи уже не на звоночек, а на колокол — по кому он звонит?..

BY Sinекура




Share with your friend now:
group-telegram.com/sinecor/628

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Since its launch in 2013, Telegram has grown from a simple messaging app to a broadcast network. Its user base isn’t as vast as WhatsApp’s, and its broadcast platform is a fraction the size of Twitter, but it’s nonetheless showing its use. While Telegram has been embroiled in controversy for much of its life, it has become a vital source of communication during the invasion of Ukraine. But, if all of this is new to you, let us explain, dear friends, what on Earth a Telegram is meant to be, and why you should, or should not, need to care. But Kliuchnikov, the Ukranian now in France, said he will use Signal or WhatsApp for sensitive conversations, but questions around privacy on Telegram do not give him pause when it comes to sharing information about the war. The regulator said it had received information that messages containing stock tips and other investment advice with respect to selected listed companies are being widely circulated through websites and social media platforms such as Telegram, Facebook, WhatsApp and Instagram. Telegram Messenger Blocks Navalny Bot During Russian Election Telegram was founded in 2013 by two Russian brothers, Nikolai and Pavel Durov.
from hk


Telegram Sinекура
FROM American