Telegram Group & Telegram Channel
Авторы статей и моделей дуреют с этой прикормки

Простите, наболело 🥺

SOTA, экспонента, AGI, AI — часто встречающиеся явления в публикациях различных исследователей в последнее время. И это грустно. Давайте объясню.

Ты заходишь на arxiv.org, проходишься по разделам cs.CV, cs.AI, выбираешь интересные тебе статьи по названию. Дальше откидываешь странные аффилиации, ну потому что зачем их вообще даже читать (не всегда так, но опустим этот факт). У тебя остаётся скажем так статей 20-30 для дальнейшей фильтрации.

Потом ты начинаешь читать абстракты, выкидываешь откровенный булшит, а-ля, натянули сову на глобус, чтобы посчитать синус косинуса экспоненциально-гиперболизированного корня сельдерея. Хорошо, остается 5-7 хороших статей, которые имеет смысл читать дальше.

А после происходит фокус текущего долгоидущего тренда:
— Наши исследования показывают, что на этом домене все модели работают ну из ряда вон плохо;
— Выяснили мы это на своём бенчмарке из 50ти семплов, который, кстати, выложили в опенсорс;
— После этого мы обучили новую модель, получили SOTA модель (и где-то рядом — в терминах нашего бенчмарка);
— Спасибо за внимание, мы рады были попилить этот грант/бюджет на проект.

И это так ужасает. Все эти релизы с замерами на бенчмарках, мол смотрите, мы на таких бенчах лучше, а внизу приписка из 100500 пунктов доп условий, при которых достигается это "лучше". Все эти сравнения на аренах, которые можно хакнуть, что показывали последние релизы некоторых моделей.

Я надеюсь, что мы когда-нибудь придём в ту точку, когда мы все перестанем обращать внимание на громкие заявления, что в свою очередь побудит делать более качественные исследования. А то чёт прям вообще грустно.

Что вы думаете на этот счёт?
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/blog_toxa/411
Create:
Last Update:

Авторы статей и моделей дуреют с этой прикормки

Простите, наболело 🥺

SOTA, экспонента, AGI, AI — часто встречающиеся явления в публикациях различных исследователей в последнее время. И это грустно. Давайте объясню.

Ты заходишь на arxiv.org, проходишься по разделам cs.CV, cs.AI, выбираешь интересные тебе статьи по названию. Дальше откидываешь странные аффилиации, ну потому что зачем их вообще даже читать (не всегда так, но опустим этот факт). У тебя остаётся скажем так статей 20-30 для дальнейшей фильтрации.

Потом ты начинаешь читать абстракты, выкидываешь откровенный булшит, а-ля, натянули сову на глобус, чтобы посчитать синус косинуса экспоненциально-гиперболизированного корня сельдерея. Хорошо, остается 5-7 хороших статей, которые имеет смысл читать дальше.

А после происходит фокус текущего долгоидущего тренда:
— Наши исследования показывают, что на этом домене все модели работают ну из ряда вон плохо;
— Выяснили мы это на своём бенчмарке из 50ти семплов, который, кстати, выложили в опенсорс;
— После этого мы обучили новую модель, получили SOTA модель (и где-то рядом — в терминах нашего бенчмарка);
— Спасибо за внимание, мы рады были попилить этот грант/бюджет на проект.

И это так ужасает. Все эти релизы с замерами на бенчмарках, мол смотрите, мы на таких бенчах лучше, а внизу приписка из 100500 пунктов доп условий, при которых достигается это "лучше". Все эти сравнения на аренах, которые можно хакнуть, что показывали последние релизы некоторых моделей.

Я надеюсь, что мы когда-нибудь придём в ту точку, когда мы все перестанем обращать внимание на громкие заявления, что в свою очередь побудит делать более качественные исследования. А то чёт прям вообще грустно.

Что вы думаете на этот счёт?

BY Дратути Антон


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/blog_toxa/411

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Emerson Brooking, a disinformation expert at the Atlantic Council's Digital Forensic Research Lab, said: "Back in the Wild West period of content moderation, like 2014 or 2015, maybe they could have gotten away with it, but it stands in marked contrast with how other companies run themselves today." The regulator said it has been undertaking several campaigns to educate the investors to be vigilant while taking investment decisions based on stock tips. Also in the latest update is the ability for users to create a unique @username from the Settings page, providing others with an easy way to contact them via Search or their t.me/username link without sharing their phone number. "The inflation fire was already hot and now with war-driven inflation added to the mix, it will grow even hotter, setting off a scramble by the world’s central banks to pull back their stimulus earlier than expected," Chris Rupkey, chief economist at FWDBONDS, wrote in an email. "A spike in inflation rates has preceded economic recessions historically and this time prices have soared to levels that once again pose a threat to growth." Elsewhere, version 8.6 of Telegram integrates the in-app camera option into the gallery, while a new navigation bar gives quick access to photos, files, location sharing, and more.
from in


Telegram Дратути Антон
FROM American