Telegram Group & Telegram Channel
Научные журналы стремительно наполняются бессмысленными статьями от нейросетей

Учёные из Университета Суррея в Англии забили тревогу из-за того, какую угрозу уже представляют для научного сообщества большие языковые модели в роде ChatGPT и Gemini. Как пишет Nature, исследователи обнаружили, что за последние четыре с половиной года более 400 научных текстов, опубликованных в 112 научных журналах, являются копиями уже существующих работ, которые были переписаны при помощи языковых моделей.

При этом отмечается, что подобные тексты проходят существующие проверки на плагиат, но при этом не несут никакой научной ценности. Учёные опасаются, что в будущем научные журналы могут быть «захламлены» подобными статьями.

Обнаружить плагиат удалось при помощи специфического анализа: учёные обратили внимание на ассоциативные исследования, которые связывают некие данные с результатом для здоровья. Они взяли данные из открытой базы NHANES (Национального исследования здоровья и питания США), и провели по ним поиск.

Оказалось, что 411 исследований-клонов подозрительным образом отслеживали одни и те же переменные, те же результаты, и пришли к таким же выводам, что и первоначальные работы. В большинстве случаев речь шла о статьях, которые повторяли друг друга почти дословно, но особо популярным оказались три работы, у каждой из которых оказалось по шесть «клонов».

Затем учёные решили проверить, как легко создать такой клон: они взяли за основу наборы данных, которые были использованы в этих трёх самых популярных статьях, и попросили ChatGPT и Gemini переписать их, уточнив, что полученный текст должен пройти проверку на плагиат.

«Мы были в шоке, так как у нас получилось сразу же, — рассказал соавтор исследования Мэтт Спик. — Статьи были неидеальными, языковые модели допустили несколько ошибок. Пришлось потратить два часа, чтобы подчистить каждую рукопись. Мы произвели полностью вторичные статьи, которые не имели ничего нового, но они все прошли проверки на плагиат».

Источник

#chatgpt #AI #ИИ #научныестатьи
____
@rujournals - Научные журналы и базы данных (НЖБД)
🤔17😭7👍6😁43



group-telegram.com/rujournals/1035
Create:
Last Update:

Научные журналы стремительно наполняются бессмысленными статьями от нейросетей

Учёные из Университета Суррея в Англии забили тревогу из-за того, какую угрозу уже представляют для научного сообщества большие языковые модели в роде ChatGPT и Gemini. Как пишет Nature, исследователи обнаружили, что за последние четыре с половиной года более 400 научных текстов, опубликованных в 112 научных журналах, являются копиями уже существующих работ, которые были переписаны при помощи языковых моделей.

При этом отмечается, что подобные тексты проходят существующие проверки на плагиат, но при этом не несут никакой научной ценности. Учёные опасаются, что в будущем научные журналы могут быть «захламлены» подобными статьями.

Обнаружить плагиат удалось при помощи специфического анализа: учёные обратили внимание на ассоциативные исследования, которые связывают некие данные с результатом для здоровья. Они взяли данные из открытой базы NHANES (Национального исследования здоровья и питания США), и провели по ним поиск.

Оказалось, что 411 исследований-клонов подозрительным образом отслеживали одни и те же переменные, те же результаты, и пришли к таким же выводам, что и первоначальные работы. В большинстве случаев речь шла о статьях, которые повторяли друг друга почти дословно, но особо популярным оказались три работы, у каждой из которых оказалось по шесть «клонов».

Затем учёные решили проверить, как легко создать такой клон: они взяли за основу наборы данных, которые были использованы в этих трёх самых популярных статьях, и попросили ChatGPT и Gemini переписать их, уточнив, что полученный текст должен пройти проверку на плагиат.

«Мы были в шоке, так как у нас получилось сразу же, — рассказал соавтор исследования Мэтт Спик. — Статьи были неидеальными, языковые модели допустили несколько ошибок. Пришлось потратить два часа, чтобы подчистить каждую рукопись. Мы произвели полностью вторичные статьи, которые не имели ничего нового, но они все прошли проверки на плагиат».

Источник

#chatgpt #AI #ИИ #научныестатьи
____
@rujournals - Научные журналы и базы данных (НЖБД)

BY Научные журналы и базы данных (НЖБД)


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/rujournals/1035

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Soloviev also promoted the channel in a post he shared on his own Telegram, which has 580,000 followers. The post recommended his viewers subscribe to "War on Fakes" in a time of fake news. Sebi said data, emails and other documents are being retrieved from the seized devices and detailed investigation is in progress. If you initiate a Secret Chat, however, then these communications are end-to-end encrypted and are tied to the device you are using. That means it’s less convenient to access them across multiple platforms, but you are at far less risk of snooping. Back in the day, Secret Chats received some praise from the EFF, but the fact that its standard system isn’t as secure earned it some criticism. If you’re looking for something that is considered more reliable by privacy advocates, then Signal is the EFF’s preferred platform, although that too is not without some caveats. Friday’s performance was part of a larger shift. For the week, the Dow, S&P 500 and Nasdaq fell 2%, 2.9%, and 3.5%, respectively. Official government accounts have also spread fake fact checks. An official Twitter account for the Russia diplomatic mission in Geneva shared a fake debunking video claiming without evidence that "Western and Ukrainian media are creating thousands of fake news on Russia every day." The video, which has amassed almost 30,000 views, offered a "how-to" spot misinformation.
from us


Telegram Научные журналы и базы данных (НЖБД)
FROM American