Ученые Университета Оксфорда провели исследование, в рамках которого выяснили, что чрезмерное использование ИИ-сгенерированного контента может привести к «модельному коллапсу», когда новые модели, обученные на таких данных, начинают генерировать бессмысленные сообщения.
☝🏻Например, модель, стартовавшая с текста о европейской архитектуре, спустя несколько итераций стала выдавать абсурдные результаты.
Обнаружены и уже запущеные рекурсивные процессы, при которых новые модели уже обучаются на выходных данных старых, что усугубляет проблему, а также массовое отравление данных от «ферм контента», негативно влияющее на качество поисковых результатов.🤷🏼♀️
Авторы исследования подчеркивают необходимость разработки эффективных методов фильтрации данных, чтобы различать контент, сгенерированный LLM, и оригинальные данные.
Среди предложенных решений — использование водяных знаков, однако их защита остается проблемой.🤷🏼♀️
Без адекватной фильтрации доступ к качественным данным для обучения новых моделей будет затруднен, что ставит под угрозу устойчивость и надежность технологий машинного обучения.🤷🏼♀️ ================ 😎@black_triangle_tg
Ученые Университета Оксфорда провели исследование, в рамках которого выяснили, что чрезмерное использование ИИ-сгенерированного контента может привести к «модельному коллапсу», когда новые модели, обученные на таких данных, начинают генерировать бессмысленные сообщения.
☝🏻Например, модель, стартовавшая с текста о европейской архитектуре, спустя несколько итераций стала выдавать абсурдные результаты.
Обнаружены и уже запущеные рекурсивные процессы, при которых новые модели уже обучаются на выходных данных старых, что усугубляет проблему, а также массовое отравление данных от «ферм контента», негативно влияющее на качество поисковых результатов.🤷🏼♀️
Авторы исследования подчеркивают необходимость разработки эффективных методов фильтрации данных, чтобы различать контент, сгенерированный LLM, и оригинальные данные.
Среди предложенных решений — использование водяных знаков, однако их защита остается проблемой.🤷🏼♀️
Без адекватной фильтрации доступ к качественным данным для обучения новых моделей будет затруднен, что ставит под угрозу устойчивость и надежность технологий машинного обучения.🤷🏼♀️ ================ 😎@black_triangle_tg
Apparently upbeat developments in Russia's discussions with Ukraine helped at least temporarily send investors back into risk assets. Russian President Vladimir Putin said during a meeting with his Belarusian counterpart Alexander Lukashenko that there were "certain positive developments" occurring in the talks with Ukraine, according to a transcript of their meeting. Putin added that discussions were happening "almost on a daily basis." "This time we received the coordinates of enemy vehicles marked 'V' in Kyiv region," it added. This ability to mix the public and the private, as well as the ability to use bots to engage with users has proved to be problematic. In early 2021, a database selling phone numbers pulled from Facebook was selling numbers for $20 per lookup. Similarly, security researchers found a network of deepfake bots on the platform that were generating images of people submitted by users to create non-consensual imagery, some of which involved children. The next bit isn’t clear, but Durov reportedly claimed that his resignation, dated March 21st, was an April Fools’ prank. TechCrunch implies that it was a matter of principle, but it’s hard to be clear on the wheres, whos and whys. Similarly, on April 17th, the Moscow Times quoted Durov as saying that he quit the company after being pressured to reveal account details about Ukrainians protesting the then-president Viktor Yanukovych. In view of this, the regulator has cautioned investors not to rely on such investment tips / advice received through social media platforms. It has also said investors should exercise utmost caution while taking investment decisions while dealing in the securities market.
from de