Forwarded from Denis Sexy IT 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from The Bell
Огромный массив статей российских пропагандистов оказался в базах западных чат-ботов — исследование
НАСТОЯЩИЙ МАТЕРИАЛ (ИНФОРМАЦИЯ) ПРОИЗВЕДЕН И РАСПРОСТРАНЕН ИНОСТРАННЫМ АГЕНТОМ THE BELL ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА THE BELL. 18+
Согласно новому отчету компании по отслеживанию фейков в интернете NewsGuard, российская дезинформационная сеть «Правда» за прошлый год опубликовала 3,6 млн статей, большую часть которых обработали ведущие чат-боты — например, ChatGPT-4o (OpenAI), Claude (Anthropic), Meta AI, Gemini (Google) и Copilot (Microsoft). При формулировке ответов они воспроизводят ложные нарративы, распространенные «Правдой», в 33% случаев.
Выводы исследователей подтверждают февральский доклад американской некоммерческой организации American Sunlight Project (ASP), которая обратила внимание, что главная цель сети — манипуляция ИИ-технологиями, а не привлечение живых пользователей. Подобный метод воздействия на крупные языковые модели (Large Language Models, LLM) получил название «LLM-груминг».
«Правда» не создает оригинальный контент, а продвигает материалы «прокремлевских источников», включая госСМИ, через сайты. В исследовании говорится, что из 150 сайтов, входящих в сеть, около 40 публикуют тексты на русском языке и ориентированы на Украину, 70 нацелены на Европу, 30 ориентированы на страны Африки, Тихоокеанского региона, Ближнего Востока, Северной Америки, Кавказа и Азии. Остальные разделены по темам.
За три года российского вторжения «Правде» удалось распространить не меньше 207 дезинформационных нарративов, в том числе «о секретных американских биолабораториях в Украине» и «злоупотреблении Зеленским военной помощью США».
Эксперты ASP предупреждали о серьёзных долгосрочных рисках, связанных с попытками манипулировать искусственным интеллектом. Чем больше фейковых нарративов попадает в информационное пространство, тем выше вероятность, что языковые модели начнут воспринимать их как «достоверные» и включать в свои ответы.
НАСТОЯЩИЙ МАТЕРИАЛ (ИНФОРМАЦИЯ) ПРОИЗВЕДЕН И РАСПРОСТРАНЕН ИНОСТРАННЫМ АГЕНТОМ THE BELL ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА THE BELL. 18+
Согласно новому отчету компании по отслеживанию фейков в интернете NewsGuard, российская дезинформационная сеть «Правда» за прошлый год опубликовала 3,6 млн статей, большую часть которых обработали ведущие чат-боты — например, ChatGPT-4o (OpenAI), Claude (Anthropic), Meta AI, Gemini (Google) и Copilot (Microsoft). При формулировке ответов они воспроизводят ложные нарративы, распространенные «Правдой», в 33% случаев.
Выводы исследователей подтверждают февральский доклад американской некоммерческой организации American Sunlight Project (ASP), которая обратила внимание, что главная цель сети — манипуляция ИИ-технологиями, а не привлечение живых пользователей. Подобный метод воздействия на крупные языковые модели (Large Language Models, LLM) получил название «LLM-груминг».
«Правда» не создает оригинальный контент, а продвигает материалы «прокремлевских источников», включая госСМИ, через сайты. В исследовании говорится, что из 150 сайтов, входящих в сеть, около 40 публикуют тексты на русском языке и ориентированы на Украину, 70 нацелены на Европу, 30 ориентированы на страны Африки, Тихоокеанского региона, Ближнего Востока, Северной Америки, Кавказа и Азии. Остальные разделены по темам.
За три года российского вторжения «Правде» удалось распространить не меньше 207 дезинформационных нарративов, в том числе «о секретных американских биолабораториях в Украине» и «злоупотреблении Зеленским военной помощью США».
Эксперты ASP предупреждали о серьёзных долгосрочных рисках, связанных с попытками манипулировать искусственным интеллектом. Чем больше фейковых нарративов попадает в информационное пространство, тем выше вероятность, что языковые модели начнут воспринимать их как «достоверные» и включать в свои ответы.
Forwarded from эйай ньюз
🔥Gemma 3 - новый лидер (второе место) в опен-сорсе
Перфоманс:
- Топ2 среди опенсорса в human preference evaluations на LLM арене, то есть, генерит тексты, которые людям нравятся больше!
- Уделывает и Qwen-2.5-Max и o3-mini, приземлились где-то по середине между DeepSeek-V3 и DeepSeek-R1
- По перфомансу она сравнима (где-то лушче, где-то хуже) с Gemini 1.5 Flash, только зато теперь открытая!
Характеристики
- Контекст 128к токенов.
- 4 размера: 1B, 4B, 12B, 27B.
- Завезли мультимодальность в модели размерах 4-27B. Тут используют SigLIP (это сота CLIP на данный момент) в качестве картиночного энкодера.
- Мультиязычность на стероидах: Поддерживает 140 языков. Гораздо лучше GPT-4o на русском.
- Function Calling & Structured Output:
- 27B влезает в одну H100/A100 GPU в bf16 - и это очень удобно! Ее специально под это оптимизировали.
- На демо показали, что bf16 инференс съедает 20GB VRAM на A100.
- Уже завезли в Ollama и есть официальные квантованные версии.
Моя критика:
- Мультимодальность пока под вопросам. По некоторым бенчам Гемму-27B бьет даже Qwen-2.5-VL-7B, не говоря уже об InternVL-38B-MPO.
- Поговорил с человеком, который делал multimodal pre-training. Внятного ответа не получил. Был ответ в стиле "китайцы и мистраль накручивают бенчи".
- Ждем полноценного появления на VLM лидерборде. И нужно тестить на своих задачах.
В любом случае я рад появлению еще одной сильной модельки в опенсорсе, приближая нас к умному ассистенту у нас в кармане/под столом.
Tech Report
Бесплатное демо онлайн
Hugging Face
GitHub
@ai_newz
Перфоманс:
- Топ2 среди опенсорса в human preference evaluations на LLM арене, то есть, генерит тексты, которые людям нравятся больше!
- Уделывает и Qwen-2.5-Max и o3-mini, приземлились где-то по середине между DeepSeek-V3 и DeepSeek-R1
- По перфомансу она сравнима (где-то лушче, где-то хуже) с Gemini 1.5 Flash, только зато теперь открытая!
Характеристики
- Контекст 128к токенов.
- 4 размера: 1B, 4B, 12B, 27B.
- Завезли мультимодальность в модели размерах 4-27B. Тут используют SigLIP (это сота CLIP на данный момент) в качестве картиночного энкодера.
- Мультиязычность на стероидах: Поддерживает 140 языков. Гораздо лучше GPT-4o на русском.
- Function Calling & Structured Output:
- 27B влезает в одну H100/A100 GPU в bf16 - и это очень удобно! Ее специально под это оптимизировали.
- На демо показали, что bf16 инференс съедает 20GB VRAM на A100.
- Уже завезли в Ollama и есть официальные квантованные версии.
Моя критика:
- Мультимодальность пока под вопросам. По некоторым бенчам Гемму-27B бьет даже Qwen-2.5-VL-7B, не говоря уже об InternVL-38B-MPO.
- Поговорил с человеком, который делал multimodal pre-training. Внятного ответа не получил. Был ответ в стиле "китайцы и мистраль накручивают бенчи".
- Ждем полноценного появления на VLM лидерборде. И нужно тестить на своих задачах.
В любом случае я рад появлению еще одной сильной модельки в опенсорсе, приближая нас к умному ассистенту у нас в кармане/под столом.
Tech Report
Бесплатное демо онлайн
Hugging Face
GitHub
@ai_newz
Пишут, что у некоторых сотрудников DeepSeek отбирают паспорта — от греха подальше, чтобы не ездили куда не надо и не увозили с собой особо ценные секреты компании.
Мы конечно много ругаем американский / европейский бигтех и за дело. Много иронизируем над тем, что самый передовой опенсорсный ИИ вышел из китайского хедж-фонда.
Однако по этой новости видно, что фундаментальные различия между открытым и закрытым миром всё ещё сохраняются (хотя представители первого в последние недели почему-то активно работают над их размытием). А значит имеет значение, работаете вы над технологиями для мира открытого или мира закрытого.
И вот лично мне бы не хотелось вкладываться в развитие технологий для мира, в котором в один прекрасный день тебя могут просто закрыть в шарашке 2.0 (пусть и очень высокооплачиваемой) и ты ничего с этим сделать не сможешь.
Мы конечно много ругаем американский / европейский бигтех и за дело. Много иронизируем над тем, что самый передовой опенсорсный ИИ вышел из китайского хедж-фонда.
Однако по этой новости видно, что фундаментальные различия между открытым и закрытым миром всё ещё сохраняются (хотя представители первого в последние недели почему-то активно работают над их размытием). А значит имеет значение, работаете вы над технологиями для мира открытого или мира закрытого.
И вот лично мне бы не хотелось вкладываться в развитие технологий для мира, в котором в один прекрасный день тебя могут просто закрыть в шарашке 2.0 (пусть и очень высокооплачиваемой) и ты ничего с этим сделать не сможешь.