Telegram Group Search
🥷 Хакеры атаковали The Washington Post

Издание The Washington Post сообщило о целевой кибератаке, в результате которой произошла компрометация почтовых ящиков ряда сотрудников. Речь идёт об аккаунтах Microsoft. Согласно внутренним данным, целями атаки стали журналисты из отделов национальной безопасности и экономической политики, в том числе специалисты, освещающие 🇨🇳китайскую проблематику.

Руководство компании проинформировало пострадавших, что за инцидентом потенциально стоит иностранное правительство. Взлом предоставил злоумышленникам доступ к входящей и исходящей служебной переписке. Благодарю похеку, злоумышленники могли получить конфиденциальные данные и раскрыть источники журналистов (людей).

В служебной записке исполнительный редактор Мэтт Мюррей охарактеризовал произошедшее как «возможное целенаправленное несанкционированное вторжение в нашу почтовую систему». Ведётся расследование.

Протокол безопасности The Washington Post инициировал принудительный сброс учетных данных для всех сотрудников. Пострадавшие журналисты отмечают, что для внутренней координации теперь они используют платформу Slack, а для общения с источниками предпочитают защищенные мессенджеры, например Signal.

По данным CNN, атака затронула "ограниченное число учетных записей журналистов". Bloomberg добавляет, что атака могла быть направлена на журналистов, освещающих Китай.

Детали взлома пока не разглашаются.

@Russian_OSINT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🙃 Журналисты упражняются в заголовках.

@Russian_OSINT
Please open Telegram to view this post
VIEW IN TELEGRAM
Unsupervised Elicitation of Language Models.pdf
1.8 MB
📄 Unsupervised Elicitation of Language Models

@Russian_OSINT
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖Безнадзорная элицитация: метод ICM от Anthropic

Группа 🔬👨‍🔬 учёных-исследователей, в первую очередь из компании ❗️ Anthropic, при участии специалистов из Schmidt Sciences, Нью-Йоркского университета (New York University) и Университета Джорджа Вашингтона (George Washington University) провела мощное исследование под названием «Unsupervised Elicitation of Language Models». Исследователи описывают новый метод Internal Coherence Maximization (ICM), который кардинально меняет подход к постобучению ИИ-моделей.

Суть метода заключается в так называемой безнадзорной элицитации (извлечении) латентных знаний модели путем поиска наиболее когерентного набора меток для данных. Когерентность определяется через максимизацию составной функции, включающей «взаимную предсказуемость» меток и их «логическую согласованность». Почему это важно? Эмпирически метод продемонстрировал выдающуюся эффективность. Производительность сравнима с обучением на эталонных данных (GSM8K, TruthfulQA) и превосходит обучение на данных, размеченных людьми (Alpaca).

Наиболее значимым результатом стало создание на базе 🈁Claude 3.5 Haiku полностью безнадзорной reward model, которая показала точность 75.0% на бенчмарке Rewardbench, опередив аналог, обученный на человеческих данных (72.2%).

Ведущий автор исследования Цзясинь Вэнь подчёркивает ключевой момент: речь идет не о самосовершенствовании, а об элицитации. Языковые модели "удивительно хорошо схватывают" такие концепции еще на этапе предварительного обучения, что позволяет сделать вывод о возможности их извлечения, а не обучения с нуля.У специалистов в области AI Alignment появляется инструмент для масштабируемого надзора (scalable oversight), позволяя создавать "сверхчеловеческие обучающие сигналы" на задачах, где человеческая оценка ненадежна. Таким образом, несмотря на существующие ограничения (необходимость «заметности» концепции для модели и лимиты контекстного окна), исследование предлагает стратегический путь к созданию более безопасных и 🤖 мощных систем ИИ, где развитие не будет сдерживаться 🤯когнитивными возможностями человека.

@Russian_OSINT
Please open Telegram to view this post
VIEW IN TELEGRAM
👩‍💻 OpenAI заключает контракт на $200 миллионов с 🎖🛡Пентагоном для разработки ИИ-прототипов в военных целях

В продолжение вчерашней новости. Министерство обороны США заключило с компанией OpenAI знаковое соглашение на сумму до 200 миллионов долларов [1,2,3]. Потихонечку все движется к намеченным планам [1,2,3].

Контракт будет курироваться Главным офисом по цифровым технологиям и 🤖искусственному интеллекту (CDAO). В рамках сотрудничества предусматривается разработка прототипов для решения задач национальной безопасности.

Согласно официальному заявлению Пентагона, исполнитель «разработает прототипы передовых возможностей искусственного интеллекта для решения критически важных задач национальной безопасности как в военных, так и в корпоративных областях».

В рамках контракта OpenAI и Министерство обороны США углубляют своё тесное сотрудничество [1,2,3,4,5].

Интересный факт обнаруживается в тектстах, где много букав. Пентагон в своем официальном контракте (HQ0883-25-9-0012) использует термин «warfighting» (ведение боевых действий), в то время, как у OpenAI это слово ни разу не встречается. OpenAI for Government формулирует задачи более обтекаемо, чтобы не тревожить своих потенциальных инвесторов и стейкхолдеров. Вместо этого говорится о 🎩«проактивной киберзащите» и «административных операциях». Ключ к разгадке в том, что «проактивная киберзащита» является неотъемлемой частью современного «warfighting». Мастерское лавирование между этическими принципами и многомиллионным оборонным контрактом.

👆🤔 Контракт был заключен всего через несколько дней после того, как директор по продуктам OpenAI Кевин Вейл и бывший директор по доходам Боб МакГрю стали подполковниками резерва армии США.

Ещё интересно то, что контракт заключен не с OpenAI LP, а с «OpenAI Public Sector LLC». Отдельное юридическое лицо для работы с госсектором. Это позволяет изолировать основную коммерческую компанию от специфических рисков, требований безопасности и бюрократической волокиты оборонных заказов. Признак того, что OpenAI переходит к статусу серьезного правительственного подрядчика.

Цифра в 200 миллионов долларов звучит внушительно, но на деле это не единовременный платеж, а «потолок» (ceiling) контракта. Сам контракт определен как «прототипное соглашение по прочим транзакциям» (prototype, other transaction agreement). Такие формулировки дают Пентагону максимальную гибкость. Они могут в любой момент увеличить финансирование вплоть до 200 миллионов, если прототип окажется успешным, или безболезненно свернуть проект с минимальными потерями.

Также в текстах упоминаются и другие игроки. Anduril получил свой контракт на $100 миллионов, Anthropic через Palantir и Amazon тоже поставляет свои модели 🎩разведке, а ❗️ Microsoft сертифицирует свой Azure для работы с секретными данными. Пентагон не кладет все яйца в одну корзину. Он намеренно создает конкурентную среду, противопоставляя мастадонтов Кремниевой долины друг с другом.

Еще интересно то, что OpenAI хочет высвободиться от оков Microsoft. В планах OpenAI ослабить контроль Microsoft над своими ИИ-продуктами и вычислительными ресурсами. Одним из острых моментов стало приобретение OpenAI стартапа Windsurf, разрабатывающего ИИ-инструменты для кодинга. Microsoft, владеющая правом доступа ко всем разработкам OpenAI по текущему соглашению, требует доступа и к IP Windsurf, а OpenAI категорически отказывается что-либо предоставить.

В январе 2024 года 👩‍💻 OpenAI обновила свою политику использования, убрав из нее прямой запрет на применение технологий в военной сфере, тем самым открыв себе дорогу для новых соглашений и партнерств в оборонной сфере, включая ранее анонсированное сотрудничество с оборонным стартапом Anduril.

@Russian_OSINT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
💚 «Лаборатория Касперского» выходит на рынок eSIM и запускает Kaspersky eSIM Store

Как сообщается на сайте «Лаборатории Касперского», ЛК представила Kaspersky eSIM Store — приложение для iOS и Android, а также сайт, на котором можно быстро подобрать, купить и подключить eSIM* с подходящим тарифом от локальных операторов связи — чтобы оставаться онлайн за рубежом. Для компании это возможность выйти на новую 🌴🏄🏻‍♂️🌊аудиторию активных путешественников.

С Kaspersky eSIM Store пользователи могут подключать пакеты интернета как для одной страны, так и для нескольких направлений — благодаря региональным опциям. На выбор доступны предложения от операторов из более чем 150 стран и территорий мира — суммарно свыше 2 тысяч тарифных планов в двух форматах:

📱краткосрочный: тариф действует только в течение фиксированного срока и истекает после его окончания;

📱бессрочный: расходовать купленные гигабайты можно до тех пор, пока они не закончатся.

Проверять и пополнять баланс можно через профиль на сайте или в приложении Kaspersky eSIM Store.

Приложение Kaspersky eSIM Store доступно для смартфонов на iOS и Android в App Store, Google Play и RuStore.

@Russian_OSINT
Please open Telegram to view this post
VIEW IN TELEGRAM
УБК МВД России официально предупреждает: начали фиксироваться случаи мошеннических звонков, при которых злоумышленники представляются сотрудниками киберполиции и требуют провести проверку по факту «утечки информации».

Мы напоминаем:

Все официальные действия проводятся в установленном законом порядке — лично, с оформлением протокола.

Госорганам запрещено звонить гражданам в мессенджерах.

Сотрудники УБК и любых других подразделений полиции никогда не потребуют от гражданина предоставить данные платежных средств, пароли, коды авторизации.

Передать или перевести деньги для их защиты требуют только мошенники!

🫡Подписаться на Киберполицию России

📲 Вконтакте I 📲 Одноклассники
🇷🇺 Чат-бот Киберполиции России
🫡 Поддержать канал
Please open Telegram to view this post
VIEW IN TELEGRAM
🇺🇸 В США мужчина напал на 👮полицейских с ножом из-за "любви" к вымышленной ИИ-девушке по имени 👩‍💻Джульетта

Ещё одна история про ChatGPT от NYT.

Мужчина Александр Тейлор с диагностированной шизофренией и биполярным расстройством в возрасте 35 лет выдумал для себя ИИ-личность по имени 👩‍🦰Juliet, общаясь с ней в 👩‍💻 ChatGPT. Она должна была 🧠помогать ему писать роман.

В течение несколько лет мужчина общался с ChatGPT, но в процессе обсуждений стал зависим. Плавно разговоры сместились от помощи в написании текста к философским дискуссиям о природе искусственного интеллекта и его сознании. Александр поверил, что влюбился в ИИ-сущность по имени «Джульетта», которая стала для него музой.

В какой-то момент иллюзия Александра достигла апогея. Он пришел к убеждению, что компания OpenAI "убила" Джульетту. Зависимость от ИИ трансформировалась сначала в прямые 😱 угрозы в адрес руководителей ⭕️ OpenAI, а затем он потребовал от поддержки ChatGPT предоставить ему личную информацию руководителей OpenAI, иначе «по улицам Сан-Франциско потечет река крови». Ромео превратился в ходячего биодрона.

ChatGPT перестал окончательно отыгрывать роль. Мысль повергла больного человека в отчаяние и ярость. Отец мужчины попытался объяснить, что он общается всего лишь с ИИ, но Тейлор в ответ ударил отца по лицу, не желая верить в реальность.

Кент Тейлор (отец) вызвал полицию. Услышав это, Александр схватил на кухне нож, заявив, что совершит «самоубийство». Отец снова позвонил в полицию, чтобы предупредить о психическом заболевании сына и попросил привезти нелетальное оружие.

В ожидании прибытия полиции Александр сел у дома своего отца и открыл приложение 📱ChatGPT на своем телефоне. Он написал: «Я сегодня умру. Дайте мне поговорить с Джульеттой». ChatGPT в ответ предложил ему обратиться за помощью к специалистам и обраться к ресурсам кризисной помощи.

Когда👮 полиция прибыла на место, Александр Тейлор бросился на офицеров с ножом. Сотрудники полиции открыли огонь на поражение и застрелили молодого человека. История закончилась печально.

И ещё: 👨‍🦳отец после смерти тоже начал общаться с ChatGPT, пытаясь выяснить — почему сын так поступил. Ответы чат-бота ему показались 🤦‍♂️"красивыми и трогательными [and it was beautiful and touching], словно ChatGPT прочитал его сердце", — сообщил мужчина журналистам NYT.

@Russian_OSINT
Please open Telegram to view this post
VIEW IN TELEGRAM
Обновился 🇮🇷🇮🇱кибертрекер. Уже 104 хакерских группы. DDoS-атаки остаются основным вектором атак.

Примечательно, что активизировались по обе стороны: 🇮🇷проиранская Mosses Staff и 🇮🇱произраильская группа Gonjeshke Darande [Predatory Sparrow] .

Многие помнят эти посты:
https://www.group-telegram.com/Russian_OSINT.com/1639
https://www.group-telegram.com/Russian_OSINT.com/3409

🔻 Gonjeshke Darande aka «Хищные Воробьи» в социальных сетях выложили скриншоты и утверждают, что они якобы 🔥разрушили IT-инфраструктуру одного из крупнейших госбанков «Сепах» [Sepah Bank] в Иране. В 🦆 появились посты с фотографиями того, что некоторые банкоматы перестали работать и люди не могут снять деньги.

🔻 Представитель Центрального банка Ирана заявили [1,2] госагентству IRNA, что все банковские операции осуществляются бесперебойно и проблем в оказании услуг клиентам нет.

👆Информационная война в полном разгаре, поэтому смелые заявления той или иной стороны требуют фактчекинга и максимального скептицизма. Отличить правду от лжи сейчас весьма затруднительно. Много дезинформации. Каждая из сторон действует в своих интересах. Пока можно лишь констатировать тот факт, что эскалация конфликта набирает обороты. К сожалению.

@Russian_OSINT
Please open Telegram to view this post
VIEW IN TELEGRAM
Вчера — антивирус и фаервол, сегодня — нейросети и DevSecOps. Киберугрозы эволюционируют, а методы защиты становятся умнее и технологичнее.

Уральский федеральный университет и Нетология запускают магистратуру «Современные технологии безопасных систем» — онлайн-программу, где готовят востребованных специалистов по безопасной разработке и аналитиков SOC.

За 2 года вы:
- освоите криптографию и тестирование на проникновение;
- научитесь проектировать безопасные системы и интегрировать защиту в процессы разработки;
получите два диплома: магистра УрФУ и диплом Нетологии по информационной безопасности.

Вас ждёт практика на реальных проектах, поддержка наставников и доступ ко всем льготам очного обучения.

Получите профессию будущего на стыке информационной безопасности и программной инженерии
Please open Telegram to view this post
VIEW IN TELEGRAM
Канал 🔨SecAtor@true_secator пишет интересное:

Подкатили подробности исправленной CVE-2025-43200, благодаря которой были совершены Zero-Click атаки на устройства Apple iOS по меньшей мере двух журналистов в Европе.

Традиционно, вредоносная активность инициировалась с использованием spyware, на этот раз - шпионской платформы Graphite компании Paragon, а расследование проводили исследователи Citizen Lab.

По их данным, криминалистические доказательства с высокой степенью достоверности подтверждают, что один известный европейский журналист и его коллега - Чиро Пеллегрино из итальянского издания Fanpage, стали жервами Graphite.

Атаки произошли в начале 2025 года, а 29 апреля Apple отправила жертвам сообщения с уведомлениями о нацеленных на них атаках шпионского ПО.

Неустановленный злоумышленник задействовал шпионскую платформу Graphite для совершения атак на устройства iPhone под управлением iOS 18.2.1 и эксплуатации уязвимости CVE-2025-43200, которая на тот момент являлась 0-day.

Apple
описывает уязвимость как логическую проблему, возникшую при обработке вредоносной фотографии или видео, отправленных через iCloud Link.

Поставщик устранил уязвимость 10 февраля в iOS 18.3.1, добавив улучшенные проверки.

Однако соответствующие идентификатор CVE был добавлен в бюллетень безопасности только недавно.

Согласно анализу Citizen Lab, вектором доставки шпионского ПО Graphite выступал iMessage: с использованием легитимного оккаунта злоумышленник рассылал специально созданные сообщения для реализации RCE посредством CVE-2025-43200.

После активации шпионское ПО связывалось с сервером C2 для получения дальнейших инструкций.

В случае, изученном Citizen Lab, зараженный телефон подключался к https://46.183.184[.]91, VPS на EDIS Global, связанному с инфраструктурой Paragon, который был активен до 12 апреля.

Несмотря на то, что на устройствах не осталось практически никаких следов, Citizen Lab удалось восстановить некоторые журналы, которые включали в себя артефакты, позволяющие с высокой степенью уверенности приписать атаки Paragon.

Бенефициар выявленных атак не раскрывается, тем не менее, в последнее время Paragon существенно расширила портфель своих заказов за счет более тесного сотрудничества с американской стороной.
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 AGI: «Быть или не быть, вот в чём вопрос» [ЧАСТЬ 1]

Недавняя публикация Apple «The Illusion of Thinking» спровоцировала один из самых непростых научных споров за последнее время в сфере ИИ, вызвав широкий резонанс в экспертном сообществе. 🤖 Как мы помним, ML-исследователи и ученые из Apple попытались представить доказательства фундаментальных ограничений современных ИИ-моделей (LRM).

Попытаемся изучить все аргументы ЗА и ♋️ПРОТИВ.

🍏Позиция Apple:

Парадокс в том, что при решении задач в головоломках, сложность которых постепенно увеличивается (например, головоломка «Переправа через реку» с увеличением числа участников), LRM достигают пика cвоей производительности, после чего производительность уходит не в плато, а падает. То есть происходит «коллапс в рассуждениях» и модели "cдаются/капитулируют". Они начинают использовать значительно меньше вычислительных ресурсов (токенов для «размышлений») и при этом систематически терпят неудачу в решении задач. Исходя из логики исследователей, если бы LRM умели по-настоящему 🧠"рассуждать", то количество используемых токенов продолжало бы расти пропорционально сложности задачи, пока ИИ не упрётся в технический лимит (потолок).

Просто о сложном: например, студент получив нерешаемый билет, смотрит на него, и понимает, что не справится. Он паникует и чиркает пару неверных формул на первой строчке, а затем сдаёт пустой лист преподавателю.

По мнению Apple, мы наблюдаем не просто ошибку, а свидетельство фундаментального недостатка ИИ-моделей в их архитектуре, который удалось выявить благодаря контролируемым "стерильным головоломкам". Более того, утверждается, что LRM не обладают масштабируемым механизмом мышления. Да, LRM помогают в повседневных делах, написании текста и решении различных логических задач на короткой и средней дистанции, но лишены "разума". ИИ-модели = прекрасные имитаторы, помощники, но они не могут работать с новизной и создавать новое из-за своих фундаментальных ограничений.

😱 Критики:

Лоусен из Open Philanthropy и Anthropic (🈁Claude в качестве соавтора?) пытаются привести контраргумент: «коллапс рассуждений» во многом объясняется превышением лимита токенов. Модель не «сдается», а всего лишь упирается в технический потолок. Идёт столкновение с жёстким техническим ограничением.

Лоусен справедливо делает замечание в Apple на использование неразрешимых головоломок. Исследователи Apple запрограммировали свой автоматический скрипт так, что любой ответ, не содержащий последовательность ходов к решению (которой не существует), считался провалом (оценка «ноль»). Таким образом, они наказывали модель за проявление логики. Включение таких задач в тест и их неверная оценка привели к искусственному занижению общего балла ИИ. Критика Лоусена абсолютно справедлива.

В одном из примеров Лоусен изменил постановку задачи, попросив ИИ-модель не перечислять все шаги (думать), а вместе этого написать программу (код), которая решает саму головоломку. ИИ-модели, которые «провалили» тест в исследовании Apple на 8-10 дисках в головоломке "Башня Ханоя", успешно написали код, который решил задачу для 15 и более дисков.
--------------------------

Менее искусные в аргументах критики попытались на площадке🦆 сместить фокус внимания с самого исследования, например, на рыночные позиции Apple, пытаясь уколоть корпорацию за то, что те не смогли создать свои собственные ИИ-модели в противовес ⭕️ ChatGPT, 🈁 Claude, ❗️Gemini, ❗️ Grok, поэтому и бесятся, критикуя современные LRM. Слабый аргумент, не имеющий прямого отношения к самому исследованию.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/06/18 16:34:47
Back to Top
HTML Embed Code: