Telegram Group & Telegram Channel
И снова привет, эксперты! Сегодня в рубрике #контекст решили порассуждать об использовании ИИ в кибербезопасности. Расскажем, как LLM лишают работы авторов нигерийских писем, а широкий и разнородный арсенал инструментов по защите данных играет против их пользователей, когда дело доходит до ИИ. Присаживайтесь поудобнее, сейчас накинем подробностей.

Рынок ИИ-решений в кибербезе стремительно растет. Если в 2024 году его оценивали в 25,4 млрд долларов, то, по ожиданиям аналитиков Polaris, в 2025 году он вырастет до 31,3 млрд. Интерес к рынку связан во многом из-за утечек данных, которые с каждым годом обходятся компаниям все дороже и дороже. Усугубляет ситуацию и то, как мошенники наловчились использовать ИИ в своих атаках. Так что эксперты прогнозируют рост рынка до 219,5 млрд долларов к 2034 году. Ключевые игроки — Amazon Web Services, Cisco, IBM, Intel.

Как ИИ используют в кибербезопасности? Решения на базе ИИ, как правило, направлены на анализ трафика, обнаружение аномалий и смягчение угроз — на машину предлагается перевесить ряд рутинных задач. Есть и более продвинутые продукты: в 2024 году IBM запустила «ИИ-помощника» для безопасников, который помогает им приоритизировать угрозы и разбираться с оповещениями. Но есть и серьезные трудности с внедрением ИИ в информационную безопасность — уж очень разнобойным арсеналом компании обороняются от мошенников.

В 2021 году Verizon провела исследование, согласно которому крупные компании используют 55-75 различных инструментов ИБ. Сшить их в один контур безопасности крайне проблематично, даже с помощью ИИ. Поэтому модели пока задействуют только на отдельных, точечных направлениях. Это, впрочем, дает свои плоды — по оценкам IBM, использование ИИ может ускорить обработку инцидентов в среднем на 55%.

А что там у мошенников, как они используют ИИ? Бьют по людям, разумеется. Например, с помощью одних только LLM можно писать фишинговые письма не только на чистом языке получателя, но и адаптировать их под конкретного человека. И выявить ИИ, оказывается, не так-то просто. Недавно спец по кибербезу Брюс Шнайер провел исследование с участием 112 человек: 37% повелись на фишинговые письма, составленные ИИ, и 62% клюнули на черновик от ИИ, дописанный специалистом. Да, у мошеннических схем, полностью написанных человеком, эффективность пока еще выше — 74% участников исследования поверили им. Но, как пишут исследователи, расходы мошенников сокращаются на 95% благодаря ИИ. А значит можно отыграться на масштабировании атак.

И дело не только в тексте: генераторы аудио и видео тоже стали часто использовать для атак, в 2023 году число дипфейк-атак выросло на 3000%. По прогнозам Gartner, из-за таких атак уже к 2026 году 30% компаний откажутся от дистанционной биометрической аутентификации и верификации по лицу клиентов и сотрудников.

Можно ли как-то оградить мошенников от доступа к ИИ? Вряд ли: хакеры наловчились обходить запреты на мошеннические запросы путем дробления задач, которые они ставят помощникам типа Claude или ChatGPT. Если не хотят долбиться по мелочи. то обращаются к «джейлбрейкам» LLM, а то и вовсе запускают специально натасканные преступниками небольшие модели. Вот так: по напарнику и мошеннику, и безопаснику.

ИИ играет и за «белых» и за «черных». Помогает писать код — и для мошенников, и для безопасников, подсказывает уязвимости в системе — и для взлома, и для защиты. В таких условиях друзьям-товарищам из ИБ остается только пожелать удачи и скорейшего появления ИИ-решений, которые могут охватить весь оборонный комплекс.
🔥62👍1😁11



group-telegram.com/korolevsnotes/2512
Create:
Last Update:

И снова привет, эксперты! Сегодня в рубрике #контекст решили порассуждать об использовании ИИ в кибербезопасности. Расскажем, как LLM лишают работы авторов нигерийских писем, а широкий и разнородный арсенал инструментов по защите данных играет против их пользователей, когда дело доходит до ИИ. Присаживайтесь поудобнее, сейчас накинем подробностей.

Рынок ИИ-решений в кибербезе стремительно растет. Если в 2024 году его оценивали в 25,4 млрд долларов, то, по ожиданиям аналитиков Polaris, в 2025 году он вырастет до 31,3 млрд. Интерес к рынку связан во многом из-за утечек данных, которые с каждым годом обходятся компаниям все дороже и дороже. Усугубляет ситуацию и то, как мошенники наловчились использовать ИИ в своих атаках. Так что эксперты прогнозируют рост рынка до 219,5 млрд долларов к 2034 году. Ключевые игроки — Amazon Web Services, Cisco, IBM, Intel.

Как ИИ используют в кибербезопасности? Решения на базе ИИ, как правило, направлены на анализ трафика, обнаружение аномалий и смягчение угроз — на машину предлагается перевесить ряд рутинных задач. Есть и более продвинутые продукты: в 2024 году IBM запустила «ИИ-помощника» для безопасников, который помогает им приоритизировать угрозы и разбираться с оповещениями. Но есть и серьезные трудности с внедрением ИИ в информационную безопасность — уж очень разнобойным арсеналом компании обороняются от мошенников.

В 2021 году Verizon провела исследование, согласно которому крупные компании используют 55-75 различных инструментов ИБ. Сшить их в один контур безопасности крайне проблематично, даже с помощью ИИ. Поэтому модели пока задействуют только на отдельных, точечных направлениях. Это, впрочем, дает свои плоды — по оценкам IBM, использование ИИ может ускорить обработку инцидентов в среднем на 55%.

А что там у мошенников, как они используют ИИ? Бьют по людям, разумеется. Например, с помощью одних только LLM можно писать фишинговые письма не только на чистом языке получателя, но и адаптировать их под конкретного человека. И выявить ИИ, оказывается, не так-то просто. Недавно спец по кибербезу Брюс Шнайер провел исследование с участием 112 человек: 37% повелись на фишинговые письма, составленные ИИ, и 62% клюнули на черновик от ИИ, дописанный специалистом. Да, у мошеннических схем, полностью написанных человеком, эффективность пока еще выше — 74% участников исследования поверили им. Но, как пишут исследователи, расходы мошенников сокращаются на 95% благодаря ИИ. А значит можно отыграться на масштабировании атак.

И дело не только в тексте: генераторы аудио и видео тоже стали часто использовать для атак, в 2023 году число дипфейк-атак выросло на 3000%. По прогнозам Gartner, из-за таких атак уже к 2026 году 30% компаний откажутся от дистанционной биометрической аутентификации и верификации по лицу клиентов и сотрудников.

Можно ли как-то оградить мошенников от доступа к ИИ? Вряд ли: хакеры наловчились обходить запреты на мошеннические запросы путем дробления задач, которые они ставят помощникам типа Claude или ChatGPT. Если не хотят долбиться по мелочи. то обращаются к «джейлбрейкам» LLM, а то и вовсе запускают специально натасканные преступниками небольшие модели. Вот так: по напарнику и мошеннику, и безопаснику.

ИИ играет и за «белых» и за «черных». Помогает писать код — и для мошенников, и для безопасников, подсказывает уязвимости в системе — и для взлома, и для защиты. В таких условиях друзьям-товарищам из ИБ остается только пожелать удачи и скорейшего появления ИИ-решений, которые могут охватить весь оборонный комплекс.

BY Грустный Киберпанк




Share with your friend now:
group-telegram.com/korolevsnotes/2512

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

'Wild West' Update March 8, 2022: EFF has clarified that Channels and Groups are not fully encrypted, end-to-end, updated our post to link to Telegram’s FAQ for Cloud and Secret chats, updated to clarify that auto-delete is available for group and channel admins, and added some additional links. Ukrainian President Volodymyr Zelensky said in a video message on Tuesday that Ukrainian forces "destroy the invaders wherever we can." This ability to mix the public and the private, as well as the ability to use bots to engage with users has proved to be problematic. In early 2021, a database selling phone numbers pulled from Facebook was selling numbers for $20 per lookup. Similarly, security researchers found a network of deepfake bots on the platform that were generating images of people submitted by users to create non-consensual imagery, some of which involved children. False news often spreads via public groups, or chats, with potentially fatal effects.
from us


Telegram Грустный Киберпанк
FROM American