group-telegram.com/korolevsnotes/2512
Last Update:
И снова привет, эксперты! Сегодня в рубрике #контекст решили порассуждать об использовании ИИ в кибербезопасности. Расскажем, как LLM лишают работы авторов нигерийских писем, а широкий и разнородный арсенал инструментов по защите данных играет против их пользователей, когда дело доходит до ИИ. Присаживайтесь поудобнее, сейчас накинем подробностей.
Рынок ИИ-решений в кибербезе стремительно растет. Если в 2024 году его оценивали в 25,4 млрд долларов, то, по ожиданиям аналитиков Polaris, в 2025 году он вырастет до 31,3 млрд. Интерес к рынку связан во многом из-за утечек данных, которые с каждым годом обходятся компаниям все дороже и дороже. Усугубляет ситуацию и то, как мошенники наловчились использовать ИИ в своих атаках. Так что эксперты прогнозируют рост рынка до 219,5 млрд долларов к 2034 году. Ключевые игроки — Amazon Web Services, Cisco, IBM, Intel.
Как ИИ используют в кибербезопасности? Решения на базе ИИ, как правило, направлены на анализ трафика, обнаружение аномалий и смягчение угроз — на машину предлагается перевесить ряд рутинных задач. Есть и более продвинутые продукты: в 2024 году IBM запустила «ИИ-помощника» для безопасников, который помогает им приоритизировать угрозы и разбираться с оповещениями. Но есть и серьезные трудности с внедрением ИИ в информационную безопасность — уж очень разнобойным арсеналом компании обороняются от мошенников.
В 2021 году Verizon провела исследование, согласно которому крупные компании используют 55-75 различных инструментов ИБ. Сшить их в один контур безопасности крайне проблематично, даже с помощью ИИ. Поэтому модели пока задействуют только на отдельных, точечных направлениях. Это, впрочем, дает свои плоды — по оценкам IBM, использование ИИ может ускорить обработку инцидентов в среднем на 55%.
А что там у мошенников, как они используют ИИ? Бьют по людям, разумеется. Например, с помощью одних только LLM можно писать фишинговые письма не только на чистом языке получателя, но и адаптировать их под конкретного человека. И выявить ИИ, оказывается, не так-то просто. Недавно спец по кибербезу Брюс Шнайер провел исследование с участием 112 человек: 37% повелись на фишинговые письма, составленные ИИ, и 62% клюнули на черновик от ИИ, дописанный специалистом. Да, у мошеннических схем, полностью написанных человеком, эффективность пока еще выше — 74% участников исследования поверили им. Но, как пишут исследователи, расходы мошенников сокращаются на 95% благодаря ИИ. А значит можно отыграться на масштабировании атак.
И дело не только в тексте: генераторы аудио и видео тоже стали часто использовать для атак, в 2023 году число дипфейк-атак выросло на 3000%. По прогнозам Gartner, из-за таких атак уже к 2026 году 30% компаний откажутся от дистанционной биометрической аутентификации и верификации по лицу клиентов и сотрудников.
Можно ли как-то оградить мошенников от доступа к ИИ? Вряд ли: хакеры наловчились обходить запреты на мошеннические запросы путем дробления задач, которые они ставят помощникам типа Claude или ChatGPT. Если не хотят долбиться по мелочи. то обращаются к «джейлбрейкам» LLM, а то и вовсе запускают специально натасканные преступниками небольшие модели. Вот так: по напарнику и мошеннику, и безопаснику.
ИИ играет и за «белых» и за «черных». Помогает писать код — и для мошенников, и для безопасников, подсказывает уязвимости в системе — и для взлома, и для защиты. В таких условиях друзьям-товарищам из ИБ остается только пожелать удачи и скорейшего появления ИИ-решений, которые могут охватить весь оборонный комплекс.
BY Грустный Киберпанк

Share with your friend now:
group-telegram.com/korolevsnotes/2512