Исследование показало, что 96% руководителей рассматривают возможность применения «наступательного ИИ» против кибератак

Исследование показало, что 96% руководителей рассматривают возможность применения «наступательного ИИ» против кибератак

Источник · Перевод автора

«Наступательный искусственный интеллект» позволит киберпреступникам направлять атаки на предприятия, находясь вне поля зрения обычных средств обнаружения, основанных на правилах. Это согласно новому опросу, опубликованному MIT Technology Review Insights и Darktrace, который показал, что более половины руководителей бизнеса считают, что стратегии безопасности, основанные на ответах людей, терпят неудачу.

В отчете MIT и Darktrace было опрошено более 300 руководителей высшего звена, директоров и менеджеров по всему миру, чтобы понять, как они воспринимают киберугрозы, с которыми сталкиваются. Высокий процент респондентов (55%) заявили, что традиционные решения безопасности не могут предвидеть новые атаки, основанные на искусственном интеллекте, в то время как 96% заявили, что они применяют «защитный ИИ», чтобы исправить это. Здесь «защитный ИИ» относится к самообучающимся алгоритмам, которые понимают закономерности обычных пользователей, устройств и систем в организации и обнаруживают необычную активность, не полагаясь на исторические данные.

Шестьдесят восемь процентов опрошенных руководителей выразили обеспокоенность по поводу атак с использованием ИИ для выдачи себя за другое лицо и фишинга, тогда как меньшее большинство заявили, что их беспокоят более эффективные программы-вымогатели (57%), дезинформация и нарушение целостности данных (56%) и нарушение работы удаленных сотрудников из-за нападения на домашние сети (53%). 43% респондентов подчеркнули разрушительный потенциал дипфейков или медиа, которые с помощью ИИ заменяют человека существующим изображением, аудиозаписью или видео на чье-то изображение.

Как пишут соавторы отчета, когда в смесь добавляется оскорбительный ИИ, «поддельная электронная почта» может стать почти неотличимой от сообщений доверенных контактов. А из-за того, что во время пандемии сотрудники работали удаленно – без протоколов безопасности офиса, – организации стали свидетелями стремительного роста успешных попыток фишинга. С начала 2020 года, когда началась пандемия, Google зарегистрировал более 2 миллионов фишинговых сайтов, что на 19,91% больше, чем в 2019 году.

Компании все больше полагаются на защитный ИИ для борьбы с растущими киберугрозами. Известный как автономный ответ, защитный ИИ может прерывать текущие атаки, не влияя на повседневную работу. Например, учитывая штамм программ-вымогателей, с которыми предприятие не сталкивалось в прошлом, защитный ИИ может идентифицировать новые и ненормальные модели поведения и останавливать программу-вымогатель, даже если она не связана с общеизвестными индикаторами компрометации (например, команда из черного списка -и контролировать домены или хэши файлов вредоносных программ).

Согласно опросу, 44% руководителей оценивают системы безопасности с поддержкой ИИ, а 38% развертывают технологию автономного реагирования. Это согласуется с выводами Statista. В анализе за 2019 год компания сообщила, что около 80% руководителей телекоммуникационной отрасли считают, что их организация не сможет отреагировать на кибератаки без ИИ.

В зависимости от темпов внедрения ИИ на рынке кибербезопасности к 2026 году, по прогнозам Markets and Markets, будет стоить 38,2 миллиарда долларов. Это по сравнению с 8,8 миллиардами долларов в 2019 году, что соответствует среднегодовым темпам роста около 23,3%.

«С началом атак на базе искусственного интеллекта организациям необходимо быстро реформировать свои стратегии, быть готовыми защищать свои цифровые активы с помощью искусственного интеллекта и вернуть себе преимущество над этой новой волной изощренных атак», – пишут соавторы отчета. «Автоматизируя процесс обнаружения, расследования и реагирования на угрозы, ИИ дополняет человеческие группы ИТ-безопасности, останавливая угрозы, как только они возникают, поэтому у людей есть время сосредоточиться на более стратегических задачах».