Rambler's Top100
Статьи
Алексей Андрияшин   11 сентября 2019

Роль искусственного интеллекта в «гонке вооружений» в области кибербезопасности

Решения на основе искусственного интеллекта могут использоваться как для неправомерного доступа к цифровым ресурсам, так и для их защиты.

Какие факторы должны учитывать специалисты по информационной безопасности при выборе ИИ-инструментария?

Киберпреступники и профессионалы в сфере ИТ-безопасности находятся в постоянной, никогда не прекращающейся борьбе за лидерство, когда речь заходит о разработке и развертывании инструментов для защиты или использования цифровых ресурсов.

Новейшее достижение в этой гонке вооружений – использование технологий автоматизации, машинного обучения и в конечном счете искусственного интеллекта.

Нет, это отнюдь не научная фантастика. Согласно отчету Nokia Threat Intelligence Report – 2019, бот-сети на базе искусственного интеллекта сегодня способны обнаруживать определенные уязвимости в Android-устройствах и затем использовать их, загружая на устройство вредоносный код для хищения данных, который можно будет обнаружить лишь после того, как он сделает свое дело.

Проблемы цифровой трансформации с точки зрения бизнеса

Для специалистов по ИБ цифровая трансформация полностью перечеркнула наработки в области стратегий безопасности. Из-за нехватки квалифицированных специалистов многие организации просто не могут себе позволить масштабировать свою защитную инфраструктуру, чтобы справиться с увеличивающейся поверхностью атаки (общим количеством возможных уязвимых мест).

Для того чтобы решить эту проблему, необходимо передать принятие многочисленных низкоуровневых решений и рутинные процессы автоматизированным системам, которые предполагают намного меньшее участие человека. В то же время нужно не только заменять традиционно изолированные устаревшие устройства безопасности на интегрированные системы, обеспечивающие более высокий уровень прозрачности и контроля во всех сетевых окружениях. Чтобы компенсировать нехватку специалистов, важно использовать технологии машинного обучения и искусственного интеллекта для сопоставления и анализа угроз и оперативного принятия ответных мер.

Новые возможности для киберпреступников

Очевидно, что цифровая трансформация – одно из величайших благ для киберпреступного сообщества, ведь благодаря ей значительно расширяется потенциальная поверхность атаки. При этом к услугам киберпреступников – все те же искусственный интеллект и технологии машинного обучения, которые, как выясняется, можно с той же эффективностью использовать не только для защиты корпоративных сетей, но и для осуществления атак на них.

Для сохранения рентабельности инвестиций киберпреступникам, как и их жертвам, необходимо снижать общие издержки, увеличивая эффективность и действенность инструментов, которые используются для проникновения в системы защиты.

Например, чрезвычайно эффективным инструментом здесь может стать интегрированный вредоносный код, который запускается на разных устройствах и в разных окружениях и позволяет атаковать различные уязвимости. При использовании средств автоматизации и машинного обучения такой код способен автоматически определять, какие его действия будут наиболее эффективными в каждом конкретном случае. При этом он сможет избежать обнаружения в силу отсутствия постоянных обращений к своему командному серверу. В результате эффективность подобных атак повысится без увеличения издержек.

Атаки, основанные на технологиях самообучения, способны быстро оценивать уязвимости, выбирать или адаптировать вредоносный код и активно противодействовать системе безопасности, пытающейся их остановить. Используя искусственный интеллект вместе с новыми типами угроз, такими как swarmbots, которые предполагают наличие целой колонии роботов, можно разбить атаку на функциональные элементы, поручить выполнение каждой из этих функций тем или иным членам колонии и задействовать интерактивные коммуникации между ними для ускорения распространения атаки.

ИИ поднимает противодействие на новый уровень

Единственная эффективная защита от подобных стратегий атак с использованием искусственного интеллекта – это решения, в которых применяются такие же стратегии.

Благодаря развитию искусственного интеллекта в арсенале бизнеса появятся новые самообороняющиеся решения безопасности, способные выявлять угрозы, закрывать пробелы, менять конфигурацию устройств и реагировать на угрозы – и все это без вмешательства человека.

Видя, что технологии искусственного интеллекта сулят огромный доход, многим производителям не терпится заявить о поддержке такой функциональности в своих решениях, хотя на самом деле это не соответствует действительности. В итоге организации, пожелавшие противостоять атакам, используя оружие противника, оказываются в затруднительном положении при выборе подходящего решения.

Чтобы избежать путаницы, ИТ-специалистам следует задать поставщикам технологий безопасности несколько вопросов, ответы на которые позволят определить, стоит ли рассматривать конкретное решение на базе искусственного интеллекта:
  1. Сколько лет вы занимаетесь разработкой своего решения? Искусственный интеллект требует продолжительного и тщательного обучения. Любой вендор, который не проводил стандартизированное обучение своей системы в течение многих лет, предлагает далеко не идеальное решение.
  2. Сколько узлов используется для обработки данных и принятия решений? Истинному искусственному интеллекту требуются миллионы узлов и огромные потоки исходных данных для выработки точных оборонительных решений.
  3. Насколько хороши и точны те данные, которые вы передаете в свою систему на базе искусственного интеллекта? Передача качественных данных в систему искусственного интеллекта на самом деле более сложная задача, чем кажется на первый взгляд. Для эффективной работы искусственного интеллекта абсолютно необходимы огромные массивы надежных данных, которые должны быть в постоянной доступности.
Клин клином

Не все системы на базе искусственного интеллекта одинаково эффективны. Решения, которые претендуют на звание систем на базе ИИ, но не отвечают перечисленным выше требованиям, скорее всего могут создать дополнительные проблемы в вашей сети.

Механизмы принятия решений с учетом возможных рисков, которые достаточно разумны, чтобы действовать без участия человека, должны не только уметь выполнять петлю Бойда (предполагающую наблюдение, ориентацию, принятие решения и действие) для подавляющего большинства ситуаций, с которыми они сталкиваются, но и непосредственно предлагать программу действий при обнаружении проблемы, а не просто полагаться на заранее определенные методики.

Поиск инструментов, которые соответствовали бы этому стандарту, требует времени и тщательного анализа. Только после этого анализа вы сможете так трансформировать критические процессы обеспечения безопасности, чтобы ваши эксперты по киберзащите могли сосредоточиться на принятии тех, порой непростых решений, где человеческие знания и вмешательство действительно необходимы.

Алексей Андрияшин, технический директор Fortinet в России
Поделиться:
Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!