ИИ-кибербезопасность
Современный мир немыслим без использования искусственного интеллекта (ИИ). Мы уже поняли, что он применяется во многих сферах жизни, от медицины до банковского дела. Однако, как и любая другая технология, ИИ может быть подвержен кибератакам, а также может использоваться как инструмент мошенниками. В этом материале мы рассмотрим, какие угрозы могут возникнуть при работе с ИИ и как можно обеспечить безопасность данных и систем.
Основные угрозы кибербезопасности при работе с ИИ

Использование искусственного интеллекта (ИИ) — это соревнование между киберпреступниками и кибербезопасниками. В нём победит тот, кто сможет создать более совершенное решение.
Киберпреступники не теряют времени даром. Количество кибератак растёт с каждым годом.

Например, в 2022 г. во всём мире их было зафиксировано на 21% больше, чем годом ранее, а в России — в 2 раза больше. Кибератаки становятся всё более интенсивными и комплексными, то есть осуществляются сразу по нескольким направлениям. Киберпреступники используют для их проведения ИИ, в том числе и машинное обучение (ML) — это даёт возможность быстро адаптироваться к патчам уязвимостей и эффективно управлять ходом атаки.

Кибератака — это попытка получить несанкционированный доступ к информационной системе или оборудованию для того, чтобы нарушить их работоспособность, похитить, изменить или уничтожить данные.
Подробнее

В ответ на это кибербезопасники тоже применяют искусственный интеллект и машинное обучение для обнаружения угроз и защиты от них. Например, в СберБанке ИИ уже защищает данные клиентов.

Главное преимущество ИИ перед человеком — способность быстро анализировать информацию, особенно когда её много. Кроме того, ИИ способен обучаться на основе полученного опыта — в этом суть машинного обучения.
Вот основные задачи кибербезопасности, которые можно решать с помощью ИИ:

  • Настройка системы информационной безопасности после замены, обновления, изменения конфигурации инфраструктуры.
  • Выполнение рутинных задач, например, настройки устройств пользователей.
  • Анализ информации о пользователе, позволяющий выявлять аномалии и блокировать подозрительные действия.
  • Системы безопасности реагируют на проблемы путём отправки оповещений, которые надо сначала проанализировать, а потом принимать решение. Таких оповещений очень много, и у кибербезопасника «замыливается» глаз. ИИ может маркировать однотипные угрозы — так их проще анализировать. Также его можно научить реагировать на некоторые из них.
  • От того, как быстро кибербезопасники отреагируют на атаку, зависит, удастся ли её предотвратить. ИИ можно научить обнаруживать основные угрозы. Причём, постоянно обучаясь, он делает это всё более точно и даже может предлагать способы реагирования на атаки.
  • Также ИИ может быстро найти общие черты у знакомых и новых атак и предупредить об этом. А значит, у кибербезопасника будет время усилить защиту.
Однако сам ИИ тоже нуждается в защите — ведь если киберпреступникам удастся его взломать, он будет работать неправильно: например, начнёт блокировать нормальную почту и пропускать спам. Также в защите нуждаются данные, с помощью которых осуществляется машинное обучение.

Несомненно, у ИИ множество преимуществ. Ему можно поручить часть задач, а значит, компании не потребуется нанимать новых сотрудников. Кроме того, уже имеющиеся специалисты будут избавлены от утомительной рутинной работы и смогут заниматься чем-то более интересным, повышая свою квалификацию. Важное достоинство ИИ — его способность не уставать и работать 24 часа в сутки.
Примеры угроз и методов защиты
Обман с подменой личности

Исследования показывают, что нет связи между уровнем когнитивных способностей и вероятностью стать жертвой мошенников. Пострадать от рук злоумышленников может практически каждый, вне зависимости от образования, социального положения и возраста.

По подсчётам СберБанка, в течение 2023 г. россияне перевели мошенникам 19 млрд рублей. В 2023 г. доля соотечественников, столкнувшихся с попытками мошенничества, возросла с 82% до 91%.
Один из самых распространённых видов мошенничества — телефонное. Звонки от псевдосотрудников банков или правоохранительных органов за последний год получали около 73% россиян. За первый квартал 2023 г. российские банки сумели заблокировать 2,7 млн попыток мошенничества, благодаря чему предотвратили потерю около 710 млрд рублей клиентами банков. Во втором квартале 2023 г. банки отразили более 6,5 млн атак на счета клиентов. Антифрод-системы кредитных организаций заблокировали операции на сумму 911 млрд рублей. В третьем квартале число отражённых атак на счета клиентов возросло до 10,8 млн а спасённая сумма — 1681 млрд рублей.

Иногда люди не могут понять, как жертва мошенничества не могла заметить подвоха и с такой лёгкостью попалась в ловушку. Они думают, что с ними такого точно не случится. Но на самом деле злоумышленники обманывают всех: не только доверчивых и недостаточно осведомлённых людей, но и знаменитых учёных, психологов, финансовых специалистов и др.

Один из примеров — это обман американского специалиста по физике элементарных частиц Пола Фрэмптона, автора теории вечно пульсирующей Вселенной, книг и нескольких сотен научных публикаций. Несколько месяцев он переписывался с известной моделью, но из-за её напряжённого графика встретиться в США у них не получалось. Однажды она пригласила его увидеться в Боливии, во время очередной фотосессии. К сожалению, они разминулись, и она попросила его забрать забытый ею чемодан. Но при посадке в самолет профессора задержала полиция — в подкладке чемодана нашли 2 кг кокаина. Как оказалось, всё это время с профессором общались мошенники от имени настоящей модели, а она даже не подозревала об этой истории. В итоге учёный был приговорен к 4,5 годам заключения.
"Для того, чтобы помочь вам отличить сгенерированный текст от настоящего, можно воспользоваться специальным ИИ-ботом, который разработали специалисты Сбербанка — он позволяет с высокой вероятностью выявить сгенерированный контент: https://t.me/layer_ai_detector_bot
Дополнительные материалы

Больше материалов, которые помогут вам защищаться от мошенников в эпоху искусственного интеллекта, вы можете найти в Библиотеке знаний по кибербезопасности «Кибрарий».
Скоординированные действия пользователей в онлайн-игре
Цифровая атака искусственного интеллекта
Попытка получить несанкционированный доступ к информационной системе или оборудованию
1. Что такое кибератака?
Попытка получить несанкционированный доступ к информационной системе или оборудованию
Цифровая атака искусственного интеллекта
Скоординированные действия пользователей в онлайн-игре
Использование искусственного интеллекта в мошеннических целях
Ошибка исполнения кода в рамках модели искусственного интеллекта
Метод синтеза контента, основанный на машинном обучении и искусственном интеллекте
2. Что такое DeepFake?
Метод синтеза контента, основанный на машинном обучении и искусственном интеллекте
Ошибка исполнения кода в рамках модели искусственного интеллекта
Использование искусственного интеллекта в мошеннических целях
С помощью специальной маркировки контента
Невозможно распознать на текущем уровне развития технологий
По совокупности некоторых наблюдаемых признаков: неестественные искажения изображения, нерегулярные моргания, неравномерное освещение, нечеткие границы элементов и др.
Для этого есть специальные программы
3. Как можно распознать DeepFake?
Для этого есть специальные программы
По совокупности некоторых наблюдаемых признаков: неестественные искажения изображения, нерегулярные моргания, неравномерное освещение, нечеткие границы элементов и др.
Невозможно распознать на текущем уровне развития технологий
С помощью специальной маркировки контента