Как ИИ продолжит влиять на кибербезопасность в 2024 году

Как ИИ продолжит влиять на кибербезопасность в 2024 году


На фоне стремительного технологического прогресса и изменений в обществе термин «искусственный интеллект» прочно занял место в авангарде глобальных дискуссий. По мере распространения этой технологии люди все чаще сталкиваются с проблемами конфиденциальности, что делает невозможным рассмотрение ИИ в отрыве от сферы кибербезопасности. Эксперты «Лаборатории Касперского» попытались спрогнозировать последствия стремительного развития искусственного интеллекта.

Более сложные уязвимости. По мере того как большие языковые модели (LLM), выполняющие инструкции, будут интегрироваться во всё большее количество продуктов и сервисов, на стыке вероятностного генеративного ИИ и традиционных детерминированных технологий будут возникать новые, сложные уязвимости. В результате количество сценариев атак, которые должны предусмотреть ИБ-специалисты, вырастет. Это потребует от экспертов внедрения новых мер безопасности.

Появление полнофункционального ИИ-ассистента для специалистов по кибербезопасности. Генеративный ИИ используется для создания инновационных инструментов кибербезопасности, что в перспективе может привести к созданию помощника, использующего большие языковые модели (LLM) и другие технологии машинного обучения (ML). Этот инструмент может предлагать рекомендации на основе выполненных команд при проведении пентестов.

Мошенники всё чаще будут использовать нейронные сети для создания изображений и видео. В 2024 году злоумышленники могут чаще применять нейросети для создания убедительного контента. Как следствие, попытки мошенничества могут стать более изощрёнными, что приведёт к росту числа атак и их жертв.

В 2024 году генеративный ИИ не внесет существенных изменений в ландшафт угроз. Несмотря на вышеперечисленные тенденции, эксперты «Лаборатории Касперского» по-прежнему скептически относятся к тому, что ИИ в ближайшее время существенно изменит ландшафт угроз. Хотя злоумышленники и используют генеративный ИИ, то же делают и специалисты в области кибербезопасности, которые будут применять те же или даже более продвинутые инструменты для проверки безопасности программного обеспечения и сетей, поэтому в результате ландшафт угроз вряд ли кардинально изменится.

В выработке норм и практик, связанных с ИИ, важную роль будут играть частные компании.Негосударственные организации, в особенности корпорации, будут играть решающую роль в формировании норм и практик, связанных с ИИ. Обладая обширным опытом в разработке и использовании искусственного интеллекта, негосударственные структуры способны внести неоценимый вклад в обсуждение вопросов регулирования ИИ как на международном, так и на национальном уровне. Законодатели по всему миру уже используют эти знания, активно вовлекая бизнес и учёных в процесс разработки стратегий регулирования в сфере ИИ.

Маркировка контента, созданного искусственным интеллектом. Будет появляться всё больше нормативных актов, требующих явно идентифицировать сгенерированный с помощью ИИ контент. Поставщики цифровых сервисов также будут включать это требование в свои политики и продолжат инвестировать в технологии распознавания такого контента. Разработчики и исследователи, со своей стороны, будут участвовать в создании методов маркировки сгенерированного ИИ медиаконтента для облегчения его идентификации и определения источника происхождения.

«Как и любое технологическое достижение, наряду с захватывающими возможностями генеративный ИИ привносит в нашу жизнь и новые риски. Хотя злоумышленники активно осваивают новые технологии, вряд ли это кардинально изменит ландшафт атак в 2024 году. Во многих случаях новые инструменты ещё недостаточно хороши или просты в применении», — комментирует Владислав Тушканов, руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского».