Мы спросили у экспертов по кибербезопасности их прогнозы на 2026 год
Опубликовано: 2026-01-22В преддверии нового года продолжают поступать удары по кибербезопасности. Во-первых, недавно в одном отчете было обнаружено, что 48% руководителей кибербезопасности не сообщили об утечках данных в прошлом году, отчасти из-за опасений карательных мер.
В то же время министерство обороны США заявило в октябре 2025 года, что планирует сократить несколько видов обучения кибербезопасности, включая ежегодное обучение, которое один эксперт назвал «критическим».
Мы хотели связаться с широким кругом технических экспертов и руководителей высшего звена, чтобы узнать, сможем ли мы выяснить, что ждет ИТ-команды в 2026 году.
Искусственный интеллект по-прежнему остается самой обсуждаемой технологией, поэтому неудивительно, что подавляющее большинство наших ответов предполагали, как ИИ повлияет на цифровую безопасность. Читайте дальше, чтобы заранее узнать о наиболее интересных тенденциях: от теневых задач ИИ до автономных агентов и вредоносных программ на базе ИИ.
Лучшие прогнозы по кибербезопасности на 2026 год:
- ИТ-системам понадобится наблюдаемость и прозрачность больше, чем когда-либо
- ИИ должен быть приписан – иначе он рискует быть ошибочно принят за компромисс
- Восстание тени ИИ
- Нормативное регулирование касается программного обеспечения, созданного ИИ
- Кибербезопасность становится основной компетенцией в области данных
- В этом году вырастет количество вредоносных программ с поддержкой искусственного интеллекта
ИТ-системам понадобится наблюдаемость и прозрачность больше, чем когда-либо
Термин «высокая доступность» или HA относится к ИТ-системе, которая почти всегда доступна и надежна для использования. Цель состоит в том, чтобы надежность была как можно ближе к 100%, и в 2026 году эта цель станет сложнее, чем когда-либо.
По словам Кассиуса Рю, вице-президента по обслуживанию клиентов SIOS Technology Corp., наблюдаемость и видимость будут иметь важное значение для поддержания работоспособности сложных ИТ-сред. Почему видимость так важна в наши дни? Полное разрастание современной работы.
«Поскольку ИТ-инфраструктуры расширяются за счет локальных, облачных, гибридных и мультиоблачных сред, прозрачность производительности и работоспособности приложений, а также взаимозависимостей элементов ИТ-стека станет критически важной», — говорит Рю.
«В 2026 году наблюдаемость станет ключевым отличием решений высокой доступности, позволяя ИТ-командам выявлять и решать проблемы до того, как они повлияют на время безотказной работы». -Кассиус Рю, вице-президент по работе с клиентами в SIOS Technology Corp.
В этом году, говорит нам Рю, наиболее успешными платформами высокой доступности будут те, которые обеспечивают глубокую аналитику по всему стеку — от аппаратного обеспечения до уровня приложений.
ИИ должен быть приписан – иначе он рискует быть ошибочно принят за компромисс
Вот сценарий для вас: ваша ИТ-команда обнаруживает в своих средах личность, которую никто явно не создавал и которую невозможно учесть.
Еще несколько лет назад это было очевидным признаком того, что ваша безопасность была нарушена. Однако сегодня это может просто означать, что вы не отслеживали, чем занимается агент ИИ, и он создал личность благодаря своему автономному рабочему процессу.
«Это создает проблемы с атрибуцией», — говорит Пол Нгуен, соучредитель и со-генеральный директор компании Permiso, занимающейся платформами безопасности.
"Когда личность ведет себя подозрительно, группам безопасности необходимо определить: является ли это законным автономным поведением или это компрометация? Без четкой атрибуции (владельца человека, цепочки одобрения, бизнес-обоснования) такое определение становится затруднительным".
Нгуен прогнозирует, что организации начнут внедрять отслеживание атрибуции для отслеживания идентификационных данных, сгенерированных ИИ. Агентам ИИ необходимо будет регистрировать свои решения и помечать свои творения своим именем, отметкой времени и бизнес-обоснованием.
«К концу 2026 года атрибуция личности станет обязательным условием для безопасного развертывания агентов ИИ». -Пол Нгуен, соучредитель и со-генеральный директор Permiso
Без этого дополнительного регулирования у групп безопасности не будет контрольных журналов, которые им все чаще понадобятся для выполнения своей работы.
Восстание тени ИИ
Термин « теневой ИИ » относится к любому несанкционированному использованию сотрудниками инструментов ИИ в процессе выполнения своей работы. Работа ИИ дает компании энергию, но компания не знает о типе инструмента, затраченном времени или других переменных.

Излишне говорить, что использование теневого ИИ не является хорошей новостью для компании, и это серьезная проблема, которая заставила компании адаптировать политику ИИ за последние несколько лет, чтобы дать своим сотрудникам знать, что разрешено, а что нет.
Моника Ланден, директор по информационной безопасности компании Diligent, прогнозирует, что теневой искусственный интеллект продолжит укореняться в новом году, несмотря на значительные риски для управления и безопасности, которые он создает.
«Поскольку инвестиции в искусственный интеллект растут, а прогнозируемый рост составит 40% в 2026 году, организации должны принять активные меры для смягчения этих рисков безопасности и обеспечить соответствие своих сотрудников организационным политикам в области искусственного интеллекта», — говорит Ланден.
Как компании могут решить эту проблему? Ланден рекомендует политику управления ИИ, уроки для обучения сотрудников рискам и преимуществам использования ИИ, а также усилия по мониторингу использования ИИ.
Дополнительную информацию см. в нашем руководстве «Как создать политику ИИ».
Нормативное регулирование касается программного обеспечения, созданного ИИ
«2025 год доказал, что ИИ может писать код быстрее, чем когда-либо, но не обязательно безопаснее», — отмечает Бхагват Сваруп, генеральный директор Sonatype.
Некоторые из проблем кибербезопасности, вызванных искусственным интеллектом, которые помечает Swaroop, включают непроверенные зависимости, устаревшие пакеты и бреши в безопасности, которые традиционное тестирование не выявляет. Добавьте к этому теневой искусственный интеллект, и создание безопасных систем станет более сложной задачей, чем когда-либо.
Ответ? Стремление к большей прозрачности программного обеспечения, которое было разработано LLM или агентами искусственного интеллекта и которое требует большего регулирования.
«Спецификации материалов ИИ будут обсуждаться на уровне руководителей», — прогнозирует Сваруп, в то время как «Закон ЕС об искусственном интеллекте и Закон о киберустойчивости будут способствовать полной прозрачности в разработке программного обеспечения, включая контент, генерируемый ИИ».
Организации могут подготовиться, отслеживая происхождение кода и проверяя входные данные модели на протяжении жизненного цикла разработки.
Кибербезопасность становится основной компетенцией в области данных
У Джона Морриса, генерального директора Ocient, есть еще один способ влияния ИИ на кибербезопасность: экспоненциально растущие объемы данных, вызванные анализом ИИ в реальном времени, подтолкнут кибербезопасность к «критической точке перегиба», говорит он.
Организациям придется срочно модернизировать свою инфраструктуру, чтобы справиться с этими средами высокоскоростных данных.
"Компании начнут относиться к кибербезопасности как к основной компетенции в области данных, а не только к ИТ-задаче. В 2026 году защита данных означает защиту бизнеса. По мере того, как нагрузка на данные будет расти как снежный ком, будет возрастать и необходимость их защиты в масштабе". – Джон Моррис, генеральный директор Ocient
Будем надеяться, что компании прислушаются к этому предупреждению: стратегии кибербезопасности должны быть приоритетными в мире, где использование данных стремительно растет, а угрозы возникают с каждой новой системной интеграцией.
В этом году вырастет количество вредоносных программ с поддержкой искусственного интеллекта
Злоумышленники из мира программного обеспечения также будут инвестировать в ИИ в 2026 году: по словам аналитика LastPass по киберугрозам Стефани Шнайдер, в этом году все больше и больше злоумышленников будут использовать вредоносное ПО с поддержкой ИИ в активных операциях.
Команда Google по анализу угроз обнаружила, что этот тип вредоносного ПО может «генерировать сценарии, изменять коды, чтобы избежать обнаружения, и создавать вредоносные функции по требованию», — объясняет Шнайдер.
«Государственные субъекты использовали вредоносное ПО на базе искусственного интеллекта для адаптации, изменения и поворота кампаний в режиме реального времени, и ожидается, что эти кампании будут улучшаться по мере дальнейшего развития технологий», — добавляет она.
Учитывая, что в следующем году вредоносная технология станет еще более мощной, это еще один признак того, что киберзащитникам придется ориентироваться в сложной среде угроз.
Мы говорим это каждый год, но это по-прежнему актуально и в 2026 году: команды по кибербезопасности продолжают конкурировать с субъектами угроз в постоянно обостряющейся гонке вооружений. ИИ может быть мощным инструментом, но это лишь последняя из длинной череды угроз ИТ-среде во всем мире.
