我們向網絡安全專家詢問了他們對 2026 年的預測
已發表: 2026-01-22當我們進入新的一年時,網絡安全的打擊不斷出現。首先,最近的一份報告發現, 48% 的網絡安全領導者在過去一年中未能報告數據洩露事件,部分原因是擔心受到懲罰性反應。
與此同時,美國國防部於 2025 年 10 月表示,計劃削減多種類型的網絡安全培訓,包括一位專家稱之為“至關重要”的年度培訓。
我們希望與廣泛的技術專家和高管進行交流,看看我們是否能夠弄清楚 2026 年 IT 團隊的發展趨勢。
人工智能仍然是最熱門的技術,因此我們的大多數回答都在猜測人工智能將如何影響數字安全,這並不奇怪。請繼續閱讀,提前了解最有趣的趨勢,從影子人工智能挑戰到自主代理再到人工智能驅動的惡意軟件。
2026 年主要網絡安全預測:
- IT 系統比以往任何時候都更需要可觀察性和可見性
- 人工智能必須被歸因——否則就有被誤認為妥協的風險
- 影子人工智能的崛起
- 對人工智能創建的軟件進行監管審查
- 網絡安全成為核心數據能力
- 人工智能惡意軟件今年將激增
IT 系統比以往任何時候都更需要可觀察性和可見性
高可用性 (HA) 一詞是指幾乎始終可訪問且可靠使用的 IT 系統。我們的目標是盡可能接近 100% 可靠,而到 2026 年,這個目標比以往任何時候都更加困難。
SIOS Technology Corp. 客戶體驗副總裁 Cassius Rhue 表示,可觀察性和可見性對於保持複雜 IT 環境的正常運行至關重要。為什麼現在可見性如此重要?現代工作的蔓延。
“隨著 IT 基礎設施在本地、雲、混合和多雲環境中擴展,應用程序性能和運行狀況以及 IT 堆棧元素的相互依賴性的可見性將變得至關重要,”Rhue 說。
“到 2026 年,可觀察性將成為 HA 解決方案的關鍵差異化因素,使 IT 團隊能夠在問題影響正常運行時間之前識別並解決問題。” -Cassius Rhue,SIOS Technology Corp. 客戶體驗副總裁
Rhue 告訴我們,今年最成功的 HA 平台將是那些能夠提供從硬件到應用層的整個堆棧的深入洞察的平台。
人工智能必須被歸因——否則就有被誤認為妥協的風險
下面是一個適合您的場景:您的 IT 團隊在其環境中發現了一個沒有人明確創建且無法解釋的身份。
直到幾年前,這還是一個明顯的跡象,表明您的安全已被破壞。然而今天,這可能只是意味著你沒有跟踪人工智能代理在做什麼,它通過其自主工作流程創建了身份。
“這帶來了歸因方面的挑戰,”安全平台公司 Permiso 的聯合創始人兼聯合首席執行官 Paul Nguyen 表示。
“當身份表現可疑時,安全團隊需要確定:這是合法的自主行為還是妥協?如果沒有明確的歸屬(人員所有者、審批鏈、業務理由),這一確定就會變得困難。”
Nguyen 預計,組織將開始實施歸因跟踪,以跟踪人工智能生成的身份。人工智能代理需要記錄他們的決策,並用他們的名字、時間戳和業務理由來標記他們的創作。
“到 2026 年底,身份歸因將成為安全代理 AI 部署的先決條件。” ——Paul Nguyen,Permiso 聯合創始人兼聯合首席執行官
如果沒有這項額外的規定,安全團隊將無法獲得他們完成工作所需的審計跟踪。
影子人工智能的崛起
“影子人工智能”一詞是指任何未經授權的員工在工作過程中使用人工智能工具。人工智能工作為公司提供動力,但公司不知道工具的類型、花費的時間或其他變量。
不用說,影子人工智能的使用對公司來說並不是好消息,這是一個大問題,促使公司在過去幾年中調整人工智能政策,讓員工知道什麼是允許的,什麼是不允許的。
Diligent 首席信息安全官莫妮卡·蘭登 (Monica Landen) 預測,儘管影子人工智能帶來了重大的治理和安全風險,但它仍將在新的一年繼續紮根。
Landen 表示:“隨著人工智能投資的激增,預計到 2026 年將增加 40%,組織必須採取積極措施來減輕這些安全風險,並確保其員工隊伍符合組織的人工智能政策。”
企業如何應對這個問題?蘭登建議人工智能治理政策、教育員工了解人工智能使用風險和收益的課程,以及監控人工智能使用的努力。
如需幫助,請參閱我們的如何創建人工智能策略指南
對人工智能創建的軟件進行監管審查
Sonatype 首席執行官 Bhagwat Swaroop 表示:“2025 年證明人工智能可以比以往更快地編寫代碼,但不一定更安全。”
Swaroop 標記的一些人工智能驅動的網絡安全問題包括未經驗證的依賴項、過時的軟件包以及傳統測試無法發現的安全漏洞。添加影子人工智能,安全構建是一個比以往更大的挑戰。
回應?推動法學碩士或人工智能代理開發的軟件具有更大的透明度,並且需要更多的監管。
Swaroop 預測:“人工智能物料清單將進入 C 級對話,”而“歐盟人工智能法案和網絡彈性法案將推動軟件開發的完全透明度,包括人工智能生成的內容。”
組織可以通過跟踪代碼來源並驗證整個開發生命週期的模型輸入來做好準備。
網絡安全成為核心數據能力
Ocient 首席執行官約翰·莫里斯 (John Morris) 認為人工智能影響網絡安全的另一種方式是:人工智能實時分析推動的指數級增長的數據負載將把網絡安全推向“關鍵拐點”。
組織需要努力升級其基礎設施,以處理這些高速數據環境。
“公司將開始將網絡安全視為核心數據能力,而不僅僅是 IT 問題。到 2026 年,保護數據就意味著保護業務。隨著數據負載滾雪球般增加,大規模保護數據的緊迫性也隨之增加。” ——約翰·莫里斯,Ocient 首席執行官
我們希望企業能夠注意到這一警告:在數據使用量猛增、每次新系統集成都會出現威脅的世界中,必須優先考慮網絡安全戰略。
人工智能惡意軟件今年將激增
軟件世界的不良行為者也將在 2026 年投資人工智能:根據 LastPass 網絡威脅情報分析師 Stephanie Schneider 的說法,今年越來越多的威脅行為者將在主動行動中部署支持人工智能的惡意軟件。
谷歌的威脅情報團隊發現,這種類型的惡意軟件可以“生成腳本、更改代碼以避免檢測,並根據需要創建惡意功能”,施耐德解釋道。
她補充道:“國家行為者已經使用人工智能驅動的惡意軟件來實時調整、改變和調整活動,隨著技術的不斷發展,這些活動預計會得到改進。”
由於惡意技術在來年只會變得更加強大,這是網絡防御者將面臨充滿挑戰的威脅形勢的另一個跡象。
我們每年都會這麼說,但到 2026 年仍然如此:網絡安全團隊將繼續在不斷升級的軍備競賽中與威脅行為者競爭。人工智能可能是一種強大的工具,但它只是世界各地 IT 環境面臨的一系列威脅中的最新一個。

