Am cerut experților în securitate cibernetică previziunile lor pentru 2026
Publicat: 2026-01-22Hiturile continuă să vină pentru securitatea cibernetică pe măsură ce ne îndreptăm spre un nou an. Pentru început, un raport a constatat recent că 48% dintre liderii securității cibernetice nu au raportat încălcări ale datelor în ultimul an, în parte din cauza temerilor de răspunsuri punitive.
În același timp, Departamentul de Apărare al SUA a declarat în octombrie 2025 că intenționează să reducă mai multe tipuri de instruire în domeniul securității cibernetice, inclusiv formarea anuală pe care un expert a numit-o „critică”.
Am vrut să ne întâlnim cu o gamă largă de experți în tehnologie și directori C-Suite pentru a vedea dacă ne putem da seama ce se va întâmpla cu echipele IT în 2026.
Inteligența artificială continuă să fie cea mai populară tehnologie din jur, așa că nu este de mirare că marea majoritate a răspunsurilor noastre au ghicit modul în care AI ar avea impact asupra securității digitale. Citiți în continuare pentru a afla din timp despre cele mai interesante tendințe, de la provocări umbra AI la agenți autonomi la malware alimentat de AI.
Principalele previziuni de securitate cibernetică pentru 2026:
- Sistemele IT vor avea nevoie de observabilitate și vizibilitate mai mult ca niciodată
- AI trebuie atribuită sau riscă să fie confundată cu compromis
- The Rise of Shadow AI
- Controlul de reglementare vine pentru software-ul creat de AI
- Securitatea cibernetică devine o competență de bază de date
- Programele malware compatibile cu inteligența artificială vor crește în acest an
Sistemele IT vor avea nevoie de observabilitate și vizibilitate mai mult ca niciodată
Termenul de înaltă disponibilitate, sau HA, se referă la un sistem IT care este aproape întotdeauna accesibil și fiabil pentru utilizare. Scopul este să fim cât mai aproape de 100% de încredere, iar în 2026, acest obiectiv va fi mai greu ca niciodată.
Potrivit lui Cassius Rhue, vicepreședinte al experienței clienților la SIOS Technology Corp., observabilitatea și vizibilitatea vor fi esențiale pentru menținerea în funcțiune a mediilor IT complexe. De ce este vizibilitatea atât de importantă în zilele noastre? Extinderea totală a muncii moderne.
„Pe măsură ce infrastructurile IT se extind în medii on-premise, cloud, hibride și multi-cloud, vizibilitatea asupra performanței aplicațiilor și a stării de sănătate și a interdependențelor elementelor stivei IT vor deveni critice pentru misiune”, spune Rhue.
„În 2026, observabilitatea va apărea ca diferențiere cheie pentru soluțiile HA, permițând echipelor IT să identifice și să rezolve problemele înainte ca acestea să afecteze timpul de funcționare.” -Cassius Rhue, vicepreședinte al experienței clienților la SIOS Technology Corp.
Anul acesta, ne spune Rhue, cele mai de succes platforme HA vor fi cele care oferă informații profunde în întreaga stivă, de la hardware la nivelul aplicației.
AI trebuie atribuită sau riscă să fie confundată cu compromis
Iată un scenariu pentru tine: echipa ta IT descoperă o identitate în mediile sale pe care nimeni nu a creat-o în mod explicit și nu poate fi luată în considerare.
Până acum câțiva ani, acesta era un semn evident că securitatea dvs. a fost încălcată. Astăzi, totuși, s-ar putea să însemne doar că nu ați urmărit ce făcea un agent AI și a creat identitatea datorită fluxului său de lucru autonom.
„Acest lucru creează provocări de atribuire”, spune Paul Nguyen, co-fondator și co-CEO al companiei de platforme de securitate Permiso.
"Când o identitate se comportă suspect, echipele de securitate trebuie să stabilească: este acest comportament autonom legitim sau este compromis? Fără o atribuire clară (proprietar uman, lanț de aprobare, justificare de afaceri), această determinare devine dificilă."
Nguyen prevede că organizațiile vor începe să implementeze urmărirea atribuirii pentru a urmări identitățile generate de AI. Agenții AI vor trebui să își înregistreze deciziile și să-și eticheteze creațiile cu numele, marcajul de timp și justificarea afacerii.
„Până la sfârșitul anului 2026, atribuirea identității devine o condiție prealabilă pentru implementarea securizată a AI agentic.” -Paul Nguyen, co-fondator și co-CEO al Permiso
Fără această reglementare suplimentară, echipele de securitate nu vor avea pistele de audit de care vor avea nevoie din ce în ce mai mult pentru a-și face treaba.
The Rise of Shadow AI
Termenul „ IA din umbră ” se referă la orice utilizare neautorizată a instrumentelor AI de către angajat în procesul de a-și face treaba. Lucrarea cu inteligența artificială alimentează compania, dar compania nu este conștientă de tipul de instrument, timpul petrecut sau alte variabile.

Inutil să spunem că utilizarea IA din umbră nu este o veste bună pentru o companie și este o mare îngrijorare care a determinat companiile să adapteze politicile AI în ultimii ani, pentru a le informa angajaților ce este și ce nu este permis.
Monica Landen, CISO la Diligent, prezice că IA din umbră va continua să prindă rădăcini pe parcursul noului an, în ciuda riscurilor semnificative de guvernanță și securitate pe care le prezintă.
„Pe măsură ce investițiile în IA cresc, cu o creștere estimată de 40% în 2026, organizațiile trebuie să ia măsuri proactive pentru a atenua aceste riscuri de securitate și să se asigure că forța de muncă este aliniată cu politicile organizaționale de AI”, spune Landen.
Cum pot companiile să combată această problemă? Landen recomandă politici de guvernare a AI, lecții pentru a educa angajații cu privire la riscurile și beneficiile utilizării AI și eforturile de monitorizare a utilizării AI.
Pentru o mână de ajutor, consultați ghidul nostru despre Cum să creați o politică AI
Controlul de reglementare vine pentru software-ul creat de AI
„2025 a dovedit că AI poate scrie cod mai repede decât oricând, dar nu neapărat mai sigur”, notează Bhagwat Swaroop, CEO al Sonatype.
Unele dintre preocupările legate de securitatea cibernetică bazate pe inteligență artificială că semnalizatoarele Swaroop includ dependențe neverificate, pachete învechite și lacune de securitate pe care testarea tradițională nu le va detecta. Adăugați AI în umbră și construirea în siguranță este o provocare mai mare ca niciodată.
Răspunsul? Un impuls pentru o mai mare transparență în ceea ce privește software-ul care a fost dezvoltat de LLM sau agenți AI și unul care vine cu mai multe reglementări.
„Biblioanele AI vor intra în conversațiile de nivel C”, prezice Swaroop, în timp ce „Legea UE AI și Actul Cyber Resilience vor face eforturi pentru transparență deplină în dezvoltarea software-ului, inclusiv conținutul generat de AI”.
Organizațiile se pot pregăti prin urmărirea provenienței codului și validând intrările modelului pe parcursul ciclurilor de viață de dezvoltare.
Securitatea cibernetică devine o competență de bază de date
John Morris, CEO al Ocient, are încă o altă modalitate prin care AI va afecta securitatea cibernetică: încărcările de date în creștere exponențială alimentate de analizele în timp real ale AI vor împinge securitatea cibernetică la un „punct critic de inflexiune”, spune el.
Organizațiile vor trebui să se grăbească pentru a-și moderniza infrastructura pentru a gestiona aceste medii de date de mare viteză.
"Companiile vor începe să trateze securitatea cibernetică ca pe o competență de bază a datelor, nu doar ca o preocupare IT. În 2026, protejarea datelor înseamnă protejarea afacerii. Pe măsură ce datele se încarcă bulgări de zăpadă, la fel va crește și urgența de a le securiza la scară." – John Morris, CEO al Ocient
Să sperăm că companiile vor ține seama de acest avertisment: strategiile de securitate cibernetică trebuie să aibă prioritate într-o lume în care utilizarea datelor este vertiginoasă și amenințările apar cu fiecare nouă integrare de sistem.
Programele malware compatibile cu inteligența artificială vor crește în acest an
Actorii răi ai lumii software vor investi și în AI în 2026: Potrivit analistului LastPass Cyber Threat Intelligence, Stephanie Schneider, tot mai mulți actori de amenințări vor implementa malware activat de AI în operațiunile active în acest an.
Echipa Google Threat Intelligence a descoperit că acest tip de malware poate „genera scripturi, modifica coduri pentru a evita detectarea și poate crea funcții rău intenționate la cerere”, explică Schneider.
„Actorii statelor naționale au folosit programe malware bazate pe inteligență artificială pentru a adapta, modifica și pivota campaniile în timp real și se așteaptă ca aceste campanii să se îmbunătățească pe măsură ce tehnologia continuă să se dezvolte”, adaugă ea.
Având în vedere că tehnologia rău intenționată va deveni mai puternică în anul care vine, este un alt semn că apărătorii cibernetici vor avea de navigat un peisaj de amenințări provocator.
O spunem în fiecare an, dar este valabil și în 2026: echipele de securitate cibernetică continuă să concureze cu actorii amenințărilor într-o cursă înarmărilor în continuă creștere. AI poate fi un instrument puternic, dar este doar cel mai recent dintr-un lung șir de amenințări la adresa mediilor IT de pretutindeni.
