Abbiamo chiesto agli esperti di sicurezza informatica le loro previsioni per il 2026

Pubblicato: 2026-01-22

I successi continuano ad arrivare per la sicurezza informatica mentre ci avviciniamo al nuovo anno. Tanto per cominciare, un rapporto ha recentemente rilevato che il 48% dei leader della sicurezza informatica non ha segnalato violazioni dei dati nell’ultimo anno, in parte a causa del timore di risposte punitive.

Allo stesso tempo, il Dipartimento della Difesa degli Stati Uniti ha dichiarato nell’ottobre 2025 che intende ridurre diversi tipi di formazione sulla sicurezza informatica, inclusa la formazione annuale che un esperto ha definito “critica”.

Volevamo confrontarci con un'ampia gamma di esperti tecnologici e dirigenti di alto livello per vedere se riuscivamo a capire cosa accadrà ai team IT nel 2026.

L’intelligenza artificiale continua a essere la tecnologia più in voga in circolazione, quindi non sorprende che la maggior parte delle nostre risposte si basasse su ipotesi sull’impatto che l’intelligenza artificiale avrebbe avuto sulla sicurezza digitale. Continua a leggere per conoscere in anticipo le tendenze più interessanti, dalle sfide dell'IA ombra agli agenti autonomi fino al malware basato sull'intelligenza artificiale.

Principali previsioni sulla sicurezza informatica per il 2026:

  • I sistemi IT avranno bisogno più che mai di osservabilità e visibilità
  • L’intelligenza artificiale deve essere attribuita, altrimenti si rischia di essere scambiati per compromesso
  • L'ascesa dell'intelligenza artificiale dell'ombra
  • Il controllo normativo arriva per il software creato dall'intelligenza artificiale
  • La sicurezza informatica diventa una competenza fondamentale sui dati
  • Quest’anno aumenteranno i malware basati sull’intelligenza artificiale

I sistemi IT avranno bisogno più che mai di osservabilità e visibilità

Il termine alta disponibilità, o HA, si riferisce a un sistema IT che è quasi sempre accessibile e affidabile per l'uso. L'obiettivo è essere affidabili il più vicino possibile al 100% e nel 2026 questo obiettivo è più difficile che mai.

Secondo Cassius Rhue, Vice President of Customer Experience presso SIOS Technology Corp., l'osservabilità e la visibilità saranno essenziali per mantenere attivi e funzionanti ambienti IT complessi. Perché la visibilità è così importante oggigiorno? La pura espansione del lavoro moderno.

“Man mano che le infrastrutture IT si espandono in ambienti on-premise, cloud, ibridi e multi-cloud, la visibilità sulle prestazioni e sullo stato delle applicazioni e sulle interdipendenze degli elementi dello stack IT diventerà fondamentale”, afferma Rhue.

“Nel 2026, l’osservabilità emergerà come un elemento chiave di differenziazione per le soluzioni HA, consentendo ai team IT di identificare e risolvere i problemi prima che incidano sui tempi di attività”. -Cassius Rhue, Vicepresidente dell'esperienza del cliente presso SIOS Technology Corp.

Quest'anno, ci dice Rhue, le piattaforme HA di maggior successo saranno quelle che forniranno insight approfonditi sull'intero stack, dall'hardware al livello applicativo.

L’intelligenza artificiale deve essere attribuita, altrimenti si rischia di essere scambiati per compromesso

Ecco uno scenario per te: il tuo team IT scopre nei suoi ambienti un'identità che nessuno ha creato esplicitamente e di cui non è possibile tenere conto.

Fino a qualche anno fa, questo era un segno evidente che la tua sicurezza era stata violata. Oggi, tuttavia, potrebbe significare semplicemente che non hai tenuto traccia di ciò che faceva un agente AI e ha creato l'identità grazie al suo flusso di lavoro autonomo.

“Ciò crea sfide di attribuzione”, afferma Paul Nguyen, co-fondatore e co-CEO della società di piattaforme di sicurezza Permiso.

"Quando un'identità si comporta in modo sospetto, i team di sicurezza devono determinare: si tratta di un comportamento autonomo legittimo o è compromesso? Senza una chiara attribuzione (proprietario umano, catena di approvazione, giustificazione aziendale), questa determinazione diventa difficile."

Nguyen prevede che le organizzazioni inizieranno a implementare il monitoraggio dell’attribuzione per tenere traccia delle identità generate dall’intelligenza artificiale. Gli agenti IA dovranno registrare le loro decisioni e taggare le loro creazioni con il nome, il timestamp e la giustificazione aziendale.

“Entro la fine del 2026, l’attribuzione dell’identità diventerà un prerequisito per l’implementazione sicura dell’intelligenza artificiale degli agenti”. -Paul Nguyen, co-fondatore e co-CEO di Permiso

Senza questa regolamentazione aggiuntiva, i team di sicurezza non avranno le tracce di controllo di cui avranno sempre più bisogno per svolgere il proprio lavoro.

L'ascesa dell'intelligenza artificiale dell'ombra

Il termine “ IA ombra ” si riferisce a qualsiasi utilizzo non autorizzato da parte dei dipendenti di strumenti di intelligenza artificiale durante lo svolgimento del proprio lavoro. Il lavoro dell'intelligenza artificiale sta alimentando l'azienda, ma l'azienda non è consapevole del tipo di strumento, del tempo impiegato o di altre variabili.

Inutile dire che l’uso dell’intelligenza artificiale ombra non è una buona notizia per un’azienda, ed è una grande preoccupazione che ha spinto le aziende ad adattare le politiche sull’intelligenza artificiale negli ultimi anni, per far sapere ai propri dipendenti cosa è consentito e cosa non è consentito.

Monica Landen, CISO di Diligent, prevede che l’intelligenza artificiale ombra continuerà a mettere radici nel nuovo anno, nonostante i significativi rischi in termini di governance e sicurezza che comporta.

“Mentre gli investimenti nell’intelligenza artificiale aumentano, con un aumento previsto del 40% nel 2026, le organizzazioni devono adottare misure proattive per mitigare questi rischi per la sicurezza e garantire che la loro forza lavoro sia allineata con le politiche organizzative sull’intelligenza artificiale”, afferma Landen.

Come possono le aziende contrastare questo problema? Landen raccomanda politiche di governance dell’IA, lezioni per educare i dipendenti sui rischi e i benefici dell’uso dell’IA e sforzi per monitorare l’uso dell’IA.

Per una mano, consulta la nostra guida su Come creare una policy AI

Il controllo normativo arriva per il software creato dall'intelligenza artificiale

“Il 2025 ha dimostrato che l’intelligenza artificiale può scrivere codice più velocemente che mai, ma non necessariamente in modo più sicuro”, osserva Bhagwat Swaroop, CEO di Sonatype.

Alcuni dei problemi di sicurezza informatica basati sull'intelligenza artificiale segnalati da Swaroop includono dipendenze non verificate, pacchetti obsoleti e lacune di sicurezza che i test tradizionali non riescono a rilevare. Aggiungi l'intelligenza artificiale ombra e costruire in sicurezza sarà una sfida più grande che mai.

La risposta? Una spinta per una maggiore trasparenza sul software sviluppato da LLM o agenti di intelligenza artificiale e che comporta una maggiore regolamentazione.

“Le distinte materiali dell’intelligenza artificiale entreranno nelle conversazioni di livello C”, prevede Swaroop, mentre “l’EU AI Act e il Cyber ​​Resilience Act spingeranno per la piena trasparenza nello sviluppo del software, compresi i contenuti generati dall’intelligenza artificiale”.

Le organizzazioni possono prepararsi monitorando la provenienza del codice e convalidando gli input del modello durante i cicli di vita dello sviluppo.

La sicurezza informatica diventa una competenza fondamentale sui dati

John Morris, CEO di Ocient, ha un altro modo in cui l'intelligenza artificiale avrà un impatto sulla sicurezza informatica: i carichi di dati in crescita esponenziale alimentati dalle analisi in tempo reale dell'intelligenza artificiale spingeranno la sicurezza informatica verso un "punto di svolta critico", afferma.

Le organizzazioni dovranno affrettarsi ad aggiornare la propria infrastruttura per gestire questi ambienti di dati ad alta velocità.

"Le aziende inizieranno a considerare la sicurezza informatica come una competenza fondamentale dei dati, non solo come una preoccupazione dell'IT. Nel 2026, proteggere i dati significa proteggere l'azienda. Man mano che il caricamento dei dati aumenta, aumenta anche l'urgenza di proteggerli su larga scala." – John Morris, amministratore delegato di Ocient

Speriamo che le aziende prestino attenzione a questo avvertimento: le strategie di sicurezza informatica devono avere la priorità in un mondo in cui l’utilizzo dei dati è alle stelle e le minacce emergono con ogni nuova integrazione di sistema.

Quest’anno aumenteranno i malware basati sull’intelligenza artificiale

Anche i malintenzionati del mondo del software investiranno nell’intelligenza artificiale nel 2026: secondo Stephanie Schneider, analista di Cyber ​​Threat Intelligence di LastPass, quest’anno sempre più autori di minacce implementeranno malware abilitato all’intelligenza artificiale nelle operazioni attive.

Il team Threat Intelligence di Google ha scoperto che questo tipo di malware può "generare script, alterare codici per evitare il rilevamento e creare funzioni dannose su richiesta", spiega Schneider.

“Gli attori degli stati-nazione hanno utilizzato malware basato sull’intelligenza artificiale per adattare, modificare e orientare le campagne in tempo reale, e si prevede che queste campagne miglioreranno man mano che la tecnologia continua a svilupparsi”, aggiunge.

Con la tecnologia dannosa destinata a diventare sempre più potente nel corso del prossimo anno, è un altro segno che i difensori informatici avranno un panorama di minacce impegnativo da affrontare.

Lo diciamo ogni anno, ma è ancora vero nel 2026: i team di sicurezza informatica continuano a competere con gli autori delle minacce in una corsa agli armamenti in continua crescita. L’intelligenza artificiale può essere uno strumento potente, ma è solo l’ultima di una lunga serie di minacce agli ambienti IT ovunque.