Nous avons demandé à des experts en cybersécurité leurs prévisions pour 2026

Publié: 2026-01-22

Les succès continuent d’affluer en matière de cybersécurité alors que nous entrons dans une nouvelle année. Pour commencer, un rapport a récemment révélé que 48 % des responsables de la cybersécurité n’avaient pas signalé les violations de données au cours de l’année écoulée, en partie par crainte de réponses punitives.

Dans le même temps, le ministère américain de la Défense a déclaré en octobre 2025 qu’il envisageait de réduire plusieurs types de formations en matière de cybersécurité, notamment les formations annuelles qu’un expert a qualifiées de « critiques ».

Nous voulions nous renseigner auprès d'un large éventail d'experts en technologie et de cadres supérieurs pour voir si nous pouvions comprendre ce qui allait se passer pour les équipes informatiques en 2026.

L'intelligence artificielle continue d'être la technologie la plus en vogue, il n'est donc pas surprenant que la grande majorité de nos réponses se contentent de deviner quel impact l'IA aurait sur la sécurité numérique. Poursuivez votre lecture pour découvrir à l'avance les tendances les plus intéressantes, des défis de l'IA fantôme aux agents autonomes en passant par les logiciels malveillants alimentés par l'IA.

Principales prévisions en matière de cybersécurité pour 2026 :

  • Les systèmes informatiques auront plus que jamais besoin d’observabilité et de visibilité
  • L’IA doit être attribuée – ou risquer d’être confondue avec un compromis
  • La montée de l’IA de l’Ombre
  • L'examen réglementaire concerne les logiciels créés par l'IA
  • La cybersécurité devient une compétence de base en matière de données
  • Les logiciels malveillants basés sur l'IA vont augmenter cette année

Les systèmes informatiques auront plus que jamais besoin d’observabilité et de visibilité

Le terme haute disponibilité, ou HA, fait référence à un système informatique presque toujours accessible et fiable à utiliser. L’objectif est d’être aussi fiable que possible à 100 %, et en 2026, cet objectif est plus difficile que jamais.

Selon Cassius Rhue, vice-président de l'expérience client chez SIOS Technology Corp., l'observabilité et la visibilité seront essentielles au maintien et au fonctionnement des environnements informatiques complexes. Pourquoi la visibilité est-elle si importante de nos jours ? L’étalement du travail moderne.

« À mesure que les infrastructures informatiques se développent dans des environnements sur site, cloud, hybrides et multi-cloud, la visibilité sur les performances et l'état des applications ainsi que sur les interdépendances des éléments de la pile informatique deviendra essentielle », déclare Rhue.

« En 2026, l’observabilité deviendra un différenciateur clé pour les solutions HA, permettant aux équipes informatiques d’identifier et de résoudre les problèmes avant qu’ils n’aient un impact sur la disponibilité. » -Cassius Rhue, vice-président de l'expérience client chez SIOS Technology Corp.

Cette année, nous dit Rhue, les plates-formes haute disponibilité les plus performantes seront celles qui fournissent des informations approfondies sur l'ensemble de la pile, du matériel à la couche applicative.

L’IA doit être attribuée – ou risquer d’être confondue avec un compromis

Voici un scénario pour vous : votre équipe informatique découvre dans ses environnements une identité que personne n'a explicitement créée et dont on ne peut pas tenir compte.

Jusqu’à il y a quelques années, c’était un signe évident que votre sécurité avait été violée. Aujourd’hui, cependant, cela peut simplement signifier que vous n’avez pas suivi ce que faisait un agent IA et qu’il a créé l’identité grâce à son flux de travail autonome.

«Cela crée des problèmes d'attribution», déclare Paul Nguyen, co-fondateur et co-PDG de la société de plateforme de sécurité Permiso.

"Lorsqu'une identité se comporte de manière suspecte, les équipes de sécurité doivent déterminer : s'agit-il d'un comportement autonome légitime ou s'agit-il d'une compromission ? Sans attribution claire (propriétaire humain, chaîne d'approbation, justification commerciale), cette détermination devient difficile."

Nguyen prévoit que les organisations commenceront à mettre en œuvre le suivi des attributions pour suivre les identités générées par l’IA. Les agents d’IA devront enregistrer leurs décisions et étiqueter leurs créations avec leur nom, leur horodatage et leur justification commerciale.

« D’ici fin 2026, l’attribution d’identité deviendra une condition préalable au déploiement sécurisé de l’IA agentique. » -Paul Nguyen, co-fondateur et co-PDG de Permiso

Sans cette réglementation supplémentaire, les équipes de sécurité ne disposeront pas des pistes d'audit dont elles auront de plus en plus besoin pour faire leur travail.

La montée de l’IA de l’Ombre

Le terme « shadow AI » fait référence à toute utilisation non autorisée par un employé d’outils d’IA dans le cadre de l’exercice de son travail. Le travail de l'IA alimente l'entreprise, mais l'entreprise n'est pas consciente du type d'outil, du temps passé ou d'autres variables.

Il va sans dire que l’utilisation de l’IA fantôme n’est pas une bonne nouvelle pour une entreprise, et c’est une préoccupation majeure qui a poussé les entreprises à adapter leurs politiques en matière d’IA au cours des dernières années, afin de faire savoir à leurs employés ce qui est autorisé et ce qui ne l’est pas.

Monica Landen, RSSI chez Diligent, prédit que l'IA fantôme continuera de s'implanter au cours de la nouvelle année, malgré les risques importants en matière de gouvernance et de sécurité qu'elle pose.

« Alors que les investissements dans l'IA augmentent, avec une augmentation prévue de 40 % en 2026, les organisations doivent prendre des mesures proactives pour atténuer ces risques de sécurité et garantir que leurs effectifs sont alignés sur les politiques organisationnelles en matière d'IA », déclare Landen.

Comment les entreprises peuvent-elles contrer ce problème ? Landen recommande des politiques de gouvernance de l'IA, des leçons pour sensibiliser les employés aux risques et aux avantages de l'utilisation de l'IA, ainsi que des efforts pour surveiller l'utilisation de l'IA.

Pour un coup de main, consultez notre guide sur Comment créer une politique d'IA

L'examen réglementaire concerne les logiciels créés par l'IA

"2025 a prouvé que l'IA peut écrire du code plus rapidement que jamais, mais pas nécessairement de manière plus sûre", note Bhagwat Swaroop, PDG de Sonatype.

Certains des problèmes de cybersécurité liés à l'IA signalés par Swaroop incluent des dépendances non vérifiées, des packages obsolètes et des failles de sécurité que les tests traditionnels ne parviennent pas à détecter. Ajoutez l’IA fantôme et construire en toute sécurité devient un défi plus grand que jamais.

La réponse ? Une pression pour une plus grande transparence sur les logiciels développés par des LLM ou des agents d’IA, et qui s’accompagne de plus de réglementation.

« Les factures de matériel IA entreront dans les conversations au niveau C », prédit Swaroop, tandis que « la loi européenne sur l'IA et la cyber-résilience agiront en faveur d'une transparence totale dans le développement de logiciels, y compris le contenu généré par l'IA ».

Les organisations peuvent se préparer en suivant la provenance du code et en validant les entrées du modèle tout au long des cycles de vie de développement.

La cybersécurité devient une compétence de base en matière de données

John Morris, PDG d'Ocient, a une autre idée de l'impact de l'IA sur la cybersécurité : les charges de données en croissance exponentielle alimentées par les analyses en temps réel de l'IA pousseront la cybersécurité à un « point d'inflexion critique », dit-il.

Les organisations devront s’efforcer de mettre à niveau leur infrastructure afin de gérer ces environnements de données à grande vitesse.

"Les entreprises commenceront à considérer la cybersécurité comme une compétence de base en matière de données, et non comme une simple préoccupation informatique. En 2026, protéger les données signifie protéger l'entreprise. À mesure que la charge de données augmente, l'urgence de les sécuriser à grande échelle augmentera également." – John Morris, PDG d’Ocient

Espérons que les entreprises tiendront compte de cet avertissement : les stratégies de cybersécurité doivent être prioritaires dans un monde où l'utilisation des données monte en flèche et où des menaces émergent à chaque nouvelle intégration de systèmes.

Les logiciels malveillants basés sur l'IA vont augmenter cette année

Les acteurs malveillants du monde du logiciel investiront également dans l’IA en 2026 : selon Stephanie Schneider, analyste de LastPass Cyber ​​Threat Intelligence, de plus en plus d’acteurs malveillants déploieront des logiciels malveillants basés sur l’IA dans leurs opérations actives cette année.

L'équipe Threat Intelligence de Google a découvert que ce type de malware peut « générer des scripts, modifier des codes pour éviter la détection et créer des fonctions malveillantes à la demande », explique Schneider.

« Les acteurs étatiques ont utilisé des logiciels malveillants basés sur l’IA pour adapter, modifier et faire pivoter leurs campagnes en temps réel, et ces campagnes devraient s’améliorer à mesure que la technologie continue de se développer », ajoute-t-elle.

Alors que la technologie malveillante ne fera que devenir plus puissante au cours de l’année à venir, c’est un autre signe que les cyberdéfenseurs auront un environnement de menaces difficile à gérer.

Nous le disons chaque année, mais cela reste toujours vrai en 2026 : les équipes de cybersécurité continuent de rivaliser avec les acteurs menaçants dans une course aux armements toujours plus intense. L’IA est peut-être un outil puissant, mais ce n’est que la dernière d’une longue série de menaces qui pèsent sur les environnements informatiques du monde entier.