Kami Menanyakan Prediksi Mereka pada Tahun 2026 dari Pakar Keamanan Siber
Diterbitkan: 2026-01-22Serangan terhadap keamanan siber terus bermunculan menjelang tahun baru. Sebagai permulaan, sebuah laporan baru-baru ini menemukan bahwa 48% pemimpin keamanan siber gagal melaporkan pelanggaran data dalam satu tahun terakhir, sebagian karena ketakutan akan tanggapan yang bersifat menghukum.
Pada saat yang sama, Departemen Pertahanan AS menyatakan pada bulan Oktober 2025 bahwa mereka berencana untuk mengurangi beberapa jenis pelatihan keamanan siber, termasuk pelatihan tahunan yang oleh seorang pakar disebut “penting.”
Kami ingin menghubungi berbagai pakar teknologi dan eksekutif C-Suite untuk mengetahui apakah kami dapat mengetahui apa yang akan terjadi pada tim TI pada tahun 2026.
Kecerdasan buatan terus menjadi teknologi yang paling populer, jadi tidak mengherankan jika sebagian besar respons kami adalah menebak-nebak bagaimana AI akan berdampak pada keamanan digital. Baca terus untuk mengetahui tren paling menarik di masa depan, mulai dari tantangan bayangan AI hingga agen otonom hingga malware yang didukung AI.
Prediksi Keamanan Siber Teratas untuk tahun 2026:
- Sistem TI Akan Membutuhkan Observabilitas dan Visibilitas Lebih Dari Sebelumnya
- AI Harus Diatribusikan – Atau Berisiko Disalahartikan Sebagai Kompromi
- Bangkitnya Bayangan AI
- Pengawasan Peraturan Hadir untuk Perangkat Lunak Buatan AI
- Keamanan Siber Menjadi Kompetensi Data Inti
- Malware yang mendukung AI Akan Melonjak Tahun Ini
Sistem TI Akan Membutuhkan Observabilitas dan Visibilitas Lebih Dari Sebelumnya
Istilah ketersediaan tinggi, atau HA, mengacu pada sistem TI yang hampir selalu dapat diakses dan diandalkan untuk digunakan. Sasarannya adalah untuk mencapai tingkat keandalan yang mendekati 100%, dan pada tahun 2026, sasaran tersebut akan lebih sulit dari sebelumnya.
Menurut Cassius Rhue, Wakil Presiden Pengalaman Pelanggan di SIOS Technology Corp., kemampuan observasi dan visibilitas akan sangat penting untuk menjaga dan menjalankan lingkungan TI yang kompleks. Mengapa visibilitas begitu penting saat ini? Luasnya pekerjaan modern.
“Seiring dengan berkembangnya infrastruktur TI di lingkungan on-premise, cloud, hybrid, dan multi-cloud, visibilitas terhadap kinerja dan kesehatan aplikasi serta saling ketergantungan elemen-elemen tumpukan TI akan menjadi hal yang sangat penting,” kata Rhue.
“Pada tahun 2026, kemampuan observasi akan muncul sebagai pembeda utama solusi HA, memungkinkan tim TI untuk mengidentifikasi dan menyelesaikan masalah sebelum berdampak pada waktu operasional.” -Cassius Rhue, Wakil Presiden Pengalaman Pelanggan di SIOS Technology Corp.
Tahun ini, Rhue memberi tahu kita, platform HA yang paling sukses adalah platform yang memberikan wawasan mendalam di seluruh lapisan—mulai dari perangkat keras hingga lapisan aplikasi.
AI Harus Diatribusikan – Atau Berisiko Disalahartikan Sebagai Kompromi
Berikut ini skenario untuk Anda: Tim TI Anda menemukan identitas di lingkungannya yang belum pernah dibuat secara eksplisit dan tidak dapat dipertanggungjawabkan oleh siapa pun.
Hingga beberapa tahun yang lalu, hal tersebut merupakan tanda yang jelas bahwa keamanan Anda telah dilanggar. Namun saat ini, hal tersebut mungkin berarti Anda belum melacak apa yang sedang dilakukan agen AI, dan agen tersebut menciptakan identitas tersebut berkat alur kerja otonomnya.
“Hal ini menciptakan tantangan atribusi,” kata Paul Nguyen, salah satu pendiri dan salah satu CEO di perusahaan platform keamanan Permiso.
"Ketika suatu identitas berperilaku mencurigakan, tim keamanan perlu menentukan: Apakah ini perilaku otonom yang sah atau merupakan kompromi? Tanpa atribusi yang jelas (pemilik manusia, rantai persetujuan, pembenaran bisnis), penentuan ini menjadi sulit."
Nguyen memperkirakan bahwa organisasi akan mulai menerapkan pelacakan atribusi untuk melacak identitas yang dihasilkan AI. Agen AI perlu mencatat keputusan mereka, dan menandai kreasi mereka dengan nama, stempel waktu, dan alasan bisnis.
“Pada akhir tahun 2026, atribusi identitas menjadi prasyarat untuk penerapan AI agen yang aman.” -Paul Nguyen, salah satu pendiri dan salah satu CEO Permiso
Tanpa peraturan tambahan ini, tim keamanan tidak akan memiliki jalur audit yang semakin dibutuhkan untuk melakukan pekerjaan mereka.
Bangkitnya Bayangan AI
Istilah “ AI bayangan ” mengacu pada penggunaan alat AI yang tidak sah oleh karyawan dalam proses melakukan pekerjaan mereka. Pekerjaan AI memberdayakan perusahaan, namun perusahaan tidak mengetahui jenis alat, waktu yang dihabiskan, atau variabel lainnya.

Tentu saja, penggunaan AI bayangan bukanlah kabar baik bagi perusahaan, dan ini adalah kekhawatiran besar yang mendorong perusahaan untuk mengadaptasi kebijakan AI selama beberapa tahun terakhir, untuk memberi tahu karyawan mereka apa yang boleh dan tidak boleh dilakukan.
Monica Landen, CISO di Diligent, memperkirakan bahwa shadow AI akan terus berkembang di tahun baru, meskipun terdapat risiko tata kelola dan keamanan yang signifikan.
“Seiring dengan meningkatnya investasi pada AI, dengan proyeksi peningkatan sebesar 40% pada tahun 2026, organisasi harus mengambil langkah proaktif untuk memitigasi risiko keamanan ini dan memastikan tenaga kerja mereka selaras dengan kebijakan AI organisasi,” kata Landen.
Bagaimana perusahaan dapat mengatasi masalah ini? Landen merekomendasikan kebijakan tata kelola AI, pelajaran untuk mendidik karyawan tentang risiko dan manfaat penggunaan AI, dan upaya untuk memantau penggunaan AI.
Sebagai contoh, lihat panduan kami tentang Cara Membuat Kebijakan AI
Pengawasan Peraturan Hadir untuk Perangkat Lunak Buatan AI
“Tahun 2025 membuktikan bahwa AI dapat menulis kode lebih cepat dari sebelumnya, namun belum tentu lebih aman,” kata Bhagwat Swaroop, CEO Sonatype.
Beberapa kekhawatiran keamanan siber yang didorong oleh AI yang ditandai oleh Swaroop mencakup ketergantungan yang belum terverifikasi, paket yang ketinggalan jaman, dan celah keamanan yang tidak dapat ditangkap oleh pengujian tradisional. Tambahkan bayangan AI, dan membangun dengan aman adalah tantangan yang lebih besar dari sebelumnya.
Tanggapannya? Dorongan untuk transparansi yang lebih besar pada perangkat lunak yang telah dikembangkan oleh LLM atau agen AI, dan dengan peraturan yang lebih banyak.
“AI Bills of Materials akan memasuki diskusi tingkat C,” prediksi Swaroop, sementara “Undang-Undang AI UE dan Undang-Undang Ketahanan Siber akan mendorong transparansi penuh dalam pengembangan perangkat lunak, termasuk konten yang dihasilkan AI.”
Organisasi dapat mempersiapkan diri dengan melacak asal kode dan memvalidasi masukan model di seluruh siklus pengembangan.
Keamanan Siber Menjadi Kompetensi Data Inti
John Morris, CEO Ocient, memiliki cara lain agar AI dapat berdampak pada keamanan siber: Beban data yang tumbuh secara eksponensial yang dipicu oleh analisis real-time AI akan mendorong keamanan siber ke “titik perubahan kritis,” ujarnya.
Organisasi harus segera meningkatkan infrastruktur mereka untuk menangani lingkungan data berkecepatan tinggi ini.
"Perusahaan akan mulai memperlakukan keamanan siber sebagai kompetensi data inti, bukan sekadar masalah TI. Pada tahun 2026, melindungi data berarti melindungi bisnis. Seiring dengan semakin banyaknya data yang dimuat, maka semakin mendesak pula untuk mengamankannya dalam skala besar." – John Morris, CEO Ocient
Mari kita berharap perusahaan-perusahaan memperhatikan peringatan ini: Strategi keamanan siber harus diprioritaskan di dunia di mana penggunaan data meroket dan ancaman bermunculan seiring dengan setiap integrasi sistem baru.
Malware yang mendukung AI Akan Melonjak Tahun Ini
Pelaku kejahatan di dunia perangkat lunak juga akan berinvestasi pada AI pada tahun 2026: Menurut Stephanie Schneider, Analis Intelijen Ancaman Siber LastPass, semakin banyak pelaku ancaman yang akan menyebarkan malware berkemampuan AI dalam operasi aktifnya pada tahun ini.
Tim Intelijen Ancaman Google menemukan bahwa malware jenis ini dapat “menghasilkan skrip, mengubah kode untuk menghindari deteksi, dan membuat fungsi berbahaya sesuai permintaan,” jelas Schneider.
“Aktor-aktor negara telah menggunakan malware yang didukung AI untuk mengadaptasi, mengubah, dan memutar kampanye secara real-time, dan kampanye ini diperkirakan akan semakin meningkat seiring dengan terus berkembangnya teknologi,” tambahnya.
Dengan teknologi berbahaya yang diperkirakan akan menjadi lebih kuat pada tahun mendatang, hal ini merupakan tanda lain bahwa para pembela siber akan menghadapi lanskap ancaman yang menantang untuk dinavigasi.
Kami menyatakan hal ini setiap tahun, namun hal ini masih berlaku pada tahun 2026: tim keamanan siber terus bersaing dengan pelaku ancaman dalam perlombaan senjata yang terus meningkat. AI mungkin merupakan alat yang ampuh, namun AI hanyalah yang terbaru dari serangkaian ancaman terhadap lingkungan TI di mana pun.
