Mengoperasikan AI: Kesalahan Perusahaan Tentang Model Penskalaan
Diterbitkan: 2025-11-24Para eksekutif menggelontorkan dana jutaan dolar untuk AI, namun studi BCG pada tahun 2025 menemukan bahwa hanya sekitar 5% perusahaan yang mendapatkan manfaat terukur dari AI dalam skala besar , sementara sebagian besar hanya merasakan sedikit atau tidak sama sekali. Pada saat yang sama, berbagai survei menunjukkan bahwa lebih dari separuh proyek AI tidak pernah mencapai produksi atau ditinggalkan setelah pembuktian konsep karena data yang buruk, tata kelola yang lemah, dan nilai bisnis yang tidak jelas.
Masalahnya bukan pada kurangnya model yang cerdas. Masalahnya adalah bagaimana model tersebut dijalankan, dimiliki, dan dipelihara hari demi hari. Dengan kata lain, operasi AI adalah tempat yang paling berisiko dan paling menguntungkan.
Postingan tamu ini membahas mengapa penskalaan AI begitu sering gagal, apa yang salah, dan bagaimana pendekatan yang mengutamakan operasi mengubah arah.
Mengapa penskalaan AI gagal di sebagian besar perusahaan?
Sebagian besar organisasi besar tidak kekurangan eksperimen AI. Survei State of AI terbaru yang dilakukan McKinsey menunjukkan bahwa hampir semua responden melaporkan penggunaan AI di suatu tempat, namun hanya sebagian kecil yang merasakan dampak berkelanjutan di tingkat perusahaan.
Apa yang terjadi dalam praktiknya:
- Lusinan bukti konsep diluncurkan di seluruh unit bisnis
- Beberapa terlihat menjanjikan dalam demo
- Sangat sedikit yang bertahan dalam tinjauan keamanan, upaya integrasi, dan masukan pengguna yang sebenarnya
Di bawah pola ini terdapat beberapa masalah yang dapat diprediksi:
- AI sebagai “inisiatif” yang hanya dilakukan sekali saja dan bukan sebagai kemampuan operasional
AI diperlakukan seperti proyek dengan tanggal mulai dan berakhir. Ada siklus anggaran, vendor, dashboard, presentasi. Yang hilang adalah pandangan tentang AI sebagai produk yang memerlukan peta jalan, kepemilikan, dan anggaran operasional. - Pilot yang mengabaikan lingkungan produksi
Banyak proyek percontohan yang secara diam-diam bergantung pada kumpulan data yang dikurasi secara manual, rekayasa fitur manual, atau satu power user. Tak satu pun dari itu ada di ekosistem hidup. Saat tim mencoba memindahkan artefak yang sama ke dalam produksi, segala sesuatu mulai dari akses data hingga perilaku latensi berubah sekaligus. - Tidak ada pandangan ekonomi mengenai penskalaan
Dewan mendengar cerita tentang produktivitas 10x. Hal yang jarang mereka lihat adalah gambaran infrastruktur, kemampuan observasi, pembaruan model, dan manajemen perubahan yang dihitung biayanya. Tanpa hal tersebut, ekspektasi akan meningkat dan AI akan berakhir pada daftar “inovasi yang gagal” ketika proyek gelombang pertama mengecewakan.
Sebagian besar pedoman untuk penskalaan AI perusahaan masih berasumsi bahwa setelah Anda memilih model dan platform yang tepat, sisanya hanyalah detail eksekusi. Pada kenyataannya, cara Anda merancang dan menjalankan operasi AI sering kali lebih penting daripada model bahasa besar mana yang Anda pilih.
Kendala operasional yang umum
Saat saya melihat inisiatif AI yang gagal atau terhenti, saya hampir selalu menemukan pola operasional yang sama.
Jebakan yang Anda lihat di alam liar
| Gejala dalam produksi | Apa yang Anda lihat di minggu 1 | Akar penyebab dalam operasi |
|---|---|---|
| Model bekerja di laboratorium, terhenti dalam produksi | Lonjakan latensi, waktu tunggu habis, atau fitur hilang | Tidak ada keseimbangan lingkungan, infrastruktur ad-hoc |
| Keluaran “kotak hitam” tidak lagi dipercaya oleh pengguna | Keluhan tentang kasus-kasus aneh dan bias | Tidak ada umpan balik yang jelas, tidak ada dokumentasi perilaku model |
| Pemadam kebakaran tanpa akhir setelah go-live | Ilmuwan data menarik saluran insiden | Pemantauan difokuskan pada infra saja, bukan perilaku model |
| Pembaruan model memerlukan waktu berbulan-bulan | Rilis terhenti setiap kali ada perubahan yang diusulkan | Memperlakukan penerapan model sebagai proyek yang dipesan lebih dahulu setiap saat |
Di balik gejala-gejala ini, beberapa masalah struktural terus muncul:
- Rantai pasokan data yang terfragmentasi
Data untuk pelatihan, pengujian, dan penyajian berasal dari jalur yang berbeda, namun layanan pengelolaan data menyatukan jalur ini untuk mengurangi penyimpangan dan ketidakstabilan. Model berperilaku baik dalam pengujian, kemudian berperilaku buruk dalam produksi karena distribusi input dan kesegarannya sangat berbeda. - Kolaborasi yang luar biasa
Ilmuwan data memiliki buku catatan. Tim platform memiliki cluster. Pemilik bisnis memiliki KPI. Tidak ada seorang pun yang memiliki siklus hidup penuh mulai dari konsep hingga pensiun. Setiap penyerahan menimbulkan penundaan, pengerjaan ulang, dan ketidaksesuaian halus dalam ekspektasi. - Risiko operasional diperlakukan sebagai sebuah renungan
Hukum, kepatuhan, dan keamanan menjadi topik pembicaraan ketika sesuatu akan segera diluncurkan. Mereka melihat solusi yang sudah selesai, menyampaikan kekhawatiran yang sah, dan proyek tersebut terhenti. Rasanya seperti “pemerintahan menghalangi AI” padahal masalah sebenarnya adalah keterlambatan keterlibatan.
Tanpa strategi untuk operasi AI , pilot akan terlantar. Anda akan mendapatkan banyak pekerjaan menarik yang tidak pernah sejalan dengan cara kerja perusahaan.
MLOps sebagai mata rantai yang hilang dalam operasi AI
MLOps sering digambarkan sebagai “DevOps untuk pembelajaran mesin.” Definisi tersebut secara teknis benar, namun tidak menjelaskan apa yang sedang terjadi. Dalam praktiknya, MLOps adalah disiplin ilmu yang mengubah model menjadi sistem yang siap dijalankan dan mengaitkannya dengan hasil bisnis nyata.
Anda dapat menganggap operasi AI sebagai tiga lapisan yang harus disatukan oleh MLOps:
- Aktiva
Penelitian tentang adopsi MLOps menunjukkan bahwa praktik seperti orkestrasi alur kerja, reproduktifitas, pembuatan versi, dan pemantauan semuanya berkorelasi dengan kepuasan pengguna yang lebih tinggi dan hasil yang lebih baik. Ini terdengar abstrak sampai Anda menyadari betapa konkretnya mode kegagalan ketika praktik tersebut tidak ada.

MLOps bukanlah kategori alat yang Anda beli sekali. Ini adalah tulang punggung operasional yang memungkinkan ilmu data, platform, dan tim produk Anda bertindak sebagai satu sistem. Itulah sebabnya hal ini menjadi inti dari program operasi AI yang serius.
Tata kelola dan pemantauan yang berfungsi dalam kehidupan nyata
Banyak perusahaan merespons risiko AI dengan menulis dokumen kebijakan yang panjang. Hanya sedikit orang yang berhasil mengubah dokumen tersebut menjadi rutinitas sehari-hari bagi tim yang membangun dan menjalankan model.
Operasi AI yang matang cenderung membangun tata kelola menjadi tiga putaran praktis:
- Lingkaran pemantauan teknis
Analisis industri baru-baru ini menunjukkan bahwa tata kelola data yang buruk dan lemahnya pengawasan AI telah menjadi alasan utama mengapa banyak proyek AI diperkirakan akan gagal atau dibatalkan dalam 1-2 tahun ke depan.
Organisasi paling sukses tempat saya bekerja memperlakukan perulangan ini sebagai bagian dari pedoman operasi AI mereka, bukan “inisiatif risiko” yang terpisah. Mereka mengotomatisasi sebanyak mungkin (silsilah data, pemeriksaan kontrol akses, deteksi penyimpangan) dan menghabiskan waktu manusia ketika penilaian diperlukan.
Studi kasus tentang penskalaan AI berhasil
Untuk memperjelas hal ini, mari kita lihat dua pola anonim yang sering muncul.
Studi kasus 1: Dari teater pembuktian konsep hingga produksi AI
Sebuah retailer global memiliki lebih dari 40 kasus penggunaan AI dalam berbagai tahap percontohan: perkiraan permintaan, penetapan harga dinamis, personalisasi pemasaran, dan operasional toko. Hanya dua yang hidup pada suatu saat, dan keduanya memerlukan intervensi manual yang konstan.
Masalah utama:
- Setiap tim membangun saluran pipa dan pola infranya sendiri
- Tidak ada standar bersama untuk pemantauan, akses data, atau penerapan model
- Pemilik bisnis melihat AI sebagai “proyek TI”, bukan sebagai bagian dari keuntungan dan kerugian mereka
Perusahaan mengubah taktik dan membentuk grup operasi AI terpusat kecil dengan tiga tanggung jawab:
- Tentukan dan pertahankan tumpukan MLOps referensi (pola penyerapan data, alur pelatihan dan penyajian, pelacakan eksperimen, registri model).
- Menetapkan dan menegakkan standar untuk observasi, tata kelola, dan pelaporan biaya.
- Latih tim bisnis untuk memperlakukan kasus penggunaan AI sebagai produk dengan pemilik, metrik keberhasilan, dan peta jalan.
Dalam 18 bulan:
- Waktu dari ide hingga rilis produksi pertama menurun dari 9–12 bulan menjadi sekitar 8 minggu
- Lebih dari 20 model dijalankan dengan peralatan bersama, bukan dengan skrip yang dipesan lebih dahulu
- Tinjauan triwulanan mengaitkan setiap kasus penggunaan dengan dampak terukur terhadap margin dan inventaris
Yang menarik adalah apa yang tidak berubah. Model dasarnya tetap serupa. Perubahan langkah ini berasal dari penskalaan AI perusahaan yang disiplin melalui operasi bersama, bukan dari algoritme baru yang eksotik.
Studi kasus 2: AI industri yang bertahan dari kontak dengan kenyataan
Sebuah pabrik industri mencoba menggunakan model pemeliharaan prediktif untuk peralatan penting. Upaya pertama gagal. Model yang dilatih berdasarkan data sensor historis tampak akurat dalam pengujian offline, namun dalam produksi, model tersebut menghasilkan terlalu banyak alarm palsu. Teknisi berhenti memperhatikan.
Tinjauan internal menemukan tiga akar permasalahan:
- Data pelatihan telah dibersihkan dengan cara yang tidak mencerminkan noise sensor yang sebenarnya
- Saluran pipa langsung kehilangan dua sinyal utama yang ada dalam pelatihan
- Belum ada yang memetakan bagaimana prediksi model akan mengubah alur kerja teknisi
Pada upaya kedua, tim membingkai ulang pekerjaan tersebut sebagai masalah penskalaan AI perusahaan, bukan kontes ilmu data.
Mereka:
- Mendefinisikan “kontrak data” yang jelas untuk aliran sensor, dengan jaminan seputar frekuensi pengambilan sampel, unit, dan penanganan data yang hilang
- Menerapkan pipeline MLOps terpadu mulai dari penyerapan hingga penayangan, sehingga model yang dilatih ulang dapat beralih ke produksi dengan hambatan minimal
- Termasuk teknisi dalam desain, dengan ambang batas dan format peringatan yang disesuaikan dengan realitasnya
Pemantauan kini mencakup indikator penyimpangan dan umpan balik lapangan. Ketika model mulai mengalami penurunan, pelatihan ulang ditangani melalui jalur standar yang sama, bukan melalui proyek penyelamatan satu kali.
Dalam setahun, waktu henti yang tidak direncanakan pada kelas aset yang ditargetkan turun secara signifikan. Perubahan yang paling penting adalah keandalan keseluruhan pipeline, bukan lonjakan dramatis dalam akurasi model.
Ke mana harus pergi setelah ini?
Jika Anda serius dalam menskalakan model, mulailah dengan memperlakukan operasi AI sebagai disiplin kelas satu:
- Petakan siklus hidup penuh dari 2–3 kasus penggunaan bernilai tinggi mulai dari penyerapan data hingga penghentian
- Identifikasi setiap langkah manual, handoff, dan “proses bayangan” yang membuat model tetap hidup
- Putuskan elemen mana dari tumpukan MLOps Anda yang akan dibagikan, berdasarkan pendapat default
- Bangun tata kelola dan pemantauan ke dalam standar tersebut, bukan menempatkannya di atas
Organisasi-organisasi yang penting dalam gelombang AI berikutnya bukanlah organisasi-organisasi yang memiliki demo paling mencolok. Merekalah yang diam-diam bisa menjalankan dan mengembangkan puluhan model produksi tanpa drama, bulan demi bulan. Jika Anda dapat membawa operasi AI ke tingkat kematangan tersebut, sisa cerita Anda akan berjalan dengan sendirinya.
