การดำเนินงาน AI: สิ่งที่องค์กรผิดพลาดเกี่ยวกับการปรับขนาดโมเดล
เผยแพร่แล้ว: 2025-11-24ผู้บริหารจำนวนมากทุ่มเงินหลายล้านให้กับ AI แต่การศึกษาของ BCG ในปี 2025 พบว่ามีเพียงประมาณ 5% ของบริษัทเท่านั้นที่ได้รับมูลค่าที่วัดผลได้จาก AI ในวงกว้าง ในขณะที่ส่วนใหญ่ไม่เห็นเลยหรือแทบไม่เห็นเลย ในขณะเดียวกัน การสำรวจหลายรายการแสดงให้เห็นว่า โครงการ AI มากกว่าครึ่งหนึ่งไม่เคยมีการผลิตจริง หรือถูกละทิ้งหลังจากการพิสูจน์แนวคิด เนื่องจากข้อมูลที่ไม่ดี การกำกับดูแลที่อ่อนแอ และมูลค่าทางธุรกิจที่ไม่ชัดเจน
ปัญหาไม่ได้อยู่ที่การขาดโมเดลที่ชาญฉลาด ปัญหาคือวิธีการดำเนินการ เป็นเจ้าของ และบำรุงรักษาโมเดลเหล่านั้นวันแล้ววันเล่า กล่าวอีกนัยหนึ่ง การดำเนินงานของ AI ถือเป็นจุดที่มีความเสี่ยงและส่วนใหญ่กลับหัวกลับหาง
โพสต์รับเชิญนี้จะอธิบายว่าเหตุใดการปรับขนาด AI จึงล้มเหลวบ่อยครั้ง มีอะไรผิดปกติในร่องลึก และแนวทางที่เน้นการดำเนินการเป็นหลักเปลี่ยนวิถีอย่างไร
เหตุใดการปรับขนาด AI จึงล้มเหลวสำหรับองค์กรส่วนใหญ่
องค์กรขนาดใหญ่ส่วนใหญ่มักมีการทดลอง AI อยู่เสมอ การสำรวจสถานะ AI ล่าสุดของ McKinsey แสดงให้เห็นว่าผู้ตอบแบบสอบถามเกือบทั้งหมดรายงานว่าใช้ AI ในที่ใดที่หนึ่ง แต่มีเพียงส่วนน้อยเท่านั้นที่มองเห็นผลกระทบระดับองค์กรที่ยั่งยืน
เกิดอะไรขึ้นในทางปฏิบัติ:
- มีการเปิดตัวการพิสูจน์แนวคิดหลายสิบรายการทั่วทั้งหน่วยธุรกิจ
- รูปลักษณ์ที่มีแนวโน้มในการสาธิต
- มีเพียงไม่กี่คนที่รอดจากการตรวจสอบด้านความปลอดภัย งานบูรณาการ และคำติชมจากผู้ใช้จริง
ภายใต้รูปแบบนี้มีปัญหาที่คาดเดาได้บางประการ:
- AI เป็น "ความคิดริเริ่ม" แบบครั้งเดียวแทนที่จะเป็นความสามารถในการปฏิบัติงาน
AI ได้รับการปฏิบัติเหมือนเป็นโปรเจ็กต์ที่มีวันที่เริ่มต้นและสิ้นสุด มีวงจรงบประมาณ ผู้ขาย แดชบอร์ด การนำเสนอ สิ่งที่ขาดหายไปคือมุมมองของ AI ในฐานะผลิตภัณฑ์ที่ต้องการแผนงาน ความเป็นเจ้าของ และงบประมาณการดำเนินการ - นักบินที่เพิกเฉยต่อสภาพแวดล้อมการผลิต
โปรแกรมนำร่องจำนวนมากพึ่งพาชุดข้อมูลที่จัดการด้วยมือ วิศวกรรมฟีเจอร์แบบแมนนวล หรือผู้ใช้ระดับสูงเพียงรายเดียวอย่างเงียบๆ ไม่มีสิ่งใดที่มีอยู่ในระบบนิเวศที่มีชีวิต เมื่อทีมพยายามย้ายสิ่งประดิษฐ์เดียวกันไปสู่การใช้งานจริง ทุกอย่างตั้งแต่การเข้าถึงข้อมูลไปจนถึงพฤติกรรมเวลาในการตอบสนองจะเปลี่ยนไปในคราวเดียว - ไม่มีมุมมองทางเศรษฐกิจในการปรับขนาด
บอร์ดได้ยินเรื่องราวเกี่ยวกับประสิทธิภาพการทำงาน 10 เท่า สิ่งที่พวกเขาไม่ค่อยเห็นคือมุมมองที่ต้องเสียค่าใช้จ่ายของโครงสร้างพื้นฐาน ความสามารถในการสังเกต การอัปเดตโมเดล และการจัดการการเปลี่ยนแปลง หากปราศจากสิ่งนั้น ความคาดหวังก็จะหมุนวนและ AI จะจบลงในรายการ "นวัตกรรมที่ล้มเหลว" เมื่อโครงการระลอกแรกต้องผิดหวัง
Playbooks ส่วนใหญ่สำหรับ การปรับขนาด AI ระดับองค์กร ยังคงถือว่าเมื่อคุณเลือกรุ่นและแพลตฟอร์มที่เหมาะสมแล้ว ส่วนที่เหลือจะเป็นรายละเอียดการดำเนินการเป็นหลัก ในความเป็นจริง วิธีที่คุณออกแบบและดำเนิน การปฏิบัติการ AI มักจะมีความสำคัญมากกว่าโมเดลภาษาขนาดใหญ่ที่คุณเลือกตั้งแต่แรก
ข้อผิดพลาดในการดำเนินงานทั่วไป
เมื่อฉันดูความคิดริเริ่มด้าน AI ที่ล้มเหลวหรือหยุดชะงัก ฉันมักจะพบรูปแบบการดำเนินงานเดียวกันเกือบทุกครั้ง
ข้อผิดพลาดที่คุณเห็นในป่า
| อาการในการผลิต | สิ่งที่คุณเห็นในสัปดาห์ที่ 1 | สาเหตุที่แท้จริงในการดำเนินงาน |
|---|---|---|
| โมเดลทำงานในห้องปฏิบัติการ หยุดการผลิต | ความล่าช้าที่เพิ่มขึ้น การหมดเวลา หรือฟีเจอร์ที่ขาดหายไป | ไม่มีความเท่าเทียมกันของสภาพแวดล้อม โครงสร้างพื้นฐานเฉพาะกิจ |
| “กล่องดำ” ส่งผลให้ผู้ใช้หยุดไว้วางใจ | การร้องเรียนเกี่ยวกับกรณีขอบแปลก ๆ และอคติ | ไม่มีการวนซ้ำข้อเสนอแนะที่ชัดเจน ไม่มีเอกสารประกอบพฤติกรรมของโมเดล |
| การดับเพลิงที่ไม่มีที่สิ้นสุดหลังจากใช้งานจริง | นักวิทยาศาสตร์ข้อมูลดึงเข้าสู่ช่องทางเหตุการณ์ | การตรวจสอบมุ่งเน้นไปที่อินฟาเรดเท่านั้น ไม่ใช่พฤติกรรมของโมเดล |
| การอัปเดตโมเดลใช้เวลาหลายเดือน | การเผยแพร่จะค้างทุกครั้งที่มีการเสนอการเปลี่ยนแปลง | ถือว่าการปรับ ใช้โมเดล เป็นโปรเจ็กต์ตามความต้องการในแต่ละครั้ง |
เบื้องหลังอาการเหล่านี้ มีปัญหาด้านโครงสร้างบางประการปรากฏขึ้นอย่างต่อเนื่อง:
- ห่วงโซ่อุปทานข้อมูลที่กระจัดกระจาย
ข้อมูลสำหรับการฝึกอบรม การทดสอบ และการให้บริการมาจากเส้นทางที่แตกต่างกัน แต่บริการการจัดการข้อมูลจะรวมไปป์ไลน์เหล่านี้เข้าด้วยกันเพื่อลดการเคลื่อนตัวและความไม่เสถียร โมเดลทำงานได้ดีในการทดสอบ จากนั้นมีพฤติกรรมไม่ดีในการผลิตเนื่องจากการกระจายอินพุตและความสดแตกต่างกันโดยสิ้นเชิง - การทำงานร่วมกันแบบข้ามกำแพง
นักวิทยาศาสตร์ข้อมูลเป็นเจ้าของสมุดบันทึก ทีมแพลตฟอร์มเป็นเจ้าของคลัสเตอร์ เจ้าของธุรกิจเป็นเจ้าของ KPI ไม่มีใครเป็นเจ้าของวงจรชีวิตทั้งหมดตั้งแต่แนวความคิดไปจนถึงการเกษียณ การส่งมอบทุกครั้งทำให้เกิดความล่าช้า การทำงานซ้ำ และความคาดหมายที่ไม่ตรงกันเล็กน้อย - ความเสี่ยงด้านปฏิบัติการถือเป็นสิ่งที่ต้องคำนึงถึงในภายหลัง
กฎหมาย การปฏิบัติตามข้อกำหนด และความปลอดภัยจะถูกดึงเข้าสู่การสนทนาเมื่อมีบางอย่างใกล้จะเปิดตัว พวกเขาเห็นวิธีแก้ปัญหาที่เสร็จสิ้นแล้ว แจ้งข้อกังวลที่ถูกต้อง และทำให้โครงการหยุดชะงัก รู้สึกเหมือน “การปกครองกำลังปิดกั้น AI” เมื่อปัญหาที่แท้จริงคือการมีส่วนร่วมล่าช้า
หากไม่มีกลยุทธ์สำหรับ การดำเนินงานของ AI นักบินก็จะติดอยู่ คุณจะได้งานที่น่าสนใจมากมายซึ่งไม่เคยเป็นส่วนหนึ่งของแนวทางการดำเนินงานของบริษัทเลย
MLOps เป็นลิงก์ที่ขาดหายไปในการดำเนินงานของ AI
MLOps มักถูกเรียกว่า “DevOps สำหรับการเรียนรู้ของเครื่อง” คำจำกัดความนั้นถูกต้องทางเทคนิค แต่เป็นการเน้นย้ำถึงสิ่งที่เกิดขึ้น ในทางปฏิบัติ MLOps คือวินัยในการเปลี่ยนโมเดลให้กลายเป็นระบบที่พร้อมใช้งานและเชื่อมโยงโมเดลเหล่านั้นกับผลลัพธ์ทางธุรกิจที่แท้จริง
คุณสามารถมอง การทำงานของ AI ว่าเป็นสามชั้นที่ MLOps ต้องยึดไว้ด้วยกัน:
- สินทรัพย์
การวิจัยเกี่ยวกับการนำ MLOps มาใช้แสดงให้เห็นว่าแนวทางปฏิบัติ เช่น การจัดเวิร์กโฟลว์ ความสามารถในการทำซ้ำ การกำหนดเวอร์ชัน และการตรวจสอบ ทั้งหมดมีความสัมพันธ์กับความพึงพอใจของผู้ใช้ที่สูงขึ้นและผลลัพธ์ที่ดีขึ้น สิ่งนี้ฟังดูเป็นนามธรรมจนกว่าคุณจะสังเกตเห็นว่าโหมดความล้มเหลวนั้นเป็นรูปธรรมเพียงใดเมื่อแนวทางปฏิบัติเหล่านั้นขาดหายไป

MLOps ไม่ใช่หมวดหมู่เครื่องมือที่คุณซื้อครั้งเดียว เป็นแกนหลักในการปฏิบัติงานที่ช่วยให้ทีมวิทยาศาสตร์ข้อมูล แพลตฟอร์ม และผลิตภัณฑ์ของคุณทำหน้าที่เป็นระบบเดียวกัน นั่นคือเหตุผลว่าทำไมสิ่งนี้จึงเป็นหัวใจสำคัญของโปรแกรม การดำเนินงาน AI ที่จริงจัง
การกำกับดูแลและการตรวจสอบที่ทำงานในชีวิตจริง
องค์กรหลายแห่งตอบสนองต่อความเสี่ยงด้าน AI ด้วยการเขียนเอกสารนโยบายขนาดยาว จัดการน้อยลงในการเปลี่ยนเอกสารเหล่านั้นให้เป็นกิจวัตรประจำวันสำหรับทีมที่สร้างและรันโมเดล
การดำเนินงานของ AI ที่เป็นผู้ใหญ่มีแนวโน้มที่จะสร้างการกำกับดูแลออกเป็น 3 ลูปที่ใช้งานได้จริง:
- วงจรการตรวจสอบทางเทคนิค
การวิเคราะห์อุตสาหกรรมล่าสุดชี้ให้เห็นว่าการกำกับดูแลข้อมูลที่ไม่ดีและการกำกับดูแล AI ที่อ่อนแอนั้นเป็นเหตุผลหลักที่โครงการ AI จำนวนมากถูกคาดการณ์ว่าจะล้มเหลวหรือถูกยกเลิกในอีก 1-2 ปีข้างหน้า
องค์กรที่ประสบความสำเร็จมากที่สุดที่ฉันทำงานด้วยถือว่าลูปเหล่านี้เป็นส่วนหนึ่งของ Playbook การดำเนินงานด้าน AI ไม่ใช่แยก "ความคิดริเริ่มด้านความเสี่ยง" พวกเขาทำให้เป็นอัตโนมัติมากที่สุดเท่าที่จะเป็นไปได้ (สายข้อมูล การตรวจสอบการควบคุมการเข้าถึง การตรวจจับการเบี่ยงเบน) และใช้เวลาของมนุษย์เมื่อจำเป็นต้องมีการตัดสิน
กรณีศึกษาการปรับขนาด AI ให้ประสบความสำเร็จ
เพื่อให้เป็นรูปธรรมนี้ เราจะมาดูรูปแบบที่ไม่เปิดเผยตัวตนสองรูปแบบที่เกิดขึ้นบ่อยครั้ง
กรณีศึกษาที่ 1: จากโรงละครที่พิสูจน์แนวคิดไปจนถึง AI ที่ใช้งานจริง
ผู้ค้าปลีกระดับโลกรายหนึ่งมีกรณีการใช้งาน AI มากกว่า 40 กรณีในขั้นตอนนำร่องต่างๆ ได้แก่ การคาดการณ์ความต้องการ การกำหนดราคาแบบไดนามิก การปรับเปลี่ยนการตลาดส่วนบุคคล และการดำเนินงานของร้านค้า มีเพียงสองคนเท่านั้นที่ยังมีชีวิตอยู่ ณ จุดใดจุดหนึ่ง และทั้งสองจำเป็นต้องมีการแทรกแซงด้วยตนเองอย่างต่อเนื่อง
ปัญหาสำคัญ:
- แต่ละทีมสร้างไปป์ไลน์และรูปแบบอินฟาเรดของตัวเอง
- ไม่มีมาตรฐานที่ใช้ร่วมกันสำหรับการตรวจสอบ การเข้าถึงข้อมูล หรือ การปรับใช้โมเดล
- เจ้าของธุรกิจมองว่า AI เป็น “โครงการด้านไอที” ไม่ใช่ส่วนหนึ่งของ P&L
บริษัทเปลี่ยนแนวทางและสร้างกลุ่ม ปฏิบัติการ AI กลางขนาดเล็กที่มีหน้าที่รับผิดชอบ 3 ประการ:
- กำหนดและรักษาสแต็ก MLOps อ้างอิง (รูปแบบการนำเข้าข้อมูล ไปป์ไลน์การฝึกอบรมและการให้บริการ การติดตามการทดลอง การลงทะเบียนโมเดล)
- กำหนดและบังคับใช้มาตรฐานสำหรับความสามารถในการสังเกต การกำกับดูแล และการรายงานต้นทุน
- ฝึกสอนทีมธุรกิจเพื่อปฏิบัติต่อกรณีการใช้งาน AI เสมือนเป็นผลิตภัณฑ์โดยมีเจ้าของ ตัวชี้วัดความสำเร็จ และแผนงาน
ภายใน 18 เดือน:
- เวลาตั้งแต่แนวคิดไปจนถึงการเปิดตัวการผลิตครั้งแรกลดลงจาก 9–12 เดือนเหลือประมาณ 8 สัปดาห์
- มีโมเดลมากกว่า 20 รุ่นที่ทำงานโดยใช้เครื่องมือที่ใช้ร่วมกัน แทนที่จะเป็นสคริปต์ที่ออกแบบตามความต้องการ
- การตรวจสอบรายไตรมาสเชื่อมโยงแต่ละกรณีการใช้งานกับผลกระทบที่วัดได้ต่อส่วนต่างกำไรและสินค้าคงคลัง
ส่วนที่น่าสนใจคือสิ่งที่ไม่เปลี่ยนแปลง โมเดลพื้นฐานยังคงค่อนข้างคล้ายกัน การเปลี่ยนแปลงขั้นตอนนี้มาจาก การปรับขนาด AI ขององค์กร ที่มีระเบียบวินัยผ่านการดำเนินการร่วมกัน ไม่ใช่จากอัลกอริธึมใหม่ที่แปลกใหม่
กรณีศึกษาที่ 2: AI อุตสาหกรรมที่รอดจากการสัมผัสกับความเป็นจริง
ผู้ผลิตในอุตสาหกรรมพยายามใช้แบบจำลองการบำรุงรักษาเชิงคาดการณ์สำหรับอุปกรณ์ที่สำคัญ ความพยายามครั้งแรกล้มเหลว แบบจำลองที่ได้รับการฝึกอบรมเกี่ยวกับข้อมูลเซ็นเซอร์ในอดีตนั้นดูแม่นยำในการทดสอบออฟไลน์ แต่ในการผลิตจริงกลับสร้างการแจ้งเตือนที่ผิดพลาดมากเกินไป ช่างก็หยุดให้ความสนใจ
การตรวจสอบภายในพบสาเหตุหลักสามประการ:
- ข้อมูลการฝึกอบรมได้รับการทำความสะอาดในลักษณะที่ไม่สะท้อนสัญญาณรบกวนเซ็นเซอร์ที่แท้จริง
- ไปป์ไลน์ถ่ายทอดสดขาดสัญญาณสำคัญสองประการที่มีอยู่ในการฝึกอบรม
- ไม่มีใครวางแผนได้ว่าการคาดการณ์แบบจำลองจะเปลี่ยนขั้นตอนการทำงานของช่างเทคนิคอย่างไร
ในความพยายามครั้งที่สอง ทีมงานได้วางกรอบการทำงานใหม่ในฐานะปัญหา การปรับขนาด AI ระดับองค์กร แทนที่จะเป็นการแข่งขันด้านวิทยาศาสตร์ข้อมูล
พวกเขา:
- กำหนด “สัญญาข้อมูล” ที่ชัดเจนสำหรับสตรีมเซ็นเซอร์ พร้อมรับประกันความถี่ในการสุ่มตัวอย่าง หน่วย และการจัดการข้อมูลที่ขาดหายไป
- ใช้ไปป์ไลน์ MLOps แบบรวมตั้งแต่การนำเข้าไปจนถึงการให้บริการ ดังนั้นโมเดลที่ได้รับการฝึกอบรมใหม่จึงสามารถย้ายไปสู่การใช้งานจริงโดยมีแรงเสียดทานน้อยที่สุด
- รวมช่างเทคนิคในการออกแบบ โดยมีเกณฑ์และรูปแบบการแจ้งเตือนที่ปรับให้เข้ากับความเป็นจริง
ขณะนี้การตรวจสอบมีทั้งตัวชี้วัดดริฟท์และการตอบรับภาคสนาม เมื่อแบบจำลองเริ่มลดระดับลง การฝึกขึ้นใหม่จะได้รับการจัดการผ่านไปป์ไลน์ที่เป็นมาตรฐานเดียวกัน แทนที่จะเป็นโครงการช่วยเหลือแบบครั้งเดียว
ภายในหนึ่งปี การหยุดทำงานโดยไม่ได้วางแผนในกลุ่มสินทรัพย์เป้าหมายลดลงอย่างมาก การเปลี่ยนแปลงที่สำคัญที่สุดคือความน่าเชื่อถือของไปป์ไลน์ทั้งหมด ไม่ใช่ความแม่นยำของโมเดลที่เพิ่มขึ้นอย่างมาก
จะไปที่ไหนจากที่นี่?
หากคุณจริงจังกับการปรับขนาดโมเดล ให้เริ่มโดยถือว่า การปฏิบัติงานของ AI ถือเป็นระเบียบวินัยชั้นหนึ่ง:
- จัดทำแผนผังวงจรการใช้งานเต็มรูปแบบของกรณีการใช้งานที่มีมูลค่าสูง 2–3 กรณี ตั้งแต่การนำเข้าข้อมูลไปจนถึงการยุติการใช้งาน
- ระบุทุกขั้นตอนแบบแมนนวล แฮนด์ออฟ และ “กระบวนการเงา” ที่ทำให้โมเดลคงอยู่
- ตัดสินใจว่าองค์ประกอบใดของสแต็ก MLOps ของคุณที่จะแชร์ เป็นค่าเริ่มต้นที่เชื่อได้
- สร้างการกำกับดูแลและการตรวจสอบเป็นค่าเริ่มต้นเหล่านั้น แทนที่จะซ้อนกันไว้ด้านบน
องค์กรที่จะมีความสำคัญในคลื่นลูกใหม่ของ AI ไม่ใช่องค์กรที่มีการสาธิตที่ฉูดฉาดที่สุด พวกมันคือตัวที่สามารถดำเนินการและพัฒนาโมเดลการผลิตหลายสิบแบบอย่างเงียบ ๆ โดยไม่ต้องดราม่าเดือนแล้วเดือนเล่า หากคุณสามารถทำให้ การดำเนินงานของ AI เติบโตถึงระดับนั้นได้ เรื่องราวที่เหลือของคุณจะเริ่มดูแลตัวเอง
