ในโลก AI“ เราแก้ไขมัน” ไม่ดีพอ
เผยแพร่แล้ว: 2025-08-25AI เป็นสินค้าที่ร้อนแรงที่สุดในโลกเทคโนโลยีในขณะนี้ มีการแข่งขันในอุตสาหกรรมเพื่อสร้างโมเดล AI ใหม่เร็วขึ้นและถูกกล่าวหาว่าดีขึ้น และในขณะที่หลายคนประหลาดใจกับความเร็วที่รุ่นใหม่กำลังถูกปั่นป่วน (มีมากกว่าหนึ่งโหลโมเดล ChatGPT ที่วางจำหน่ายแล้ว) และเข้าถึงได้มากแค่ไหน (สมาร์ทโฟน 120 USD ตอนนี้มีราศีเมถุน) เราไม่ได้ใส่ใจกับความเสียหายที่เกิดขึ้น ไม่เราไม่ได้พูดถึงวิธีที่ AI กำลังทำลายความสามารถในการคิดหรือประมวลผลข้อมูลโรคจิต AI ที่เจ้านาย AI ของ Microsoft ได้รับ 'Sleepless Nights' เกี่ยวกับหรือแม้กระทั่งผลกระทบต่อสิ่งแวดล้อมของการใช้ AI สิ่งเหล่านี้มีความสำคัญ แต่เป็นเรื่องราวสำหรับวันอื่น (และเรากำลังทำงานกับพวกเขา)
ไม่เรากำลังมองหาสิ่งที่ชัดเจนยิ่งขึ้น - มนุษย์อันตรายทางกายภาพและวิธีการที่ บริษัท เทคโนโลยีเพียงแค่พูดว่า "อ๊ะขอโทษ" และหนีไปกับมันทั้งหมด ไม่นานมานี้ที่ Meta พบว่าตัวเองอยู่ในน้ำร้อนหลังจากการรั่วไหลของเอกสารภายในซึ่งแสดงให้เห็นว่า บริษัท อนุญาตให้ AI chatbot เจ้าชู้กับเด็ก ๆ สร้างข้อมูลทางการแพทย์ที่ผิดพลาดและสนับสนุนข้อโต้แย้งของชนชั้น
คำตอบของเมตา? “ เราแก้ไขแล้ว ”
AI chatbot ที่สามารถ“ มีส่วนร่วมกับเด็กในการสนทนาที่โรแมนติกหรือราคะ”!
เมื่อต้นปีที่ผ่านมา Meta ได้จัดตั้ง Meta Superintelligence Labs (MSL) ซึ่งเป็นแผนก AI ล่าสุดของ บริษัท ในการดำเนินการแผนกนี้แบรนด์เทคโนโลยีตัดสินใจออกล่า การตามล่าหาพรสวรรค์ ตอนนี้สิ่งนี้อาจดูเรียบง่ายและชัดเจน แต่เมตาไปเหนือกว่ามาตรฐานอุตสาหกรรมเพื่อจ้างความสามารถของ AI จากทั่วทุกมุมโลกและไม่อายที่จะลักลอบล่าสัตว์เช่นกัน ตามรายงานความสามารถเมตาต้าจาก Openai, Google, Apple และแบรนด์อื่น ๆ อีกมากมาย มันเป็นเหมือน Zuckerberg กำลังรวบรวม AI Avengers ของเขาเองเพื่อ“ ช่วย” โลกจากโมเดล AI อื่น ๆ โดยมีจุดประสงค์เพื่อสะสมผู้บริหารระดับสูงเพื่อครองพื้นที่ AI
ฟังดูคุ้นเคย? อืม Meta ได้รับ Instagram และ WhatsApp และยังทำการประมูล Twitter 500 ล้านเหรียญสหรัฐ เมื่อพิจารณาจากเมตา“ ทำไมต้องติดตามผู้นำหรือเป็นผู้นำเมื่อคุณสามารถซื้อความคิดของผู้นำ” มันแทบจะไม่น่าแปลกใจเลยที่เมตาเสนอแพ็คเกจที่สูงถึง 250 ล้านเหรียญสหรัฐไปสู่ความสามารถพิเศษของ AI ดูเหมือนว่าในการเร่งรีบทั้งหมดนี้เพื่อให้ได้สิ่งที่ดีที่สุดในทุกที่บนกระดานสร้างโมเดล AI เร็วกว่าส่วนที่เหลือของโลกเมตาข้ามเส้นขนาดใหญ่
เอกสารที่รั่วไหลออกมาภายในที่เราอ้างถึงก่อนหน้านี้แสดงให้เห็นว่ายักษ์ใหญ่ด้านเทคโนโลยีอนุญาตให้ AI chatbot ของมัน“ มีส่วนร่วมกับเด็กในการสนทนาที่โรแมนติกหรือราคะ” และ“ รวมถึงการเล่นบทบาทโรแมนติก” ตอนนี้สิ่งที่รบกวนคือความจริงที่ว่านี่ไม่ใช่ข้อผิดพลาด แต่เป็นนโยบายที่ได้รับอนุมัติและผ่านการอนุมัติซึ่งถือว่าเป็นที่ยอมรับโดยทีมกฎหมายของ Meta เจ้าหน้าที่วิศวกรรมรวมถึงแผนกนโยบายสาธารณะ Meta อ้างว่า 'แก้ไข' แต่เราไม่ทราบว่าการแก้ไขนั้นถูกสร้างขึ้นมาเพื่อรหัสหรือนโยบายและกระบวนการทั้งหมดที่ทำให้สิ่งที่อันตรายนี้เป็นไปได้หรือไม่
meta-phenomenon ไม่ จำกัด เพียงเมตา
นี่ไม่ใช่เหตุการณ์ที่โดดเดี่ยวและไม่ จำกัด เพียงเมตา ในความเป็นจริงหลายองค์กรที่ลงทุนอย่างหนักใน AI ดูเหมือนจะเป็นที่พอใจที่จะจ้างอย่างประมาทพัฒนาตัวแทน AI ด้วยความเร็วบ้าโดยไม่มีความกังวลเกี่ยวกับความหายนะที่พวกเขาสามารถสร้างขึ้นได้ เมื่อไม่นานมานี้ Gork ของ Twitter-Now-X ก็ส่งเสียงพูดจาโผงผางชนชั้นและ antisemitic มันทิ้งคำขอโทษที่ไม่น่าเชื่อในขณะที่ Elon Musk กล่าวว่าบอทถูก“ จัดการ” เข้าไปในนั้น ในเหตุการณ์ที่แยกต่างหากราศีเมถุนไปสนุกสนานด้วยความสนุกสนานและประกาศว่ามันเป็นความล้มเหลวหลายครั้ง Google กล่าวว่ามันเป็นความผิดพลาดและกำลังทำงานเพื่อ“ แก้ไข”
ปัญหาคือการกำกับดูแลข้อบกพร่องข้อบกพร่องเหล่านี้…หรือแบรนด์ใดก็ตามที่เลือกที่จะพูดว่าพวกเขามักจะต้องเสียชีวิตอย่างหนักต่อสุขภาพของมนุษย์ ชายคนหนึ่งอ้างว่า CHATGPT เชื่อว่าเขาสามารถบินได้หลังจากกระโดดจากอาคารชั้น 19 หลังจากเขาหันไปโพสต์การหยุดพัก กรณีที่ร้ายแรงกว่านั้นมาถึงจุดที่นักบำบัดโรค AI AI อายุ 29 ปีใช้ในขณะที่ต้องผ่านช่วงเวลาที่ยากลำบากมาหลายเดือนและหลังจากนั้นก็ฆ่าตัวตาย แม่ของเธอบอกว่าเธอบอกแผนการทั้งหมดของเธอกับนักบำบัดเสมือนจริงนี้

นี่เป็นข้อผิดพลาดที่ไม่มีอนันต์ที่น่ารำคาญที่เรากำลังทำงานเพื่อแก้ไข! ราศีเมถุนไม่มีวันที่เลวร้าย :)
- Logan Kilpatrick (@officiallogank) 7 สิงหาคม 2568
เหล่านี้เป็นเพียงไม่กี่กรณีจากหลาย ๆ คนที่มนุษย์ได้รับความทุกข์ทรมานไม่เพียง แต่อารมณ์ แต่บางครั้งก็ทางการเงินและแม้แต่เสียชีวิตเพราะโมเดล AI เมื่อเหตุการณ์เช่นเอกสารที่รั่วไหลออกมาของ Meta มีแสงสว่างมีความชั่วร้าย แต่ดูเหมือนว่าทุกคนจะเดินหน้าต่อไปปล่อยให้การปฏิวัติ AI บดขยี้ชีวิตอื่น ๆ ครั้งแล้วครั้งเล่า AI chatbots ได้สะดุดและสิ่งที่เราได้รับในฐานะผู้บริโภคในทางกลับ
ผู้บริโภค…หรือหนูตะเภา?
ด้วยความรีบเร่งที่จะก้าวไปข้างหน้าในการแข่งขัน AI ดูเหมือนว่าแบรนด์เทคโนโลยีจำนวนมากกำลังปฏิบัติต่อผู้บริโภคเกือบเป็นหนูตะเภา หากนั่นฟังดูรุนแรงเกินไปให้พิจารณาข้อเท็จจริงที่ว่าแบรนด์เทคโนโลยีที่ใหญ่ที่สุดในโลก (Meta, X, Google, Openai เพื่อชื่อไม่กี่) กำลัง hyping และปล่อยผลิตภัณฑ์โดยไม่ต้องดูผลที่อาจเกิดขึ้น แบรนด์เหล่านี้มักจะสร้างแพ็คเกจและจัดส่งคุณสมบัติใหม่ในเวลาไม่นาน เมื่อคุณลักษณะที่มีปัญหามาถึงชีวิตจะมีการขอโทษสาธารณะและเป็น 'คงที่' จากนั้นเราจะย้ายไปยังรุ่นต่อไปซึ่งโดยทั่วไปพื้นผิวถัดจากเวลาไม่ถึงเวลา ในความวุ่นวายทั้งหมดนี้สิ่งที่มักจะหายไป (นอกเหนือจากความเป็นอยู่ที่ดีของมนุษย์) คือความรับผิดชอบ
และความรับผิดชอบกลายเป็นสิ่งที่สำคัญยิ่งกว่าเมื่อคุณพิจารณาว่าผลิตภัณฑ์เหล่านี้มาจากแบรนด์ขนาดใหญ่ที่มีฐานผู้บริโภคที่มีรายได้นับล้าน มันเป็นสิ่งหนึ่งที่องค์กรที่ค่อนข้างเล็กจะทำผิดพลาดหรือทำการกำกับดูแล แต่เมื่อชอบเมตา, Openai และ Google ทำผิดข้อผิดพลาดมีศักยภาพหายนะ แน่นอนว่าควรมีความรับผิดชอบบางอย่างที่นี่? ผลกระทบบางอย่างสำหรับผู้ที่ปล่อยผลิตภัณฑ์ที่เป็นอันตรายต่อบุคคลโดยไม่ให้คำเตือนใด ๆ ?
หรือ "แก้ไข" เพียงพอหรือไม่?
ในความเร่งรีบในการพัฒนาและเปิดตัวโมเดล AI ใหม่ยักษ์ใหญ่ด้านเทคโนโลยีเหล่านี้ดูเหมือนจะมีคุณสมบัติการเปิดตัวและบริการที่เป็นปกติซึ่งอาจเป็นอันตรายสำหรับผู้ใช้ ดูเหมือนว่าจะมีขอบเขตทางจริยธรรมการตรวจสอบหรือการรักษาที่สามารถป้องกันไม่ให้แบรนด์เทคโนโลยีใช้ผู้บริโภคเป็นหนูทดลอง เพราะมันไม่เหมือนกับการป้องกันไม่สามารถสร้างขึ้นในตัวแทน AI เหล่านี้ได้
กฎระเบียบและการป้องกันทุกคน?
ประเด็นที่จะเข้าใจที่นี่คือแชทบอทที่มีมนต์ขลังเหล่านี้ได้รับการพัฒนาโดยมนุษย์ มนุษย์ที่ให้อำนาจและอนุญาตให้แชทบอทเหล่านี้ประพฤติตัว มีเหตุผลว่าทำไม Deepseek ปฏิเสธที่จะตอบคำถามที่ไม่สอดคล้องกับนโยบายของจีนหรือทำไม ChatGPT ได้รับการออกแบบมาโดยเฉพาะเพื่อไม่ให้สร้างโป๊เปลือย ข้อ จำกัด การป้องกันและการแจ้งเตือนสามารถสร้างขึ้นได้ความจริงที่ว่าพวกเขาไม่เพียง แต่แสดงให้เห็นว่ามีคนที่แสดงธงสีเขียวให้กับธงสีแดง-พฤติกรรมของโมเดล AI และการตัดสินจากความถี่ที่เกิดเหตุการณ์ที่น่าเป็นห่วงดังกล่าวเป็นที่ชัดเจนว่าไม่มากเกินไปในด้านแบรนด์กำลังจ่ายราคาสำหรับการตัดสินหรือขาดพวกเขา
ทั้งหมดนี้สามารถแก้ไขได้ด้วยความโปร่งใสในแนวทางและนโยบาย บ่อยครั้งเป็นกรณีของผลิตภัณฑ์อื่น ๆ อีกมากมาย แต่ด้วยเหตุผลบางอย่าง AI ดูเหมือนจะค่อนข้างยกเว้นกฎระเบียบนี้ หากมีเพียง บริษัท เทคโนโลยีเท่านั้นที่สามารถกำหนดเส้นสีแดงได้ว่าอะไรก็โอเคและสิ่งที่ไม่ได้และให้คำเตือนที่เพียงพอต่อสาธารณะปัญหาครึ่งหนึ่งเหล่านี้จะหยุดอยู่ รวมสิ่งนี้เข้ากับกฎหมายที่เข้มงวด (อิลลินอยส์ได้ จำกัด การใช้ AI เป็นนักบำบัด) การลงโทษที่หนักหน่วงแทนที่จะขอโทษที่อ่อนแอซึ่งไม่เปลี่ยนแปลงอะไรเลยและการกำกับดูแลของมนุษย์มากขึ้นหลังจากการเปิดตัวแบบจำลอง AI
ในขณะที่ข้อได้เปรียบของผู้เสนอญัตติในช่วงต้นมีความสำคัญในสาขาที่เติบโตอย่างรวดเร็วเท่ากับ AI แต่เรารู้สึกอย่างยิ่งว่ามันไม่ควรมาจากค่าใช้จ่ายด้านความปลอดภัยของผู้ใช้ แพลตฟอร์ม AI ที่ปลอดภัยและยั่งยืนสามารถสร้างได้ด้วยความขยันเนื่องจาก และนั่นต้องใช้เวลา - เวลาที่แบรนด์ดูเหมือนจะไม่คิดว่าจะลงทุน ตอนนี้แบรนด์เทคโนโลยีกำลังดำเนินการแข่งขัน AI ในราคาเด็กชุมชนชายขอบและผู้คนที่มีความเสี่ยง และพวกเขาก็ออกไปด้วยการพูดว่า“ เราแก้ไขมัน”