วิธีสร้าง AI อย่างมีจริยธรรมที่ได้ผล

เผยแพร่แล้ว: 2023-03-30

ก่อนที่จะใช้ปัญญาประดิษฐ์ (AI) ทีมต้องมีเฟรมเวิร์ก AI ที่รับผิดชอบและกล่องเครื่องมืออยู่แล้ว แม้ว่านวัตกรรมจะมีข้อดีมากมายก็ตาม AI เป็นเทคโนโลยีที่เป็นกลาง มันไม่ได้ผิดจริยธรรมหรือผิดศีลธรรมโดยเนื้อแท้ อีกทางหนึ่ง AI เป็นเทคโนโลยีที่ปฏิบัติตามบรรทัดฐานและมาตรฐานทางสังคม จำเป็นอย่างยิ่งที่จะต้องวิเคราะห์ว่าข้อจำกัด ข้อจำกัด หรือมาตรฐานใดที่มีอยู่หรือควรกำหนดขึ้นเพื่อรองรับ AI ที่มีจริยธรรม

AI เชิงจริยธรรมคืออะไร?

โดยทั่วไปแล้ว AI ที่มีจริยธรรมสามารถกำหนดได้ว่าเป็นอัลกอริทึมด้านวิทยาศาสตร์ข้อมูลที่คาดการณ์และกระตุ้นการกระทำที่ไม่ลำเอียงในธรรมชาติ เช่น ไม่เลือกปฏิบัติในแง่ของเพศ เพศ เชื้อชาติ ภาษา ความพิการ หรือลักษณะทางประชากรศาสตร์อื่นๆ และยังตั้งค่า รากฐานสำหรับการตัดสินใจทางธุรกิจที่เท่าเทียมกันมากขึ้น

PwC ระบุคุณลักษณะต่อไปนี้ของ AI ที่มีจริยธรรม:

  • การตีความ: ควรสามารถอธิบายกระบวนการตัดสินใจได้อย่างครบถ้วน
  • ความเชื่อถือได้: ควรทำงานภายในขอบเขตของการออกแบบและสร้างการคาดการณ์และคำแนะนำที่เป็นมาตรฐานและทำซ้ำได้
  • ความปลอดภัย: ควรได้รับความปลอดภัยจากความเสี่ยงทางไซเบอร์ โดยเฉพาะอย่างยิ่งความเสี่ยงที่เกิดจากบุคคลที่สามและคลาวด์
  • ความรับผิดชอบ: ควรมีการระบุเจ้าของที่รับผิดชอบผลที่ตามมาทางจริยธรรมของการใช้แบบจำลอง AI โดยเฉพาะ
  • ประโยชน์: ควรให้ความสำคัญกับประโยชน์ส่วนรวม โดยเน้นที่ความยั่งยืน การทำงานร่วมกัน และความโปร่งใส
  • ความเป็นส่วนตัว: ควรเผยแพร่การรับรู้เกี่ยวกับข้อมูลที่ได้รับและข้อมูลที่ใช้งาน
  • หน่วยงานของมนุษย์: ควรอำนวยความสะดวกในการดูแลและการมีส่วนร่วมของมนุษย์มากขึ้น
  • ความถูกต้องตามกฎหมาย: ควรปฏิบัติตามกฎหมายและแนวปฏิบัติที่เกี่ยวข้องทั้งหมด
  • ความเป็นธรรม: ไม่ควรมีอคติต่อบุคคลหรือกลุ่มบุคคล
  • ความปลอดภัย: ไม่ควรเป็นอันตรายต่อสุขภาวะทางร่างกายหรือจิตใจของบุคคล

น่าเสียดายที่ AI ตามหลักจริยธรรมไม่ใช่มาตรฐานอุตสาหกรรมโดยปริยาย และหลายบริษัทกำลังเผชิญกับอุปสรรคในการดำเนินการ ในการสำรวจเมื่อเร็วๆ นี้ ผู้ตอบแบบสอบถามตระหนักถึงความสำคัญของ AI ที่มีจริยธรรม แต่การทำตามสัญญานี้ยากกว่าที่คิด ผู้บริหารระดับสูงเก้าในสิบ (90%) ยอมรับว่ามาตรฐานทางศีลธรรมในการสร้างและใช้เทคโนโลยีใหม่ ๆ อาจช่วยให้องค์กรมีความได้เปรียบในการแข่งขัน อย่างไรก็ตาม ประมาณสองในสาม (64%) ของผู้บริหารระดับสูงสังเกตเห็นอคติในระบบ AI ที่องค์กรของตนใช้

3 เส้นทางสู่การสร้าง AI อย่างมีจริยธรรม

มีวิธีการทั่วไปสามวิธีในการลดความเสี่ยงด้านจริยธรรมที่เกี่ยวข้องกับข้อมูลและ AI: วิธีการทางวิชาการ วิธีการขององค์กร และวิธีการกำกับดูแล นักจริยศาสตร์ซึ่งมักพบในแผนกปรัชญานั้นเก่งในการระบุปัญหาทางจริยธรรม ที่มาของมัน และวิธีหาเหตุผลรอบตัว

กลยุทธ์ "ภาคพื้นดิน" ตามมา โดยทั่วไปแล้ว นักเทคโนโลยีที่กระตือรือร้น นักวิเคราะห์ข้อมูล และผู้จัดการผลิตภัณฑ์มักเป็นผู้ที่ตั้งคำถามสำคัญภายในองค์กร พวกเขาคุ้นเคยกับการถามคำถามเกี่ยวกับความเสี่ยงที่เกี่ยวข้องกับธุรกิจ เนื่องจากพวกเขาเป็นคำถามที่สร้างผลิตภัณฑ์เพื่อให้บรรลุวัตถุประสงค์ทางธุรกิจที่เฉพาะเจาะจง

ขณะนี้มีองค์กรต่างๆ (ไม่รวมถึงรัฐบาล) ที่ใช้บรรทัดฐานทางจริยธรรมระดับสูงของ AI ตัวอย่างเช่น Google และ Microsoft ประกาศค่านิยมเมื่อหลายปีก่อน เนื่องจากค่านิยมองค์กรที่หลากหลายในหลายภาคส่วน นโยบายด้านข้อมูลและจริยธรรมของ AI จะต้องปรับให้เข้ากับข้อกำหนดทางการค้าและกฎหมายเฉพาะขององค์กร มีหลายขั้นตอนที่คุณในฐานะผู้นำธุรกิจสามารถทำได้เพื่อบรรลุเป้าหมายนี้

ขั้นตอนในการสร้าง AI อย่างมีจริยธรรมที่ได้ผล

ในการสร้าง AI ที่มีจริยธรรมตั้งแต่เริ่มต้น (แทนที่จะติดตั้งเพิ่มเติมระบบ AI ที่มีอยู่ด้วยจริยธรรม) ให้คำนึงถึงขั้นตอนต่อไปนี้:

  1. กำหนดข้อตกลงร่วมกันว่าจริยธรรมของ AI หมายถึงอะไร

คำอธิบายนี้ต้องแม่นยำและนำไปใช้ได้จริงสำหรับผู้มีส่วนได้ส่วนเสียขององค์กรที่สำคัญทั้งหมด การสร้างทีมผู้เชี่ยวชาญข้ามสายงานเพื่อให้คำแนะนำกิจกรรมทั้งหมดเกี่ยวกับการพัฒนา การผลิต และการนำ ML และ AI มาใช้อย่างมีจริยธรรมก็เป็นแนวคิดที่ยอดเยี่ยมเช่นกัน

  1. ผลกระทบของแคตตาล็อก AI ต่อระบบธุรกิจ

องค์ประกอบที่สำคัญในการพัฒนาเฟรมเวิร์ก AI อย่างมีจริยธรรมคือการบันทึกการใช้งาน AI ของบริษัท ธุรกิจกำลังนำ AI มาใช้อย่างรวดเร็ว โดยเฉพาะอย่างยิ่งในอวตารของระบบผู้แนะนำ บอท การสร้างแบบจำลองการแบ่งกลุ่มลูกค้า เครื่องมือคิดต้นทุน และการตรวจจับความผิดปกติ การตรวจสอบเทคนิค AI ดังกล่าวเป็นประจำและกระบวนการหรือแอปพลิเคชันที่ฝังอยู่เป็นสิ่งสำคัญในการป้องกันภัยคุกคามด้านลอจิสติกส์ ชื่อเสียง และการเงินต่อบริษัทของคุณ

  1. สร้างกรอบข้อมูลและความเสี่ยงด้านจริยธรรมของ AI ที่เหมาะกับอุตสาหกรรมของคุณ

กรอบการทำงานที่มีประสิทธิผลนั้นรวมถึงรากฐานของค่านิยมทางจริยธรรมของบริษัท รูปแบบการกำกับดูแลที่เสนอ และคำอธิบายว่าจะรักษาการกำหนดค่านี้ไว้อย่างไร สิ่งสำคัญคือต้องสร้าง KPI และโปรแกรม QA เพื่อประเมินประสิทธิภาพอย่างต่อเนื่องของแนวทาง AI อย่างมีจริยธรรม

กรอบการทำงานที่ครอบคลุมยังอธิบายถึงการรวมการบริหารความเสี่ยงด้านจริยธรรมเข้ากับการดำเนินงาน ควรมีขั้นตอนที่ชัดเจนในการรายงานประเด็นด้านจริยธรรมต่อผู้นำระดับสูงหรือคณะกรรมการจริยธรรม

  1. เพิ่มประสิทธิภาพคำแนะนำและเครื่องมือด้านจริยธรรมของ AI สำหรับผู้จัดการผลิตภัณฑ์

แม้ว่ากรอบของคุณจะให้คำแนะนำในระดับที่กว้างขึ้น แต่คำแนะนำในระดับผลิตภัณฑ์จะต้องแม่นยำ อัลกอริธึมการเรียนรู้ของเครื่องมาตรฐานจะจดจำรูปแบบที่ซับซ้อนเกินกว่าที่มนุษย์จะเข้าใจได้ ปัญหาคือบ่อยครั้งที่ความขัดแย้งเกิดขึ้นระหว่างการแสดงผลลัพธ์ที่อธิบายได้ในอีกด้านหนึ่งและความถูกต้องในอีกด้านหนึ่ง

ผู้จัดการผลิตภัณฑ์ต้องสามารถแลกเปลี่ยนสิ่งนี้ได้ หากผลลัพธ์ขึ้นอยู่กับข้อจำกัดที่ต้องการคำอธิบาย เช่น เมื่อสถาบันการเงินต้องอธิบายว่าเหตุใดการขอสินเชื่อจึงถูกปฏิเสธ ความแม่นยำจะมีความสำคัญ ผู้จัดการผลิตภัณฑ์ควรมีเครื่องมือในการวัดความสำคัญในกรณีการใช้งานเฉพาะ

  1. ติดตามผลกระทบและมีส่วนร่วมกับผู้มีส่วนได้ส่วนเสีย

การสร้างการรับรู้ขององค์กร คณะกรรมการจริยธรรม เจ้าของผลิตภัณฑ์ที่มีความรู้ ผู้จัดการ สถาปนิก และนักวิเคราะห์ข้อมูลล้วนเป็นส่วนประกอบของกระบวนการพัฒนา และตามหลักการแล้วคือขั้นตอนการซื้อ เนื่องจากการขาดแคลนทรัพยากร การจัดการเวลา และการไม่สามารถคาดการณ์ล่วงหน้าได้ทั้งหมดว่าสิ่งต่าง ๆ อาจผิดพลาดได้ การตรวจสอบผลกระทบของข้อมูลและผลิตภัณฑ์ AI ในตลาดจึงเป็นเรื่องสำคัญ

ตัวอย่าง AI ด้านจริยธรรม: การวิเคราะห์ความรู้สึก

ตัวอย่างที่ยอดเยี่ยมของการผสานรวมความยุติธรรมและความครอบคลุมคือการประเมินความรู้สึก เพื่อเตรียมแบบจำลอง ML เพื่อแยกความรู้สึกทั้งเชิงบวกและเชิงลบในข้อมูลที่เป็นข้อความ เราต้องให้ข้อมูลการฝึกอบรมที่เพียงพอในแง่ของบริบททางสังคมและภาษาศาสตร์

ในสถานการณ์ภาษาศาสตร์สังคม คุณใช้ภาษาอะไร คุณกำลังพิจารณาการนำเข้าทางวัฒนธรรมที่กว้างขึ้นซึ่งจะอยู่ควบคู่กับแท็กแสดงอารมณ์ของคุณหรือไม่? คุณได้คำนึงถึงความแปรปรวนทางภาษาในระดับภูมิภาคหรือไม่? ปัญหาเหล่านี้เกี่ยวข้องกับทั้งองค์ประกอบการรู้จำเสียงอัตโนมัติ (ASR) และการประมวลผลภาษาธรรมชาติ (NLP) ของปัญญาประดิษฐ์ที่มีจริยธรรม

หากโมเดล ASR ของคุณได้รับการฝึกฝนเป็นภาษาอังกฤษแบบสหรัฐอเมริกาเท่านั้น คุณอาจพบปัญหาการถอดความขณะประมวลผลรูปแบบภาษาอังกฤษอื่นๆ ในกรณีนี้ ความแตกต่างที่สำคัญระหว่างภาษาอังกฤษแบบอเมริกันและแบบออสเตรเลียน ได้แก่ การออกเสียง r ในสถานการณ์ทางภาษาเฉพาะ และความแปรปรวนของการออกเสียงสระในคำต่างๆ ซึ่งต้องรวมอยู่ในระบบ AI

การใช้ AI อย่างมีจริยธรรม

นอกเหนือจากการสร้าง AI อย่างมีจริยธรรมแล้ว การใช้งานยังต้องได้รับการพิจารณาและควบคุมด้วย เมื่อบุคคลได้รับรางวัลทางการเงินสำหรับการกระทำที่ผิดจรรยาบรรณ มาตรฐานทางจริยธรรมก็จะถูกทำลายลง โปรดจำไว้ว่า การใช้งานระบบอย่างไม่เป็นธรรมอาจก่อให้เกิดอันตราย และไม่ใช่ความไม่เท่าเทียม ความทึบ หรือคุณลักษณะทางเทคนิคอื่นๆ ของระบบ

ตัวอย่างเช่น ใช้อัลกอริทึม Deepfake ซึ่งเป็นเทคนิค AI ที่มักใช้เพื่อจุดประสงค์ที่เป็นอันตราย Deepfakes ออนไลน์ส่วนใหญ่สร้างขึ้นโดยไม่ได้รับอนุญาตจากเหยื่อ แม้ว่าจะเป็นไปได้ที่จะทำให้มั่นใจได้ว่าเครือข่ายฝ่ายตรงข้ามที่สร้างสรรค์ซึ่งใช้โครงสร้าง Deepfakes นั้นทำงานได้ดีเท่าเทียมกันกับผู้คนทุกสีผิวและทุกเพศ การปรับปรุง/แก้ไขความเป็นธรรมเหล่านี้ไม่มีผลสืบเนื่อง เนื่องจากมีการใช้อัลกอริทึมเดียวกันนี้เพื่อจุดประสงค์อื่นที่เป็นอันตรายมากกว่า

AI อย่างมีจริยธรรมจะต้องถูกถักทอในทุกขั้นตอนของท่อส่งปัญญาประดิษฐ์ นับตั้งแต่เวลาของการกำหนดแนวคิดของอัลกอริทึมไปจนถึงการพัฒนา ตลอดจนการใช้งานและการบำรุงรักษาที่ยาวนาน ตามที่บทความนี้อธิบาย มีห้าขั้นตอนที่ต้องปฏิบัติตามเมื่อพัฒนา AI อย่างมีจริยธรรม ควบคู่ไปกับการใช้ชุดข้อมูลอย่างมีจริยธรรมสำหรับการฝึกอบรมโมเดล AI และการศึกษาผู้ใช้