เมื่อ AI เลือกข้าง ถึงเวลาแล้วที่เราต้องรับรู้ถึงความอคติที่แฝงอยู่ในข้อมูล และเราจำเป็นต้องทำอะไรสักอย่างเพื่อเพิ่มความหลากหลายของคนที่ทำงานอยู่ในวงการ AI

อังคาร ๐๒ กรกฎาคม ๒๐๑๙ ๐๙:๒๓
ในปัจจุบัน ปัญญาประดิษฐ์ (AI) ถูกพัฒนามาอย่างต่อเนื่อง และเริ่มมีการใช้งานแพร่หลายมากขึ้น สิ่งที่มักถูกพูดถึงควบคู่ไปด้วยคือ ประเด็นด้านจริยธรรมที่เกี่ยวกับการที่AI จะเข้ามาทดแทนแรงงานมนุษย์ หรือผลกระทบที่อาจจะเกิดจากความผิดพลาดหรือความไม่แม่นยำของโปรแกรม

อีกหนึ่งประเด็นที่มักจะถูกมองข้ามไปนั่นก็คือ ความอคติที่แฝงอยู่ในระบบ AI ต่างๆ ที่กำลังเริ่มเป็นตัวขับเคลื่อนสังคมของเราในทุกวันนี้ ตัวอย่างเช่น มีการศึกษาพบว่า โฆษณาออนไลน์ที่ถูกสร้างจาก Machine Learning จะมีแนวโน้มในการเสนอข้อมูลการรับสมัครงานที่มีเงินเดือนสูงให้แก่ผู้ชายมากกว่าผู้หญิง ซึ่งการศึกษานี้แสดงให้เห็นถึงความน่ากังวลเกี่ยวกับการเลือกปฏิบัติของระบบการคำนวนอันซับซ้อน (อัลกอริทึม)

นี่ไม่ใช่ครั้งแรกที่พบการเหยียดเพศหรือเหยียดเชื้อชาติในอัลกอริทึม ผลการศึกษาที่ผ่านมาแสดงให้เห็นว่า ตัวอัลกอริทึมที่ถูกสอนด้วยชุดข้อมูลที่เหยียดเชื้อชาตินั้น มีอัตราความผิดพลาดสูงเมื่อนำมาใช้ต่อชุมชนของคนผิวสี โดยเฉพาะในการประเมินแนวโน้มการกระทำผิดซ้ำของนักโทษนั้น มีอัตราที่สูงเกินจริง และมีความแม่นยำน้อย อันที่จริงแล้วมีอัลกอริทึมสำหรับประเมินความเสี่ยงที่ใช้กันทั่วไปตัวหนึ่ง ความถูกต้องของผลการทำนายเทียบเท่ากับการจ่ายเงิน 1ดอลล่าร์จ้างให้คนทั่วไปทายว่า นักโทษคนไหนจะกระทำผิดซ้ำเท่านั้น

แต่ไม่ว่าอัลกอริทึมเหล่านี้จะทำนายผลออกมาอย่างไร ก็ไม่มีอะไรรับประกันได้ว่าบรรดาผู้พิพากษาหรือผู้ตัดสินอนุญาตประกันตัวจะใช้ข้อมูลเหล่านั้นเพื่อลดการจองจำหรือเพื่อปกป้องความปลอดภัยของประชาชนอย่างเสมอต้นเสมอปลาย ที่จริงแล้วมีหลักฐานบางชิ้นบ่งชี้ว่า แรงกดดันทางการเมืองที่เข้ามามีผลเหนือการตัดสินใจของ AI ซึ่งมีวัตถุประสงค์ในการเอื้อประโยชน์ให้ผู้ต้องหานั้นมีโอกาสเกิดขึ้นน้อยลงจนแทบไม่เกิดขึ้นเลย แต่ยังไม่เป็นที่แน่ชัดว่าเครื่องมือเหล่านี้ใช้เพื่อประโยชน์อันใด

เหตุใดจึงเกิดเรื่องเช่นนี้ขึ้น

ในความเป็นจริง เทคโนโลยี AI ที่เราใช้กันอยู่นั้น มักจะมาพร้อมกับอคติของผู้พัฒนา เพราะกลุ่มคนเหล่านี้เป็นเพียงคนกลุ่มเล็กๆ และไม่ได้มีคนมาจากทุกภาคส่วนของสังคม ส่งผลให้ AI ยังไม่สามารถทำงานโดยปราศจากอคติได้ ด้วยเหตุผลดังกล่าว AI จึงไม่ใช่เครื่องจักรที่ทำงานอย่างเที่ยงตรงโดยปราศจากอคติ แต่เป็นภาพสะท้อนของผู้พัฒนาว่าพวกเขาเห็นอะไรสำคัญและไม่สำคัญ ข้อมูลชุดไหนที่ถูกนำมาใช้หรือถูกละเลยในการพัฒนา AI

ยกตัวอย่างเช่น ระบบสั่งงานด้วยเสียงอย่าง Siri และ Alexa ในขณะที่ระบบเหล่านี้ควรที่จะทำงานตามคำสั่งเสียงของเราได้ แต่เราหลายคนอาจเคยมีประการณ์ที่ต้องพยายามพูดซ้ำครั้งแล้วครั้งเล่าเพื่อทำให้อุปกรณ์เหล่านี้เข้าใจคำสั่งของเรา

Siri กับ Alexa ถูกเทรนมาด้วยชุดข้อความเสียงจำนวนมหาศาล ถึงแม้ว่าจะมีข้อความเสียงภาษาอังกฤษ แตกต่างกันมากถึง 160 สำเนียงทั่วโลก เสียงและสำเนียงส่วนใหญ่ที่ถูกนำมาใช้มักจะมาจากผู้พูดเพียงไม่กี่กลุ่มเท่านั้น เช่น สำเนียงแบบชนชั้นกลางค่อนสูง (สำเนียงแบบผู้ประกาศข่าว) ซึ่งข้อมูลนี้คือข้อมูลที่เทรนเสียงให้ AI เข้าใจและตอบรับคำสั่งหรือคำถามของพวกเรา

แล้วถ้าหากภาษาอังกฤษไม่ใช่ภาษาแม่ของคุณล่ะ? ถ้าหากคุณพูดติดอ่าง หรือคุณเองมีความผิดปกติทางด้านการออกเสียงล่ะ? คุณเคยลองพูดกับ Siri ด้วยสำเนียงสิงคโปร์ (Singlish) แล้วระบบไม่เข้าใจสิ่งที่คุณพูดหรือไม่? เมื่อฐานข้อมูลเหล่านี้ไม่ได้ทำการเก็บตัวอย่างสำเนียง หรือภาษาถิ่นต่างๆที่หลากหลายมากเพียงพอ ถูกนำมาใช้เทรน AI จึงทำให้ยากที่จะเข้าใจคนที่พูดด้วยสำเนียง หรือภาษาถิ่นเหล่านั้น เมื่อระบบเหล่านี้ไม่มีประโยชน์กับคนที่ใช้สำเนียงแตกต่างออกไปในภูมิภาคต่างๆ แล้ว พวกเขาก็จะไม่ใช้มัน ทำให้ข้อมูลสำเนียงและภาษาถิ่นเหล่านี้ไม่ถูกนำมาใช้เทรน AI สุดท้าย AI ก็วนอยู่ในวงจรการเรียนรู้จากภาษาที่มีอยู่อย่างจำกัด

ผลกระทบร้ายแรงที่ตามมา

อคติที่แฝงใน Machine learning สามารถก่อให้เกิดผลกระทบร้ายแรงตามมาได้อย่างคาดไม่ถึง ลองจินตนาการถึงสิ่งที่อาจเกิดขึ้นในอุตสาหกรรมการดูแลสุขภาพ (Healthcare) ดูสิ บรรดาผู้เชี่ยวชาญ AI จำนวนมากต่างก็มองเห็นโอกาสที่จะนำระบบการตัดสินใจอัตโนมัติเข้าไปใช้งาน เช่น การใช้ซอฟต์แวร์จดจำรูปภาพเพื่อวินิจฉัยการเกิดเนื้องอกในการสแกน MRI

จะเกิดอะไรขึ้น หากคนไม่เชื่อมั่นหรือลุกขึ้นมาตั้งคำถามกับซอฟต์แวร์หรือพวกอุปกรณ์ราคาแพงเหล่านี้? แพทย์หรือพยาบาลอาจถูกฝึกฝนมาให้ใช้งานเทคโนโลยี แต่ไม่ได้ถูกฝึกฝนมาให้เข้าใจว่าระบบเหล่านี้มีการทำงานอย่างไร มีการตัดสินใจอย่างไร หรือมีอคติและข้อจำกัดอะไรบ้าง การตัดสินใจที่เกิดจากความเชื่อมั่นในข้อมูลและเทคโนโลยีว่าเป็นสิ่งที่เห็นทุกอย่าง รู้ทุกอย่าง และจะทำให้ทุกอย่างดีขึ้น ความเชื่อเหล่านี้ถ้ามากเกินไปอาจส่งผลอันตรายได้

อีกหนึ่งอคติที่มักจะพบใน AI ก็คือ โมเดลที่ใช้ประเมินความเสี่ยง ตัวอย่างของซอฟต์แวร์ในระบบที่ต้องทำการตัดสินใจ เช่น การอนุมัติเงินกู้ หรือตัดสินว่าจะให้ประกันตัวหรือจำคุกนานกว่าคนอื่น ซึ่งโดยปกติแล้ว เรามักจะคุ้นเคยกับความคิดที่ว่า การตัดสินใจเรื่องเหล่านี้ไม่ควรนำเรื่องเพศ ศาสนา หรือเชื้อชาติ มาเป็นองค์ประกอบในการตัดสินใจ ทว่าในความเป็นจริงนั้น เป็นไปได้ว่าอัลกอริทึม จะนำข้อมูลอย่างที่มีอยู่หรือประวัติการศึกษามาตัดสินใจประกอบกับข้อมูลประชากรอื่นๆ ซึ่งอาจส่งผลให้เกิดอคติด้านเชื้อชาติและอื่นๆ ได้

หากเราใช้ข้อมูลในอดีตมาเทรน AI ก็เท่ากับว่าเราได้นำอคติในอดีตมาป้อนใส่ในระบบที่เรากำลังสร้าง มันคือการผลิตซ้ำความผิดพลาดในอดีตให้เกิดขึ้นสืบต่อไป นอกจากนี้ การโยนความรับผิดชอบเรื่องการตัดสินใจบนอคติไปให้กับเทคโนโลยีและซ่อนมันเอาไว้ภายใต้อัลกอริทึมที่มีความซับซ้อนก็ยังเป็นเรื่องที่เกิดขึ้นง่าย เพราะ AI หลายตัวมีลักษณะการทำงานเสมือนกับ "กล่องดำ" ที่ซับซ้อนเกินกว่าจะเข้าใจได้ง่ายๆ หรืออาจถูกอ้างว่าอัลกอริทึมนั้นเป็นความลับทางการค้าของบริษัทที่ไม่จำเป็นต้องอธิบาย

เพื่อจะทำความเข้าใจสิ่งที่ AI แนะนำ เราจะต้องร่วมมือกับ Data scientist ในกระบวนการตัดสินใจที่ต้องคำนึงถึงด้านสิทธิของชุมชน ด้านสวัสดิภาพของเด็กและด้านกระบวนการยุติธรรมในบริบทต่างๆ ที่เกี่ยวข้องกับบริบทที่เราจะใช้อัลกอริทึมมาประเมินความเสี่ยง ซึ่งอาจหมายถึงการตัดสินใจระงับการใช้ Machine learning หากไม่ก่อให้เกิดผลลัพธ์ที่แม่นยำเพียงพอ

เมื่อมีเครื่องมือที่ช่วยทำให้การใช้งาน AI ง่ายขึ้น ความอคติที่แฝงมาด้วยจึงเป็นปัญหาที่เร่งด่วนตามไปด้วยเช่นกัน

ความท้าทายในการทำความเข้าใจเรื่องอคติใน AI นั้นถูกทำให้ซับซ้อนขึ้นไปอีกด้วยเครื่องมือและแพลตฟอร์มต่างๆที่เกิดมามากมายเร็วๆนี้ หรือที่รู้จักกันในนาม AI as a service อันเป็นเทคโนโลยีที่ทำให้การสร้างระบบง่ายกว่าเดิมมาก ทุกวันนี้การสร้างระบบจำแนกใบหน้านั้นง่ายดายมาก เพราะมีเครื่องมือจำแนกใบหน้าที่ซึ่งถูกเทรนมาแล้วพร้อมให้ใช้ใช้บนแพลตฟอร์มคลาวด์ เราจึงจำเป็นต้องมีบุคคลากรที่สามารถประเมินวิธีการ เทรนข้อมูล รวมไปถึงการทดสอบและควบคุมดูแล วิธีการที่ AI ถูกนำไปใช้งาน

ในปัจจุบัน นักพัฒนา AI เป็นสัดส่วนที่น้อยมาก เมื่อเทียบกับประชากรทั้งหมด ดังนั้นเรื่องความหลากหลายของคนที่อยู่ในสายงานนี้จึงเป็นประเด็นสำคัญที่เราต้องคำนึงถึง เช่น ผลจากการวิจัยชี้ให้เห็นว่า ในงานด้านการพัฒนา Machine learning มีสัดส่วนของผู้หญิงเพียง 13.5% เท่านั้น ดังนั้น จึงไม่น่าแปลกใจที่จะเกิดอคติด้านวัฒนธรรม เศรษฐกิจ และสังคมขึ้นในอัลกอริทึม เราจึงจำเป็นต้องเพิ่มความหลากหลายของกลุ่มคนที่สร้างอัลกอริทึมเหล่านี้

อย่างไรก็ตามแม้ทุกวันนี้ AI จะครอบคลุมหลายด้านมากเพียงใด แต่กลุ่มคนที่สร้าง AI ส่วนมากยังกระจุกตัวอยู่ เนื่องจากเป็นสาขางานที่มีความเฉพาะทางสูง ทำให้คนทำงานในสายงานนี้เป็นผู้เชี่ยวชาญทางเทคนิกเฉพาะทางที่สนใจการพัฒนาด้านคุณภาพและการประยุกต์ใช้ AI แต่มันก็มีความสำคัญที่จะเพิ่มความหลากหลาย ด้วยการนำผู้ที่ไม่ได้มีความเชี่ยวชาญในเชิงเทคนิคเข้ามามีส่วนร่วมด้วย เพื่อให้ AI ถูกสร้างออกมาเป็นระบบที่ทำงานเพื่อทุกคนอย่างแท้จริง

ความรับผิดชอบของทุกคน

ถึงแม้มันมีเหตุผลมากมายที่เราควรกังวลเกี่ยวกับอคติที่แฝงอยู่ใน AI มันก็ยังมีอีกด้านหนึ่งที่พยายามแก้ไขความกังวลเหล่านี้ ซึ่งต้องยกเครดิตให้ Mozilla ผู้ที่กำลังพัฒนาเทคโนโลยีการจดจำด้วยเสียง ด้วยการใช้เทคโนโลยี crowd-sourcing* และการเก็บรวบรวมคำพูดต่างๆ กว่า 10,000 ชั่วโมงจากคนทั่วโลก อีกทั้ง Mozilla ยังมีโครงการCommon Voice ซึ่งเป็นฐานข้อมูลด้านเสียงที่เปิดให้บุคคลทั่วไปนำไปปรับใช้ในการสร้างแอปพลิเคชั่นที่สั่งการด้วยเสียงได้

ในขณะที่งานในช่วงแรกของโครงการ Common Voice เริ่มจากการเก็บข้อมูลเป็นภาษาอังกฤษ แต่ปัจจุบันนั้นยังมีการรวบรวมตัวอย่างภาษาอื่นๆ เช่น ฝรั่งเศส เยอรมัน และเวลส์ และในอนาคตทางโครงการยังมีแผนที่จะเก็บตัวอย่างภาษาจาก เกาหลี จอร์เจีย และอินโดนีเซียอีกด้วย ซึ่งการเก็บข้อมูลภาษาที่หลากหลายมากขึ้นเรื่อยๆ นั้น จะเป็นประตูที่เปิดโอกาสให้การสร้างระบบสั่งงานด้วยเสียงสามารถรองรับผู้คนได้หลากหลาย และกว้างขวางมากขึ้น

เพื่อทำให้เกิดการเปลี่ยนแปลงที่แท้จริง ทุกฝ่ายจำเป็นที่จะต้องเข้าใจว่าอคติที่แฝงอยู่ใน AI นั้นเกิดจากอะไร และเราจะป้องกันมันอย่างไร ซึ่งเราต้องตระหนักว่าเราทุกคนล้วนแต่มีความลำเอียง ดังนั้นเราจึงจำเป็นที่จะต้องตรวจสอบ และทำให้เกิดความสมดุลในข้อมูลที่จะถูกนำไปใช้อยู่เสมอ ซึ่งวิธีที่จะช่วยลดและกำจัดสิ่งเหล่านี้ คือการยอมรับว่าความลำเอียงของข้อมูลนั้นมีหลากหลายรูปแบบ และเราต้องตระหนักเสมอว่า AI นั้นมีขีดจำกัดตามข้อมูลที่เราใส่เข้าไป และท้ายที่สุดคือเราต้องยอมรับ และรับรู้ว่าตัวเราแต่ละคนนั้นมีความลำเอียง อย่างที่เราทุกคนเห็นว่าความลำเอียงยังคงเกิดขึ้นอยู่เสมอไม่ว่าจะเกิดจากตัวเรา หรือข้อมูลเองก็ตาม ถึงเวลาแล้วที่ทุกคนที่มีส่วนเกี่ยวข้องจะร่วมกันลด และกำจัดอคติที่แฝงอยู่ในระบบของเรา และร่วมกันสร้างวิธีการแก้ปัญหาที่ยั่งยืนต่อไป

ข่าวประชาสัมพันธ์ล่าสุด

๑๙ เม.ย. บิทูเมน มารีน บริษัทลูก TASCO ลงนามสัญญาต่อเรือขนส่งยางมะตอย เสริมศักยภาพกองเรือ
๑๙ เม.ย. รมว.เกษตรฯ ลุยร้อยเอ็ด ผลักดันโครงการพัฒนาแหล่งน้ำ 3 แห่ง
๑๙ เม.ย. กูรูหุ้นเชียร์ซื้อ PSP เคาะเป้าราคาสูงสุด 8 บ./หุ้น ยอดขายพุ่ง-หนี้ลด ดันกำไรปี 67 ออลไทม์ไฮ ดีล MA สร้าง New S-Curve
๑๙ เม.ย. ข้าวกล้อง-จักรีภัทร พร้อมเต็มร้อย! ประเดิม จูเนียร์จีพี สนามแรก ประเทศอิตาลี
๑๙ เม.ย. กรมประมงขอเชิญร่วมแข่งขันตกปลาชะโด
๑๙ เม.ย. เชลล์ดอน การ์ตูนดังร่วมสาดความสนุกในเทศกาลสงกรานต์
๑๙ เม.ย. สปสช. ติดปีกเทคโนโลยีไอทีด้วยคลาวด์กลางภาครัฐ GDCC ยกระดับบริการบัตรทองรวดเร็วทันสมัย ดูแลสุขภาพคนไทยยุคดิจิทัล
๑๙ เม.ย. GSK ร่วมงาน Re-imagining UK Aging Care Event ของสถานทูตอังกฤษ มุ่งสร้างเสริมภูมิคุ้มกันผู้สูงอายุ
๑๙ เม.ย. เอส เอฟ จับมือ กปน. มอบสิทธิ์ดูฟรีรวม 1,000 ที่นั่ง เพียงใช้ MWA Point ที่ เอส เอฟ!!
๑๙ เม.ย. เตรียมพร้อมนับถอยหลัง 12 ชั่วโมงสุดท้าย! ก่อนเริ่มประวัติศาสตร์ครั้งใหม่ Bitcoin Halving ครั้งที่ 4