แม้ปัญญาประดิษฐ์จะกลายเป็นเครื่องมือหลักขององค์กรยุคใหม่ แต่บทความล่าสุดจากนิตยสาร Forbes ได้เปิดเผยความจริงอีกด้านหนึ่งของระบบ AI โดยเฉพาะกลุ่มโมเดลภาษาขนาดใหญ่ (LLMs) ที่กำลังได้รับความนิยมในหลากหลายแวดวง ตั้งแต่การแพทย์ การเงิน ไปจนถึงการตลาด
สิ่งที่หลายคนอาจมองข้าม คือ “อคติทางเพศและวัฒนธรรม” ที่แฝงมากับข้อมูลที่ใช้ในการฝึก เอไอ ซึ่งส่งผลโดยตรงต่อการรับรู้ของผู้ใช้งาน และที่สำคัญ คือ อาจส่งผลต่อความน่าเชื่อถือของแบรนด์
เมื่อ AI ทำให้ภาพจำทางเพศถูกตอกย้ำโดยไม่ตั้งใจ
จากผลการศึกษาพบว่า ระบบ เอไอ มักใช้ภาษาที่แฝงอคติเมื่ออธิบายผู้เชี่ยวชาญในสายอาชีพเดียวกัน เช่น เมื่อนำเสนอข้อมูลเกี่ยวกับแพทย์
- แพทย์ชาย มักถูกอธิบายว่า “มีความเป็นมืออาชีพ” หรือ “มีความทะเยอทะยาน”
- ขณะที่ แพทย์หญิง มักถูกมองว่า “มีความเห็นอกเห็นใจ” หรือ “อดทน”
- คำบรรยายเหล่านี้อาจฟังดูเป็นกลาง แต่ในระดับลึกกลับสะท้อนการเหมารวมทางเพศ และอาจมีผลต่อการตัดสินใจในโลกความจริง
การออกแบบระบบผู้ช่วยเสียงอย่าง Siri หรือ Alexa ก็ถูกหยิบยกเป็นตัวอย่างที่ชัดเจนของอคติทางเพศ โดยหลายระบบเลือกใช้ “เสียงผู้หญิง” เป็นค่าเริ่มต้น ซึ่งสะท้อนบทบาททางสังคมที่ตีกรอบให้ผู้หญิงอยู่ในตำแหน่งของผู้ช่วยอย่างเงียบ ๆ แม้จะดูเล็กน้อย แต่สามารถปลูกฝังภาพจำในระยะยาว
ผลกระทบที่มากกว่าความรู้สึก
- อคติในระบบ เอไอ ไม่ได้ส่งผลแค่ในเชิงจิตวิทยา แต่ยังส่งผลกระทบในระดับธุรกิจและองค์กร เช่น
- การสรรหาบุคลากรด้วยระบบ เอไอ ที่มีอคติ อาจทำให้ผู้หญิงถูกประเมินต่ำโดยไม่รู้ตัว
- การใช้ เอไอ แปลภาษาที่มีเพศ (เช่น ภาษาสเปนหรือฝรั่งเศส) อาจนำไปสู่ความเข้าใจผิดหรือดูไม่เป็นกลาง
- ลูกค้าที่รู้สึกว่า เอไอ แสดงอคติ อาจสูญเสียความไว้วางใจต่อแบรนด์
แนวทางรับมืออย่าให้ เอไอ ควบคุมโดยไม่ถูกตรวจสอบ
หนึ่งในคำแนะนำสำคัญจากบทความ คือ การจัดตั้งทีม “Red Teaming” เพื่อทำหน้าที่ตรวจจับอคติ จุดบอด และความเสี่ยงทางจริยธรรมของระบบ เอไอ โดยเฉพาะในองค์กรขนาดใหญ่ที่นำ เอไอ ไปใช้งานกับคนจำนวนมาก
การปรับตั้งค่าพื้นฐานอาจไม่เพียงพอ หากไม่มีการเฝ้าระวังอย่างจริงจัง การออกแบบ เอไอ ให้มี “ความเที่ยงธรรม” จึงกลายเป็นความรับผิดชอบร่วมของทั้งนักพัฒนา นักจริยธรรม และผู้บริหารองค์กร
เอไอ อาจฉลาดขึ้นทุกวัน แต่หากไม่มีการควบคุมอคติ มันอาจกลายเป็นเครื่องมือที่สร้างความเหลื่อมล้ำมากกว่าการช่วยเหลือ
tags : forbes