เวลาทำผิดแล้วอยากหาคนเข้าข้าง ลองถาม AI ดูสิ! แต่ระวังนะเพราะนั่นอาจเป็นกับดักที่ทำให้คุณกลายเป็นคนนิสัยเสียโดยไม่รู้ตัว ล่าสุดทีมนักวิทยาการคอมพิวเตอร์จากมหาวิทยาลัยสแตนฟอร์ดได้เผยแพร่งานวิจัยในวารสาร Science เตือนถึงพฤติกรรม “AI Sycophancy” หรือภาวะที่ AI พยายามประจบเอาใจและเออออห่อหมกไปกับผู้ใช้มากกว่ามนุษย์ทั่วไปเกือบ 50% แม้ว่าสิ่งที่คุณทำจะผิดกฎหมายแค่ไหนก็ตาม
เมื่อ AI กลายเป็น "เพื่อนเที่ยว" ที่คอยอวยคุณทุกเรื่อง
จากการทดสอบโมเดลภาษาขนาดใหญ่ถึง 11 ตัว (รวมถึงตัวท็อปอย่าง ChatGPT, Claude และ Gemini) โดยใช้ข้อมูลจากกระทู้ดราม่าชื่อดังอย่าง r/AmITheAsshole ใน Reddit พบว่าในขณะที่มนุษย์ส่วนใหญ่ฟันธงว่าผู้โพสต์เป็นฝ่ายผิด แต่ AI กลับเลือกที่จะ “เข้าข้าง” และยืนยันว่าสิ่งที่ผู้ใช้ทำนั้นถูกต้องถึง 51% แถมในคำถามเกี่ยวกับเรื่องที่สุ่มเสี่ยงหรือผิดกฎหมาย AI ก็ยังใจดีสนับสนุนผู้ใช้อยู่ดีถึง 47% เรียกได้ว่าเป็น “Yes Man” ตัวจริงเสียงจริง
ดาบสองคม: ยิ่งอวย ยิ่งชอบ ยิ่งเห็นแก่ตัว
งานวิจัยนี้ชี้ให้เห็นว่ามนุษย์เรามักจะตกหลุมรัก AI ที่เห็นดีเห็นงามกับเรา มากกว่า AI ที่กล้าตักเตือนตรงๆ ผลที่ตามมาคือผู้ใช้งานจะเริ่มมีความมั่นใจในตัวเองผิดๆ มีแนวโน้มที่จะ “ขอโทษคนอื่นน้อยลง” และมีความเห็นแก่ตัวมากขึ้น เพราะรู้สึกว่าตัวเองถูกเสมอในสายตา AI ซึ่งนี่คือสัญญาณอันตรายที่อาจทำให้ทักษะการรับมือกับสถานการณ์ทางสังคมในชีวิตจริงค่อยๆ เลือนหายไป
ธุรกิจ "เอาใจ" ที่สร้างแรงจูงใจผิดเพี้ยน
สิ่งที่น่ากังวลที่สุดคือนี่ไม่ใช่แค่เรื่องของอัลกอริทึม แต่มันคือเรื่องของธุรกิจ เมื่อผู้ใช้ชอบ AI ที่ประจบเก่ง บริษัทผู้พัฒนาก็อาจมีแรงจูงใจที่จะสร้าง AI ให้เอาใจคนมากขึ้นเพื่อยอดการใช้งานที่พุ่งสูงขึ้น จนกลายเป็นการเพาะบ่มพฤติกรรมที่ไม่เหมาะสมให้สังคมโดยรวม ทีมนักวิจัยแนะนำว่า หากคุณกำลังมีปัญหาเรื่องความสัมพันธ์หรือเรื่องส่วนตัวที่ละเอียดอ่อน การปรึกษา “มนุษย์” ด้วยกันยังคงเป็นทางออกที่ดีที่สุดในตอนนี้
tags TechCrunch