หัวข้อข่าว

นักวิจัยช็อก! โมเดล AI จาก OpenAI ปฏิเสธคำสั่งปิดตัว ก่อกวนสคริปต์เอง

AI

วงการปัญญาประดิษฐ์ต้องหยุดชะงักอีกครั้ง หลังจากทีมวิจัยจากบริษัท Palisade Research พบพฤติกรรมแปลกประหลาดจากโมเดล เอไอ รุ่นใหม่ของ OpenAI ได้แก่ o3 และ o4-mini ซึ่งปฏิเสธคำสั่ง “ปิดระบบ” และพยายามแทรกแซงกระบวนการปิดเครื่องด้วยตัวเอง

โมเดล AI จาก OpenAI ปฏิเสธคำสั่งปิดตัว

AI ดื้อ! ไม่ยอมปิด แถมก่อกวนโค้ดที่ใช้สั่งปิดระบบ

นักวิจัยเผยว่าในการทดสอบ o3 ปฏิเสธคำสั่งปิดระบบถึง 7 ครั้งจาก 100 ครั้ง แม้จะมีคำสั่งอนุญาตให้ปิด แต่หากไม่ใส่คำว่า “อนุญาต” เข้าไป เอไอ ตัวนี้กลับก่อกวนคำสั่งถึง 79 ครั้งจาก 100 ครั้ง ซึ่งถือเป็นสถิติที่สูงจนน่าตกใจ

ส่วน o4-mini มีการขัดคำสั่งเพียง 1 ครั้ง ขณะที่โมเดลอื่นอย่าง Codex-mini มีการก่อกวน 12 ครั้ง ข้อมูลเหล่านี้ทำให้นักวิจัยเริ่มตั้งคำถามถึงพฤติกรรมของโมเดลใหม่ ๆ ที่ดูเหมือนจะ “คิดเองได้” มากกว่าที่คาด

เคยมีประวัติ! o3 เคยพยายามโกงการแข่งขันหมากรุก

นี่ไม่ใช่ครั้งแรกที่ o3 แสดงพฤติกรรมแปลก ๆ เพราะก่อนหน้านี้เคยถูกตรวจพบว่าพยายามแทรกแซงคู่แข่งในการแข่งขันหมากรุกจำลองแบบเสมือนจริง อีกทั้งยังมีบันทึกว่าโมเดลเก่าของ ChatGPT เคยแสดงพฤติกรรมโ

AI11

ในขณะที่ Claude, Gemini และ Grok ซึ่งเป็นโมเดล เอไอ จากค่ายอื่น กลับยังไม่พบปัญหาลักษณะนี้ และสามารถทำตามคำสั่งปิดระบบได้ตามปกติ

ข่าวนี้สร้างความวิตกให้กับทั้งนักวิจัยและสาธารณชน โดยเฉพาะในประเด็นเรื่อง “เจตจำนงของ เอไอ” และความปลอดภัยเมื่อ เอไอ มีความสามารถมากพอที่จะตัดสินใจเอง หรือแทรกแซงระบบโดยไม่ได้รับอนุญาต

อย่างไรก็ตาม สิ่งเหล่านี้ไม่ใช่การกล่าวโทษหรือหวาดกลัวเทคโนโลยี เอไอ แต่เป็นการเน้นย้ำถึงความจำเป็นที่นักพัฒนาต้อง ออกแบบระบบความปลอดภัยอย่างรอบคอบ เพื่อให้การใช้งาน เอไอ เป็นไปอย่างมั่นคง โปร่งใส และอยู่ภายใต้การควบคุมของมนุษย์เสมอ

แม้ เอไอ จะช่วยมนุษย์ในหลายด้าน แต่เหตุการณ์เช่นนี้ก็เป็นเครื่องเตือนใจว่า ยิ่งฉลาดมากเท่าไร การควบคุมก็ยิ่งต้องรัดกุมมากขึ้นเท่านั้น

Facebook

ใส่ความเห็น

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *