AI กับการทดสอบความท้าทายในเกมคลาสสิก: Doom
การศึกษาในด้านปัญญาประดิษฐ์ยังคงท้าทาย เนื่องจากโมเดลขั้นสูงที่สุด เช่น GPT-4o, Claude Sonnet 3.7 และ Gemini 2.5 Pro ยังไม่สามารถเอาชนะความซับซ้อนของเกม Doom ซึ่งเป็นเกมยิงปืนแบบ first-person shooter แบบคลาสสิกได้อย่างเต็มรูปแบบ
วันพฤหัสบดีที่ผ่านมา โครงการวิจัยใหม่ได้แนะนำ "VideoGameBench" ซึ่งเป็นเครื่องมือวัดความสามารถของ AI โดยออกแบบมาเพื่อทดสอบประสิทธิภาพของโมเดล vision-language ว่าสามารถเล่นและชนะเกมยอดนิยม 20 เกมจากสิ่งที่เห็นบนหน้าจอได้หรือไม่ นักวิจัยกล่าวว่า "ในประสบการณ์ของเรา VLMs ที่ทันสมัยยังมีปัญหาในการเล่นวิดีโอเกมเนื่องจากความล่าช้าในการทำความเข้าใจ" อ้างจากนักวิจัยว่า "เมื่อแคปภาพหน้าจอและรอดูว่าระบบจะสั่งให้ทำอะไร เมื่อได้รับคำตอบสถานะในเกมอาจเปลี่ยนแปลงไปมากจนทำให้การกระทำที่ระบบจะแนะนำนั้นไม่สอดคล้อง"
VideoGameBench ถูกพัฒนาโดยนักวิทยาศาสตร์คอมพิวเตอร์และนักวิจัย AI นาย Alex Zhang เพื่อทดสอบการประมวลผลเหตุผลเชิงพื้นที่ของโมเดล vision-language ผ่านเกมคลาสสิก ซึ่งประกอบด้วยเกมโดดเด่นเช่น Warcraft II, Age of Empires และ Prince of Persia นักวิจัยยังสังเกตปัญหาการตอบสนองที่ล่าช้าโดยเฉพาะในเกม first-person shooter แบบ Doom ซึ่งศัตรูในภาพหน้าจออาจเคลื่อนไหวไปแล้วเมื่อโมเดลออกคำสั่ง
ข้อความที่บ่งชี้จากนักวิจัยยังระบุถึงข้อจำกัดของโมเดล AI ปัจจุบันที่ยังล้มเหลวในการทำความเข้าใจว่า "การกระทำบางอย่างเช่นการเคลื่อนไหวขวาจะมีผลอย่างไรบนหน้าจอ" แม้ว่า AI จะไม่สามารถเอาชนะ Doom ได้ แต่ VideoGameBench จะช่วยชี้ทางให้เราเข้าใจข้อจำกัดเหล่านี้ได้ดียิ่งขึ้น
การศึกษาในด้านความสามารถของ AI ในการเล่นวิดีโอเกมไม่เพียงแต่ช่วยประเมินความสามารถในการประมวลผลเหตุผลเท่านั้น แต่ยังชี้ให้เห็นถึงพื้นที่ที่ AI ยังต้องพัฒนาเพื่อตอบสนองสถานะที่เปลี่ยนแปลงในสภาพแวดล้อมการเล่นเกมซึ่งยังซับซ้อนอยู่
Source: https://decrypt.co/315493/ai-bad-playing-doom
#AvareumNews #AI #Doom #VideoGameBench #VLMs #TechNews
This newsletter is produced with assistance from OpenAI's ChatGPT-4o. All analyses are reviewed and verified by our research team.