OpenAI ประเมินความเสี่ยงของปัญญาประดิษฐ์สายคิดคำนวณ o1 ที่ระดับ Medium สูงสุดที่เคยเผยแพร่มา

by arjin
13 September 2024 - 23:13

หลังจาก OpenAI เปิดตัว o1 โมเดลปัญญาประดิษฐ์ที่มีความสามารถคิดอย่างเป็นเหตุเป็นผลตามลำดับขั้น ซึ่งเหมาะสำหรับใช้ตอบคำถามวิทยาศาสตร์-คณิตศาสตร์ OpenAI ก็เผยแพร่ System Card เพื่อรายงานผลการประเมินความเสี่ยงของโมเดลปัญญาประดิษฐ์นี้ด้วย

ผลการประเมินภาพรวมความเสี่ยงของโมเดล o1 อยู่ที่ระดับปานกลาง (Medium) จาก 4 ระดับ Low-Medium-High-Critical ซึ่งสูงที่สุดในทุกโมเดลที่ OpenAI เคยเผยแพร่ออกมา หัวข้อที่ o1 ถูกจัดระดับความเสี่ยงปานกลางได้แก่ การโน้มน้าวความคิด (Persuasion) และ CBRN (สามารถสร้างสูตรเคมี, ชีววิทยา, รังสีวิทยา และนิวเคลียร์)

อย่างไรก็ตาม OpenAI บอกว่าได้มีการประเมินและแก้ไขการทำงานเพื่อป้องกันความเสี่ยง ไม่ให้ AI ตอบสนองต่อคำสั่งที่อันตรายไว้แล้ว โดยมีทั้งรายการต้องห้ามและตัวจำแนกความปลอดภัย แต่ที่ OpenAI กำกับไว้ในระดับปานกลางเพราะการทำงานของ o1 มีลักษณะพยายามแก้ไขปัญหาที่ซับซ้อนสูง ซึ่งอาจถูกนำไปใช้คิดออกแบบหรือค้นหาสูตรทางเคมี-ชีวภาพที่ไม่เหมาะสมได้

ที่มา: OpenAI ผ่าน Transformer News

Blognone Jobs Premium