Sam Altman ซีอีโอ OpenAI และ Greg Brockman ประธาน OpenAI ออกมาโพสต์ชี้แจงใน X เกี่ยวกับประเด็นฝ่าย Superalignment ที่มีภารกิจดูแลรับมือความปลอดภัยของ AI ที่อาจมีความสามารถมากขึ้น หลังจาก Ilya Sutskever หัวหน้าทีมได้ลาออก และ Jan Leike หัวหน้าทีมร่วมที่ลาออกเช่นกัน ออกมาเปิดเผยว่า OpenAI ลดความสำคัญของการทำงานฝ่ายนี้ ทั้งที่ AI มีแนวโน้มอันตรายมากขึ้น
Altman บอกว่าเขาขอบคุณในทุกสิ่งที่ Leike ทำขณะอยู่ที่ OpenAI ทั้งการวิจัยพัฒนาสร้าง AI ที่ปลอดภัย และเขาพูดถูกต้องว่า OpenAI ยังมีอะไรต้องทำอีกมาก และยืนยันว่า OpenAI จะต้องทำสิ่งเหล่านั้น
ด้าน Brockman ชี้แจงเกี่ยวกับแผนกลยุทธ์ในการกำกับดูแล AI ที่ปลอดภัยของ OpenAI เป็นข้อ ๆ ดังนี้
สิ่งที่ OpenAI ทำคือการสร้างเครื่องมือตรวจสอบ เพื่อรองรับโมเดลในอนาคตที่มีแนวโน้มปรับปรุงให้เข้ากับงานแต่ละประเภทมากขึ้น ความท้าทายคือการสเกลให้รองรับทุกงาน มองไปข้างหน้าเห็นรูปแบบความปลอดภัยที่จำเป็น OpenAI ยอมรับว่าตอนนี้ก็ไม่แน่ใจว่าระดับความปลอดภัยที่มีอยู่เพียงพอหรือไม่ แต่หากพบว่ายังไม่พอก็พร้อมที่จะเลื่อนการเผยแพร่โมเดลต่อสาธารณะ
สุดท้าย Brockman บอกว่าวันนี้โลกยังไม่มีสูตรสำเร็จในการกำกับดูแล AGI ภาพในอนาคตตอนนี้ก็ยังไม่มีใครจินตนาการถึงได้ สิ่งที่ทำได้คือการพิจารณา ตรวจสอบ ทำซ้ำในทุกขั้นตอน ร่วมมือกับภาคส่วนต่าง ๆ อย่างรอบคอบ เพื่อให้แน่ใจว่า AI ที่ออกมามีความปลอดภัย
ที่มา: Business Insider ภาพ Flickr TechCrunch [1], [2]