Blognone

สองผู้บริหาร OpenAI ชี้แจงประเด็นที่อดีตพนักงานบอก บริษัทไม่โฟกัส AGI มากพอ

authorby arjin
published on19 May 2024 - 07:34

Sam Altman ซีอีโอ OpenAI และ Greg Brockman ประธาน OpenAI ออกมาโพสต์ชี้แจงใน X เกี่ยวกับประเด็นฝ่าย Superalignment ที่มีภารกิจดูแลรับมือความปลอดภัยของ AI ที่อาจมีความสามารถมากขึ้น หลังจาก Ilya Sutskever หัวหน้าทีมได้ลาออก และ Jan Leike หัวหน้าทีมร่วมที่ลาออกเช่นกัน ออกมาเปิดเผยว่า OpenAI ลดความสำคัญของการทำงานฝ่ายนี้ ทั้งที่ AI มีแนวโน้มอันตรายมากขึ้น

Altman บอกว่าเขาขอบคุณในทุกสิ่งที่ Leike ทำขณะอยู่ที่ OpenAI ทั้งการวิจัยพัฒนาสร้าง AI ที่ปลอดภัย และเขาพูดถูกต้องว่า OpenAI ยังมีอะไรต้องทำอีกมาก และยืนยันว่า OpenAI จะต้องทำสิ่งเหล่านั้น

ด้าน Brockman ชี้แจงเกี่ยวกับแผนกลยุทธ์ในการกำกับดูแล AI ที่ปลอดภัยของ OpenAI เป็นข้อ ๆ ดังนี้

  • OpenAI ได้สร้างการตระหนักรับรู้ถึงโอกาสและความเสี่ยงของ AGI เพื่อให้โลกเตรียมรับมือ รวมทั้งทำงานกับรัฐบาลทั่วโลกเพื่อหาวิธีกำกับดูแล พัฒนาเครื่องมือในการประเมินความเสี่ยง
  • OpenAI ได้ออกระเบียบพื้นฐาน ก่อนการดีพลอยโมเดล AI ใหม่สู่สาธารณะให้ปลอดภัย ซึ่งเห็นได้จาก GPT-4 สิ่งนี้ไม่ใช่เรื่องง่ายเลยในการพัฒนาช่วงแรก
  • อนาคตจะยากและซับซ้อนกว่าปัจจุบัน การพัฒนาเฟรมเวิร์กกำกับดูแลต้องปรับปรุงอยู่ตลอด

สิ่งที่ OpenAI ทำคือการสร้างเครื่องมือตรวจสอบ เพื่อรองรับโมเดลในอนาคตที่มีแนวโน้มปรับปรุงให้เข้ากับงานแต่ละประเภทมากขึ้น ความท้าทายคือการสเกลให้รองรับทุกงาน มองไปข้างหน้าเห็นรูปแบบความปลอดภัยที่จำเป็น OpenAI ยอมรับว่าตอนนี้ก็ไม่แน่ใจว่าระดับความปลอดภัยที่มีอยู่เพียงพอหรือไม่ แต่หากพบว่ายังไม่พอก็พร้อมที่จะเลื่อนการเผยแพร่โมเดลต่อสาธารณะ

สุดท้าย Brockman บอกว่าวันนี้โลกยังไม่มีสูตรสำเร็จในการกำกับดูแล AGI ภาพในอนาคตตอนนี้ก็ยังไม่มีใครจินตนาการถึงได้ สิ่งที่ทำได้คือการพิจารณา ตรวจสอบ ทำซ้ำในทุกขั้นตอน ร่วมมือกับภาคส่วนต่าง ๆ อย่างรอบคอบ เพื่อให้แน่ใจว่า AI ที่ออกมามีความปลอดภัย

ที่มา: Business Insider ภาพ Flickr TechCrunch [1], [2]

Blognone Jobs Premium