OpenAI ประกาศเฟรมเวิร์กสำหรับการเตรียมความพร้อม เพื่อใช้ในการประเมินว่าโมเดล AI นั้น มีความปลอดภัยแค่ไหน ซึ่งคาดว่าจัดทำเพื่อให้การตรวจสอบ AI ว่าปลอดภัยหรือไม่เป็นขั้นเป็นตอนที่ชัดเจนขึ้น
โดย OpenAI มีทีมที่รับผิดชอบด้านความปลอดภัยของ AI อยู่แล้ว ซึ่งมีหน้าที่ดูแลตรวจสอบโมเดล AI ต่าง ๆ แบ่งเป็น 3 กลุ่มคือ โมเดลที่ดีพลอยแล้ว เป็นระบบที่ปลอดภัย, โมเดลที่อยู่ในขั้นตอนเตรียมความพร้อม (Preparedness) ซึ่งต้องประเมินความปลอดภัยตามเฟรมเวิร์กก่อนดีพลอย และโมเดลความสามารถสูงในอนาคต (Superalignment)
เฟรมเวิร์กเพื่อการเตรียมความพร้อม (Preparedness Framework) ใช้การประเมินและลงคะแนนในสกอร์การ์ด แบ่งเป็นระดับต่ำ กลาง สูง และรุนแรง โดยดูความปลอดภัย 4 ด้านคือ ความปลอดภัยทางไซเบอร์, CBRN (AI สร้างสูตรเคมี, ชีววิทยา, รังสีวิทยา และนิวเคลียร์), AI โน้มน้าวความคิดคน และ AI ที่มีความคิดอิสระ (Model Autonomy) ซึ่งภาพรวมต้องได้คะแนนในระดับ ต่ำหรือกลาง เท่านั้น จึงสามารถดีพลอยโมเดล AI นั้น หากสูงกว่านั้น จะต้องไปปรับการใช้งานให้คะแนนต่ำลงก่อน
เมื่อผ่านการให้คะแนนในเฟรมเวิร์ก ทีมความปลอดภัยจะส่งต่อให้กลุ่มทำงานหลักพิจารณา แล้วส่งต่อให้กับฝ่ายบริหารเพื่อตัดสินใจขั้นตอนสุดท้ายว่าจะดีพลอย AI นี้หรือไม่ โดยให้สิทธิยับยั้งสำหรับบอร์ดบริษัทหากมองว่ามีความเสี่ยง
ดูรายละเอียดทั้งหมดของ Preparedness Framework ได้ที่นี่
ที่มา: OpenAI