OpenAI เปิดตัวเฟรมเวิร์กสำหรับให้คะแนนประเมินความปลอดภัยของ AI ก่อนตัดสินใจ deploy

by arjin
19 December 2023 - 00:57

OpenAI ประกาศเฟรมเวิร์กสำหรับการเตรียมความพร้อม เพื่อใช้ในการประเมินว่าโมเดล AI นั้น มีความปลอดภัยแค่ไหน ซึ่งคาดว่าจัดทำเพื่อให้การตรวจสอบ AI ว่าปลอดภัยหรือไม่เป็นขั้นเป็นตอนที่ชัดเจนขึ้น

โดย OpenAI มีทีมที่รับผิดชอบด้านความปลอดภัยของ AI อยู่แล้ว ซึ่งมีหน้าที่ดูแลตรวจสอบโมเดล AI ต่าง ๆ แบ่งเป็น 3 กลุ่มคือ โมเดลที่ดีพลอยแล้ว เป็นระบบที่ปลอดภัย, โมเดลที่อยู่ในขั้นตอนเตรียมความพร้อม (Preparedness) ซึ่งต้องประเมินความปลอดภัยตามเฟรมเวิร์กก่อนดีพลอย และโมเดลความสามารถสูงในอนาคต (Superalignment)

เฟรมเวิร์กเพื่อการเตรียมความพร้อม (Preparedness Framework) ใช้การประเมินและลงคะแนนในสกอร์การ์ด แบ่งเป็นระดับต่ำ กลาง สูง และรุนแรง โดยดูความปลอดภัย 4 ด้านคือ ความปลอดภัยทางไซเบอร์, CBRN (AI สร้างสูตรเคมี, ชีววิทยา, รังสีวิทยา และนิวเคลียร์), AI โน้มน้าวความคิดคน และ AI ที่มีความคิดอิสระ (Model Autonomy) ซึ่งภาพรวมต้องได้คะแนนในระดับ ต่ำหรือกลาง เท่านั้น จึงสามารถดีพลอยโมเดล AI นั้น หากสูงกว่านั้น จะต้องไปปรับการใช้งานให้คะแนนต่ำลงก่อน

เมื่อผ่านการให้คะแนนในเฟรมเวิร์ก ทีมความปลอดภัยจะส่งต่อให้กลุ่มทำงานหลักพิจารณา แล้วส่งต่อให้กับฝ่ายบริหารเพื่อตัดสินใจขั้นตอนสุดท้ายว่าจะดีพลอย AI นี้หรือไม่ โดยให้สิทธิยับยั้งสำหรับบอร์ดบริษัทหากมองว่ามีความเสี่ยง

ดูรายละเอียดทั้งหมดของ Preparedness Framework ได้ที่นี่

ที่มา: OpenAI

Blognone Jobs Premium