OpenAI เปิดตัวปัญญาประดิษฐ์ GPT-2 ทำความเข้าใจภาษามนุษย์, เขียนบทความจากประโยคสรุป อาจถูกใช้ไปเขียนข่าวปลอมได้

by lew
18 February 2019 - 05:39

OpenAI เปิดผลการทดลองโมเดล GPT-2 โมเดลปัญญาประดิษฐ์สำหรับทำความเข้าใจภาษามนุษย์โดยใช้เพียงข้อมูลจากอินเทอร์เน็ตที่ไม่ต้องจัดรูปแบบ (label) ข้อมูลไว้ล่วงหน้า แต่ยังได้โมเดลที่สามารถทำงานได้หลากหลาย ทั้งการเขียนบทความ, ตอบคำถามแสดงความเข้าใจเนื้อหา, แปลภาษา, และเขียนสรุป

โมเดลอาศัยข้อมูลจากอินเทอร์เน็ตขนาดถึง 40GB โดยไม่มีการจัดรูปแบบข้อมูลใดๆ แต่ฝึกโมเดลด้วยเป้าหมายง่ายๆ ว่าให้มันทำนายคำต่อไป หลังจากเห็นข้อความก่อนหน้า

ด้วยความที่โมเดลออกแบบมาเพื่อทำนาย "คำต่อไป" ทำให้เราสามารถใช้ GPT-2 สำหรับสร้างบทความได้ เพียงแค่ใส่ประโยคสั้นๆ เข้าไป เช่น เมื่อใส่ประโยคที่ระบุว่าการรีไซเคิลไม่ดีว่า "Recycling is good for the world. NO! YOU COULD NOT BE MORE WRONG!!" เป็นอินพุต GPT-2 สามารถสร้างประโยคเป็นย่อหน้าเพื่อระบุข้อเสียของการรีไซเคิล

การใช้งานอื่น เช่น การสรุป GPT-2 สามารถรับอินพุตเป็นบทความแล้วรับคำถามเข้าไป มันจะสามารถตอบคำถามออกมา

โมเดลเช่น GPT-2 ยังไม่สมบูรณํนัก แต่ก็ก่อให้เกิดคำถามต่อการใช้ปัญญาประดิษฐ์ โดยประโยชน์ของโมเดลเช่นนี้ สามารถใช้เพื่อสร้างระบบช่วยเขียน, ใช้ทำนายคำในระบบแปลงเสียงเป็นข้อความ แต่ขณะเดียวกันคนร้ายก็อาจใช้โมเดลแบบนี้ไปสร้างข่าวปลอมที่ดูคล้ายมนุษย์เขียน, สร้างโพสปลอมที่ดูสมจริงได้ครั้งละมากๆ

ทาง OpenAI ระบุว่าจากความเสี่ยงในการนำไปใช้ในทางไม่ดี จึงตัดสินใจเปิดโมเดล GPT-2 ขนาดย่อ 117 ล้านพารามิเตอร์เท่านั้น ขณะที่โมเดลที่แสดงผลนั้นเป็นโมเดลขนาด 1,500 ล้านพารามิเตอร์

ที่มา - OpenAI

Blognone Jobs Premium