ความท้าทายของโลก AI - เก่งเกินไป ซับซ้อนเกินไป จนผู้สร้างก็ไม่เข้าใจว่ามันทำงานอย่างไร

by mk
17 April 2017 - 09:31

เว็บไซต์ MIT Technology Review ชี้ประเด็นปัญหาใหม่ของโลก AI ที่พัฒนาอย่างก้าวกระโดดจากเทคนิค Deep Learning คือ AI เก่งขึ้นมากจนผู้สร้างมันขึ้นมาก็ยังไม่เข้าใจถ่องแท้ว่ามันทำงานได้อย่างไร

การเรียนรู้ของ AI ตามแนวทาง Deep Learning จะแบ่งงานย่อยๆ เป็นจำนวนมาก และทำงานหลายชั้นซ้อนกันเหมือนเส้นประสาทของมนุษย์ โดย AI จะเรียนรู้รูปแบบจากข้อมูลปริมาณมหาศาล แล้วสร้างโมเดลของตัวเองขึ้นมา ในยุคที่ AI ยังไม่ซับซ้อนมาก เราอาจเข้าใจโมเดลที่มันสร้างขึ้นได้ไม่ยากนัก แต่พอมาถึงยุคปัจจุบัน มนุษย์อาจเริ่มตามมันไม่ทันแล้ว

ตัวอย่างระบบ AI ที่เจอปัญหานี้คือ Deep Patient ระบบเรียนรู้ข้อมูลสุขภาพของโรงพยาบาล Mount Sinai Hospital ในนิวยอร์ก ที่ใช้ข้อมูลผู้ป่วย 7 แสนคนมาวิเคราะห์และพยากรณ์สาเหตุของโรคได้อย่างแม่นยำ ซึ่งในหลายกรณีแพทย์ที่เชี่ยวชาญอาจมองไม่เห็นแพทเทิร์นแบบเดียวกับที่ Deep Patient มองเห็นด้วยซ้ำ แต่ Joel Dudley หัวหน้าทีมวิจัยก็ยอมรับว่าพวกเขาสามารถสร้างโมเดลขึ้นมาได้ แต่ไม่รู้ว่ามันทำงานได้อย่างไร

ตัวอย่างภาพจาก Deep Dream ของกูเกิล (ภาพทั้งหมด)

นักวิจัยด้าน AI พยายามแก้ปัญหานี้กันบ้างแล้ว เช่น โครงการ Deep Dream ของกูเกิล ที่ปรับการทำงานของระบบ image recognition จากการตรวจหาวัตถุในภาพ มาเป็นการวาดหรือดัดแปลงภาพแทน (กลับกระบวนการทำงานกัน) เพื่อให้มนุษย์สามารถมองเห็นว่า AI มองเห็นอะไรในภาพ หรือทีมวิจัยจาก University of Wyoming ที่พัฒนาระบบดักข้อมูลใน neuron network ขณะทำงาน แล้วแสดงภาพที่กระตุ้นให้มันทำงานได้ดีที่สุดออกมา

DARPA หน่วยงานวิจัยของกระทรวงกลาโหมสหรัฐ ก็พยายามค้นคว้าเรื่องนี้เพราะการใช้ AI ในการทหาร จำเป็นต้องอธิบายได้ว่าการตัดสินใจของ AI เกิดจากอะไรบ้าง ผ่านการให้ทุนวิจัยสถาบันการศึกษาและงานวิจัยของภาคเอกชน แต่นักวิจัยในวงการ AI หลายรายก็ให้สัมภาษณ์ว่า โลก AI ยังห่างไกลกับการพัฒนาให้ AI อธิบายเหตุผลของมันได้ (“We’re a long way from having truly interpretable AI.”)

ที่มา - MIT Technology Review

Blognone Jobs Premium