ในงาน AI Day วันนี้ Tesla รายงานถึงการปรับเปลี่ยนสถาปัตยกรรมซอฟต์แวร์ปัญญาประดิษฐ์ที่ใช้ในระบบขับรถอัตโนมัติ เปลี่ยนรูปแบบจากการใช้ปัญญาประดิษฐ์ประมวลผลภาพจากกล้องแต่ละตัว (ในรถมีกล้อง 8 ตัว) มาเป็นโมเดลที่ซับซ้อนขึ้น สามารถประมวลผลจากกล้องได้พร้อมกัน
โมดเดลปัญญาประดิษฐ์ของ Tesla มีหน้าที่สำคัญคือแปลงภาพจากกล้องรอบรถให้กลายเป็นภาพมุมมองด้านบน เพื่อวางแผนการขับขี่ การจับวัตถุจากกล้องแต่ละตัวแยกจากกันทำให้ไม่แน่ใจว่ารถที่เห็นจากกล้องแต่ละตัวเป็นรถคันเดียวกันหรือไม่ ระบบควบคุมที่มองภาพรวมทำให้มองเห็นว่าสภาพแวดล้อมโดยรวมเป็นอย่างไร
การสร้างชุดข้อมูลสำหรับฝึกปัญญาประดิษฐ์เป็นอีกประเด็นที่ Tesla ต้องลงทุนอย่างหนัก โดยใช้เจ้าหน้าที่กว่าพันคนในการ label ชุดข้อมูลที่เป็นวิดีโอจากตัวรถ โดยระบบใช้การ label แบบ end-to-end คือการแปลงภาพจากกล้องทั้ง 8 ตัวให้เป็นภาพสามมิติแล้ว label วัตถุในภาพทีเดียว แทนที่จะไปวาดกรอบล้อมวัตถุทีละภาพ
กระบวนการตัดสินใจภายในของ Full Self Driving ต้องอาศัยการจำลองการตัดสินใจของรถคันอื่นๆ ในท้องถนนเพื่อให้ตัดสินใจได้แม่นยำขึ้น ในงาน Tesla สาธิตการขับขี่ในถนนที่รถจอดจนเหลือเพียงเลนเดียว แล้วมีรถสวนมา ทำให้ต้องคาดเดาว่าใครจะเป็นคนหลีกทางให้เพื่อให้รถสวนไปได้ หาก Tesla คาดว่ารถที่สวนมาจะให้ทางก็จะไม่ลดความเร็วโดยไม่จำเป็น แต่หากคาดว่ารถที่สวนมาจะขอสวนมาก่อนก็จะรีบหยุดให้ทาง
ที่มา - Tesla AI Day