Rick Osterloh หัวหน้าทีมฮาร์ดแวร์ของกูเกิล ให้สัมภาษณ์กับ Gizmodo อธิบายรายละเอียดของชิป Google Tensor ที่ใช้ใน Pixel 6 เพิ่มเติม
Osterloh บอกว่าที่ผ่านมา Pixel พยายามผลักดันฟีเจอร์ด้าน AI บนมือถือมาตลอด เช่น HDR+, Google Assistant (Pixel 1), Google Lens (Pixel 2), Night Sight (Pixel 3) แต่ก็ติดข้อจำกัดเรื่องการประมวลผล AI บนชิปที่มีในท้องตลาด ทำให้ Pixel ไปได้ไม่สุดตามที่กูเกิลตั้งใจไว้ ทางออกจึงเป็นการออกแบบชิปเอง
เราเคยได้ยินข่าวลือของชิปตัวนี้ในชื่อ Whitechapel แต่ชื่ออย่างเป็นทางการของมันคือ Tensor ซึ่ง Osterloh อธิบายว่าเป็นการแสดงความเคารพโครงการ TensorFlow ของกูเกิลเอง แนวคิดของกูเกิลคือนำความก้าวหน้าเรื่อง AI ทั้งหมดของกูเกิลมาอยู่บนโทรศัพท์ให้ได้ โดยโฆษณาว่าชิป Tensor สามารถรันโมเดล "ระดับศูนย์ข้อมูล" ได้ในมือถือเลย
Osterloh ยังไม่เปิดเผยรายละเอียดเรื่องสถาปัตยกรรมมากนัก บอกเพียงว่าปรับแก้สถาปัตยกรรมของหน่วยความจำใหม่ ให้โยกงานจากซีพียูหลักไปที่หน่วยประมวลผล AI ได้ง่ายขึ้น ผลคือประสิทธิภาพดีขึ้นและประหยัดแบตกว่าเดิม
ตัวอย่างความสามารถของชิป Tensor ที่ Osterloh นำมาโชว์ Gizmodo มีตั้งแต่การถ่ายรูปเด็กเล็กที่เคลื่อนไหวตลอดเวลาให้ออกมาคมชัด วิธีการคือ
Osteloh ยังโชว์วิดีโอที่ถ่ายด้วย iPhone 12, Pixel 5, Pixel 6 มาเทียบกัน ผลลัพธ์ของ Pixel 6 ดีกว่ามือถืออีก 2 รุ่นมาก เพราะสามารถประมวลผลปัจจัยต่างๆ เช่น HDR, object detection, white balance, dynamic range ได้แบบเรียลไทม์ (Gizmodo ไม่ได้รับอนุญาตให้ถ่ายผลลัพธ์เหล่านี้มาให้ดูกัน)
ฟีเจอร์อื่นๆ ของ Tensor คือการทำ live translation จากคลิปวิดีโอแบบเรียลไทม์ ก่อนหน้านี้มือถือของกูเกิลทำได้แค่ live caption (Pixel 4) ถอดเสียงพูดเป็นข้อความ แต่ตอนนี้ทำ live translation แปลให้ด้วยเลย
ที่มา - Gizmodo