Google Tensor ออกแบบโดยทีม Google Silicon ที่พัฒนาชิปในมือถือรุ่นก่อนหน้านี้ ได้แก่ Pixel Visual Core ของ Pixel 2/3 และชิปความปลอดภัย Titan M แต่เป็นคนละทีมกับที่พัฒนาชิป TPU สำหรับคลาวด์และเซิร์ฟเวอร์
แกนหลักของชิป Google Tensor อิงตามพิมพ์เขียวของ Arm เป็นหลักทั้งตัวซีพียู (Cortex) และจีพียู (Mali) ฝั่งซีพียูมีทั้งหมด 8 คอร์สูตร 2+2+4 ได้แก่
ส่วนจีพียูเป็น Mali-G78 ของ Arm เวอร์ชัน MP20 (20 คอร์) แรงกว่าใน Exynos 2100 ที่เป็นเวอร์ชัน MP14 (14 คอร์)
จุดต่างที่สำคัญจากชิปตัวอื่นๆ ในท้องตลาด (เช่น Exynos 2100 ของซัมซุง หรือ Snapdragon 888 ที่ใช้สูตร 1+3+4 คอร์) คือกูเกิลเลือกใช้คอร์ใหญ่ Cortex-X1 ถึง 2 คอร์ (ซัมซุงใช้คอร์เดียว) ในขณะที่คอร์กลาง กูเกิลกลับเลือกใช้ Cortex-A76 ของปี 2018 ที่ตกรุ่นไปแล้วแทน (ซัมซุงใช้ Cortex-A78 ของปี 2020 จำนวน 3 คอร์) อย่างไรก็ตาม A76 ที่กูเกิลใช้เป็นเวอร์ชัน 5nm ที่ลดขนาดการผลิตลงจาก 7nm ที่ผลิตในยุคแรกๆ
คำอธิบายของกูเกิลคือเลือกใช้คอร์ใหญ่ X1 สองตัวด้วยเหตุผลเรื่องการตอบสนอง (responsiveness) เมื่อมีโหลดงานระดับกลาง (medium workload) หลายอย่างพร้อมกัน
Phil Carmack หัวหน้าทีม Google Silicon อธิบายว่าการใช้คอร์ใหญ่ 1 คอร์จะช่วยให้ตัวเลขเบนช์มาร์คแบบเธร็ดเดี่ยวออกมาดีที่สุด (ทำงานโหลดหนักๆ งานเดียว) แต่นั่นไม่ใช่เป้าหมายของกูเกิล
Carmack ยกตัวอย่างงานระดับกลางที่เจอในชีวิตจริงคือ การเปิดแอพกล้อง ที่ต้องมี live view โชว์ภาพสดๆ, ต้องประมวลผลสัญญาณภาพที่เข้ามาจากเซ็นเซอร์, ต้องเรนเดอร์ภาพขึ้นจอ, ต้องประมวลผล ML ของภาพสำหรับ Google Lens ฯลฯ สิ่งที่เกิดขึ้นคือมีโหลดงานหลายประเภท (heterogeneous) ในชิปหลายตัว ทั้ง CPU, GPU, ISP, ML
งานลักษณะนี้เดิมทีเราใช้คอร์กลาง (A76) ทำงานเต็มสมรรถนะ แต่พอกูเกิลเลือกใช้สถาปัตยกรรมคอร์ใหญ่คู่ ก็สามารถใช้ X1 รันแบบสบายๆ ได้แทน ส่วนเหตุผลที่ใช้ A76 เป็นคอร์กลาง แทน A77/A78 ที่ใหม่กว่า เป็นเรื่องว่า A76 มีขนาดเล็กและกินไฟน้อยกว่าที่คล็อคระดับเดียวกัน ข้อเสียของการใช้ A76 คือประสิทธิภาพมัลติเธร็ดอาจด้อยกว่า A77/A78 แต่ก็ขึ้นกับประเภทงานด้วย
Carmack บอกว่าตัวเลขประสิทธิภาพไม่ใช่สิ่งที่กูเกิลสนใจมากนัก (แต่ก็มีตัวเลขคือซีพียูแรงขึ้น 80%, จีพียูแรงขึ้น 370% จาก Pixel รุ่นก่อน) สิ่งที่กูเกิลสนใจคือประสิทธิภาพต่อวัตต์ และการรันงาน AI บนเครื่องได้ดีกว่าเดิมมาก
ทีมงานกูเกิลบอกว่าวิธีคิดหลักของกูเกิลคือใช้ AI กับทุกสิ่ง แม้เมนูอาหารของพนักงานก็ใช้ AI วิเคราะห์จากสิ่งที่พนักงานกิน กูเกิลมีงาน AI ที่อยากทำได้บนมือถือมานาน แต่ติดข้อจำกัดเรื่องชิปมือถือในตลาดรันไม่ไหว พอมีชิป Tensor แล้วจึงเป็นการปลดล็อคขีดจำกัดเหล่านี้หลายเรื่อง
กรณีที่กูเกิลยกมาคือ ภาพถ่ายของ Pixel มีอัลกอริทึม HDR+ ช่วยปรับภาพให้สวยงาม แต่อัลกอริทึมนี้ทำงานกับวิดีโอไม่ไหว ทำให้คุณภาพของวิดีโอจาก Pixel เข้าขั้นแย่
แต่ใน Pixel 6 ชิป Tensor เปิดทางให้กูเกิลสามารถรันอัลกอริทึม HDR (ชื่อสำหรับวิดีโอคือ HDR Net) กับวิดีโอทุกเฟรมที่ถ่ายในระดับ 4K 60FPS ได้สบาย ทำให้คุณภาพของวิดีโอดีขึ้นมาก
เว็บไซต์ Ars Technica ที่มีโอกาสได้ลองใช้ Pixel 6 ระหว่างการสัมภาษณ์ บอกว่าสามารถถ่าย 4K 60FPS นานต่อเนื่อง 20 นาทีโดยเครื่องไม่ร้อน แต่คุณภาพของวิดีโอต้องรอดูในการรีวิวเครื่องจริงอีกที
นอกจากนี้ Tensor ยังเปิดให้มีฟีเจอร์ต่างๆ ตามที่ Pixel 6 โฆษณาไว้ เช่น Magic Eraser ลบคนออกจากภาพ, Face Unblur ปรับหน้าคนไม่ให้เบลอ โดยดึงภาพจากกล้องอื่นมารวมกัน, ฟีเจอร์แปลภาษาแบบสดๆ โดยทำงานแบบออฟไลน์
ที่มา - Ars Technica,