กูเกิลเคยเปิดเผยว่าระบบปัญญาประดิษฐ์ของตัวเองนั้นแม้จะรันด้วย TensorFlow ที่เป็นซอฟต์แวร์โอเพนซอร์ส แต่เบื้องหลังนั้นใข้ชิป Tensor Processing Unit (TPU) โดยระบุว่าการทำชิปด้วยตัวเองคุ้มค่ากว่า แต่ไม่มีรายละเอียดใดเพิ่มเติม ตอนนี้กูเกิลก็ปล่อยรายงานการศึกษาว่าการใช้ TPU นั้นคุ้มค่ากว่าจริงๆ
ภายใน TPU นั้นมีส่วนประกอบหลักคือบัฟเฟอร์กินพื้นที่ 29% ของตัวชิป และวงจรคูณแมทริกซ์กินพื้นที่ 24% ของตัวชิป สามารถคูณแมทริกซ์ได้ขนาด 256x256 นอกจากนี้ยังมีวงจรเฉพาะสำหรับการประมวลผลที่เกี่ยวข้อง เช่น Activation, Normalize/Pool ส่วนที่เหลือคือวงจรเชื่อมต่อภายนอกเช่น PCIe 3.0 x16, วงจรควบคุม DDR3 และวงจรควบคุมการทำงาน
กูเกิลระบุเหตุผลที่ต้องใช้ชิปเฉพาะสำหรับการประมวล ว่าเป็นเพราะการใช้พลังงานโดยรวมมีประสิทธิภาพดีกว่า โดยแซงหน้าชิปกราฟิกไปตั้งแต่ 29-68 เท่าตัว เมื่อเทียบกับซีพียูแล้วประสิทธิภาพการประมวลผลต่อพลังงานดีกว่าซีพียู Haswell ตั้งแต่ 83-196 เท่าตัวเลยทีเดียว ขณะที่ความเร็วโดยรวมก็เร็วกว่าชิปกราฟิกถึง 15 เท่าตัว
ตัวการ์ด TPU นั้นติดตั้งในช่องฮาร์ดดิสก์ 2.5 นิ้ว แต่ตัวอินเทอร์เฟซใช้ PCIe 3.0 x16
ที่มา - Google Cloud Platform