สมัยก่อนเราอาจคุ้นเคยกับการต่อสู้ลักษณะนี้ในการวัดผลการ์ดจอเกมมิ่ง แต่เมื่อตลาดหลักย้ายมาสู่การ์ดจอเร่งความเร็ว AI แทน การต่อสู้แบบนี้จึงกลับมาอีกครั้งในสมรภูมิใหม่
สัปดาห์ก่อน AMD เริ่มวางขายชิปประมวลผลปัญญาประดิษฐ์ Instinct MI300X มีประเด็นน่าสนใจคือ Lisa Su ซีอีโอของ AMD โชว์ตัวเลขข่มทับคู่แข่ง NVIDIA H100 โดยวัดจากการรันโมเดลยอดนิยม Llama-2-70B ว่าแรงกว่ากัน 1.2 เท่า (จีพียูตัวเดียว) และ 1.4 เท่า (เซิร์ฟเวอร์ 8 จีพียู)
เมื่อโดนหยามกันตรงๆ แบบนี้ทำให้ NVIDIA ยอมไม่ได้ ออกมาตอบโต้ผ่านบล็อกของบริษัท ว่าเป็นการวัดผลเบนช์มาร์คที่ไม่ถูกต้อง เพราะ AMD เลือกใช้ซอฟต์แวร์ที่ไม่ได้ปรับแต่งมาสำหรับจีพียู H100 (NVIDIA เปิดเป็นโอเพนซอร์สในชื่อ TensorRT-LLM) หากใช้ซอฟต์แวร์ถูกต้องและวัดผลแบบไม่ลำเอียง ฝั่งของ H100 ทำคะแนนได้ดีกว่า 2 เท่าเลยทีเดียว
แต่ศึกนี้ไม่จบง่ายๆ เพราะฝั่ง AMD ออกมาสู้กลับ โดยบอกว่าการวัดผลของ NVIDIA นั้นตั้งใจบิดเบือนวิธีการวัดผล ตั้งแต่การใช้ซอฟต์แวร์ TensorRT-LLM ของค่ายตัวเองอย่างเดียว (เบนช์มาร์ค AMD ใช้ vLLM), เปรียบเทียบด้วยระดับเลขทศนิยมคนละแบบ (AMD ใช้ FP16, NVIDIA ใช้ FP8) และบิดตัวเลข latency/throughput ของ AMD ไปให้ตัวเองได้ประโยชน์
AMD จึงบอกว่าอย่ากระนั้นเลย ตัวเลขที่โชว์บนเวทีเป็นการวัดผลตั้งแต่เดือนพฤศจิกายน และออกตัวเลขใหม่ที่ใช้ซอฟต์แวร์ ROCm เวอร์ชันใหม่ ปรับปรุงประสิทธิภาพให้ดีกว่าเดิม ผลคือ AMD ชนะขาดกว่าเดิมหากวัดผลแบบเดิมด้วย vLLM (แรงกว่า 2.1 เท่า) หรือถ้าจะวัดผลแบบ NVIDIA (TensorRT-LLM vs vLLM) ก็ยังชนะอยู่ดีที่ 1.3 เท่า และหากวัดแบบใช้หลักทศนิยมไม่เท่ากัน (FP8 vs FP16) ค่า latency ก็ยังชนะอีก รวมเป็นชนะ 3 เด้ง
ที่มา - Wccftech