ในแผนการใหญ่ของอินเทลเรื่องจีพียู Xe นอกจากเรื่องประสิทธิภาพต้องต่อกรกับคู่แข่งให้ได้แล้ว ยุทธศาสตร์สำคัญอีกข้อคือการสร้าง ecosystem ขนาดใหญ่พอที่นักพัฒนาให้ความสนใจ ทำซอฟต์แวร์ให้รองรับ
ฝั่งของฮาร์ดแวร์ อินเทลเลือกใช้แนวทางสถาปัตยกรรมเดียว ครอบคลุมตั้งแต่จีพียูออนบอร์ด (ที่เริ่มใช้ใน Tiger Lake) ไปจนถึงซูเปอร์คอมพิวเตอร์ เพื่อให้นักพัฒนาเขียนโค้ดครั้งเดียวพอ ในฝั่งซอฟต์แวร์ อินเทลเริ่มพัฒนา oneAPI สำหรับการประมวลผลบนหน่วยประมวลผลหลายประเภท (ซีพียู/จีพียู/FPGA) ซึ่งเทียบได้กับ CUDA ของ NVIDIA และ ROCm ของ AMD โดยเริ่มทำมาตั้งแต่ปี 2018
หลังจากค่อยๆ พัฒนา oneAPI มาสองปี เมื่อวานนี้ อินเทลประกาศออกสเปก oneAPI 1.0 ถือเป็นหลักหมายสำคัญของอินเทลในการบุกตลาดนี้ พื้นฐานของมันใช้ภาษา Data Parallel C++ (DPC++) ซึ่งแตกแขนงมากจาก ISO C++ และครอบคลุมการใช้งานหลากหลายชนิด เช่น Math, Deep Learning, Machine Learning, Video Analytics รวมถึง API ควบคุมฮาร์ดแวร์ระดับล่าง ที่เรียกว่า Level Zero API
ตัว oneAPI เป็นมาตรฐานเปิด ซอฟต์แวร์เป็นโอเพนซอร์ส และถูกออกแบบมาให้ใช้กับสถาปัตยกรรมได้หลากหลาย (ไม่ใช่แค่ x86 แต่รวมถึงซีพียู ARM หรือ POWER และจีพียู NVIDIA ได้ด้วย) แต่ในทางปฏิบัติก็ไม่ง่ายนัก ที่บริษัทอื่นจะสนใจเข้าร่วม หรือซอฟต์แวร์ชื่อดังจะหันมารองรับ (ซึ่งเป็นปัญหาที่ AMD เจอมานานแล้ว ดังที่เห็นในกรณี TensorFlow กว่าจะรองรับ ROCm อย่างเป็นทางการ)
ตอนนี้รายชื่อหน่วยงานที่สนับสนุน oneAPI ยังเน้นไปที่กลุ่มมหาวิทยาลัยเป็นหลัก มีบริษัทไอทีเข้าร่วมเพียงบางราย เช่น HPE, Lenovo, GE, SAP, SUSE และอินเทลก็เข้าไปร่วมพัฒนาโครงการอย่าง TensorFlow หรือ Pytorch ให้รองรับ oneAPI บ้างแล้ว