เพื่อเป็นการต้อนรับมหกรรมกีฬาแห่งมนุษยชาติ โอลิมปิก 2012 ที่จะเริ่มขึ้นวันนี้ เว็บไอทีอย่าง Blognone ก็ขอพูดถึง "ระบบไอที" ที่ทำงานอยู่เบื้องหลังงานโอลิมปิกครั้งนี้กันสักหน่อยนะครับ
เรื่องโอลิมปิกกับไอทีรอบนี้มีหลายเว็บเขียนถึง ผมขอยึดเวอร์ชันของ Data Center Knowledge เป็นหลัก
การจัดโอลิมปิกในยุคสมัยนี้ไม่ใช่เรื่องง่าย เพราะไอทีเข้ามามีบทบาทสูงมาก ต้องตอบสนองทั้งในแง่ผู้จัดการแข่งขัน สื่อมวลชนที่ทำหน้าที่ถ่ายทอดสดและรายงานข่าว นักกีฬาและเจ้าหน้าที่ซึ่งเดี๋ยวนี้พกอุปกรณ์ไร้สายกันหมดแล้ว และผู้ชมทางบ้านจำนวนมหาศาลที่ติดตามการถ่ายทอดสดผ่านอินเทอร์เน็ต การวางโครงสร้างพื้นฐานด้านไอทีเพื่อรองรับความต้องการระดับนี้จึงเป็นเรื่องซับซ้อนมาก
คณะผู้จัดงานโอลิมปิกจึงแบ่งงานออกเป็นส่วนๆ และกระจายผู้ดูแลรับผิดชอบตามส่วนงาน
ผู้รับผิดชอบการวางสายเคเบิลสื่อสารทั้งหมดคือ BT (British Telecom เดิม) โอเปอเรเตอร์รายใหญ่ของอังกฤษ งานนี้ใช้สายไปทั้งหมด 5,500 กิโลเมตร (เอามาต่อกันได้ความยาวจากลอนดอนไปนิวยอร์ก) มีจุดเชื่อมต่อทั้งหมด 30,000 จุดในสถานที่ 94 แห่งที่ใช้สำหรับจัดงาน รายละเอียดอ่านได้จากเว็บของ BT
อุปกรณ์เครือข่ายเป็นหน้าที่ของ Cisco ในฐานะพาร์ทเนอร์อย่างเป็นทางการในด้านนี้ Cisco ใช้สวิตช์ทั้งหมด 2,200 ตัว โดยทุกจุดใช้สวิตช์หนึ่งคู่แล้วเชื่อมกันผ่าน virtual switching system (VSS) แบบ mesh เพื่อทำ fault-tolerant ป้องกันสวิตช์ตัวใดตัวหนึ่งเจ๊ง
ข้อมูลเพิ่มเติมอ่านที่ Cisco Blog (1) และ Cisco Blog (2) และเว็บไซต์ Cisco Olympic
เว็บไซต์อย่างเป็นทางการของโอลิมปิกครั้งนี้คือ london2012.com ซึ่งการออกแบบและนำเสนอข้อมูลคงไม่มีประเด็นอะไรมากนัก ที่น่าสนใจคือเว็บจะรองรับทราฟฟิกจำนวนมากพร้อมๆ กันได้หรือไม่
คำตอบในเชิงวิศวกรรมคือ "ไม่รู้ก็ต้องทดสอบ" ทางคณะกรรมการผู้จัดการแข่งขันจึงจ้างบริษัท SOASTA ที่เชี่ยวชาญเรื่อง cloud testing performance มาทำ stress test ทดสอบให้
วิศวกรของ SOASTA ใช้เวลาทดสอบก่อนแข่งขันนาน 6 เดือน โดยใช้บริการกลุ่มเมฆอย่าง EC2/Azure จำลองทราฟฟิกจากคอมพิวเตอร์ 500,000 เครื่องใน 17 เมืองใหญ่ของโลก ทดสอบการถล่มเว็บโอลิมปิกและแอพพลิเคชันที่เกี่ยวข้องต่างๆ ซีอีโอของ SOASTA บอกว่าในยุคของกลุ่มเมฆสามารถรันการทดสอบขนาดใหญ่ได้ง่ายมาก เพราะสามารถจำลองทราฟฟิกของคอมพิวเตอร์ระดับแสนเครื่องได้ภายในไม่กี่นาที ต่างจากสมัยก่อนที่ต้องใช้เครื่องจริงที่เสียเวลา+เงินมากกว่ากันหลายเท่า ตอนนี้ SOASTA มั่นใจว่าเว็บโอลิมปิกสามารถรองรับทราฟฟิกจากผู้ใช้ 1 พันล้านคนได้ในเวลา 3 สัปดาห์ที่จัดการแข่งขัน - รายละเอียดดูที่ SOASTA และ Wired
การแข่งขันกีฬาเริ่มเข้าสู่ยุคสตรีมมิ่งผ่านอินเทอร์เน็ตมากขึ้นเรื่อยๆ ซึ่งโอลิมปิกรอบนี้ BBC ประเมินว่า peak load จะอยู่ที่ 1Tbps ซึ่งศูนย์ข้อมูลต่างๆ ในลอนดอนก็พร้อมรับมือ บางแห่งถึงขนาดทำเตียงนอนพิเศษไว้ในศูนย์ข้อมูล เพื่อการันตีว่าจะมีวิศวกรประจำการตลอดเวลา ศูนย์ข้อมูลหลักสำหรับการสตรีมมิ่งจะใช้ Telehouse West ในเขต Docklands ของบริษัท Telehouse
เหตุการณ์ที่น่าจับตาที่สุดสำหรับ peak load ของโอลิมปิกอยู่ที่การแข่งขันวิ่ง 100 เมตรชายรอบชิงชนะเลิศในวันสุดท้าย ซึ่งคาดกันว่าคนจะดูผ่านสตรีมมิ่งกันมากที่สุด
พีซีที่ใช้ในงานทั้งหมดจะเป็นยี่ห้อ Acer ในฐานะสปอนเซอร์ด้านคอมพิวเตอร์ Acer บอกว่าจะใช้พีซีทั้งหมด 13,500 เครื่อง ซึ่งในจำนวนนี้มีโน้ตบุ๊ก 2,000 เครื่อง และแท็บเล็ตอีก 100 เครื่อง
เซิร์ฟเวอร์จะใช้ยี่ห้อ Gateway และ Altos (แบรนด์ย่อยของ Acer ทั้งคู่) จำนวน 900 เครื่อง พื้นที่เก็บข้อมูล 96TB แยกย้ายติดตั้งในศูนย์ไอที 26 แห่ง พนักงานดูแล 350 คน
คอมพิวเตอร์ทั้งหมดที่ใช้ในการแข่งขัน จะนำไปขายต่อให้กับภาคการศึกษาในราคาถูก บางส่วนจะถูกยกให้โรงเรียนรัฐบาลในเขตลอนดอนด้วย - Acer
งานออกแบบระบบทำโดยบริษัท Atos มีศูนย์กลางอยู่ที่ London 2012 Technology Operations Centre (TOC) ทีมงานจำนวน 330 คน และรันการทดสอบไปแล้ว 34 ครั้ง - Atos
ที่มา - Data Center Knowledge, Trefor