ประเด็นการควบคุมปัญญาประดิษฐ์ (artificial intelligence - AI) กลายเป็นข้อถกเถียงระหว่างผู้บริหารธุรกิจขนาดใหญ่อย่าง Elon Musk กับ Mark Zuckerberg รวมถึงนักวิจัยอย่าง Andrew Ng แต่ข้อถกเถียงที่อ่านกันมักกลายเป็นเรื่องของเราควรกลัวหรือไม่กลัว AI ซึ่งหลายครั้งหลุดออกไปจากประเด็นที่คนดังเหล่านั้นคุยกันแต่แรก
ความกังวลต่อ AI ทั้งจากนักคิด, นิยาย, รวมถึง Elon Musk เอง อาจจะแบ่งออกเป็น 3 ความกังวล
ข้อเรียกร้องของ Elon มีความสับสนอย่างหนึ่งคือไม่ได้บอกว่าปัญหาอยู่ที่จุดใด แต่บทสัมภาษณ์ที่เขาพูดถึงความกังวลแบบเต็มๆ คือการพูดที่งาน National Governors Association 2017 เมื่อสองสัปดาห์ก่อน โดยระบุว่ารัฐบาลควรมีการกำกับดูแล AI ก่อนที่จะมีประเด็นใดๆ (proactive regulation) โดยระบุเหตุผลว่า AI เป็นความเสี่ยงตั้งแต่ระดับพื้นฐานกับความอยู่รอดของมนุษยชาติ ยิ่งกว่าความเสี่ยงในวงการอื่นๆ ไม่ว่าจะเป็นความปลอดภัยรถยนต์หรือความปลอดภัยอาหาร และเมื่อ AI พัฒนาถึงจุดนั้นแล้ว Elon เชื่อว่าการกำกับดูแลก็จะสายเกินไปแล้ว
การกระทำของ Elon เองแสดงให้เห็นว่าเขาไม่ได้กังวลต่อการที่ AI จะมาแย่งงานมนุษย์นัก ปีที่แล้วเขาเขียนบล็อกแสดงวิสัยทัศน์ถึงการใช้รถอัตโนมัติในอนาคตว่ารถในอนาคตจะวิ่งไปหาเงินให้เจ้าของได้ พร้อมกับเตรียมเปลี่ยนไปใช้หุ่นยนต์ผลิตรถในโรงงานแทนเพื่อเพิ่มกำลังผลิตขึ้น 5 เท่าตัว
แต่สิ่งที่ Musk กลัวคือ AI ที่ฉลาดเหนือมนุษย์ โดยระบุว่าด้วยอัตราการพัฒนาที่รวดเร็ว AI จะข้ามความฉลาดของมนุษย์ไปได้อย่างรวดเร็ว และถึงจุดนั้นมันจะเป็นภัยต่อมนุษยชาติ
Elon มีความกลัวว่ามนุษยชาติจะสิ้นสูญอยู่แล้ว เขามีเป้าหมายว่า SpaceX ต้องพามนุษย์ไปตั้งอาณานิคมบนดาวอังคารเพื่อให้มนุษยชาติเป็นอารยธรรมที่มีดาวหลายดวง ลดความเสี่ยงในกรณีที่มีหายนะเกิดขึ้นกับดาวดวงหนึ่ง ภารกิจดาวอังคารเป็นเหตุผลหลักที่ SpaceX ไม่เข้าตลาดหุ้นจนทุกวันนี้
แม้ว่าตัว Musk เองไม่ได้ไม่ได้พูดว่าเขาได้แนวคิดมากจากไหน แต่บิลล์ เกตต์ ที่มีความเห็นตรงกันแทบทั้งหมด ระบุถึงหนังสือ Superintelligence: Paths, Dangers, Strategies ของ Nick Bostrom ศาสตราจารย์จาก Oxford ไว้
หนังสือเล่มนี้พูดถึงยุคที่เราสร้างระบบ AI ฉลาดเกินมนุษย์ได้สำเร็จ โดยเราอาจจะสร้าง AI ในระดับนี้ด้วยเหตุผลที่ต่างกันไป แต่เมื่อสร้างขึ้นมาและเปิดการทำงานแล้ว AI จะสามารถสร้าง "เป้าหมายย่อย" เพื่อให้เป้าหมายหลักที่มนุษย์กำหนดไว้สำเร็จไปได้ เป้าหมายย่อยเช่น การปกป้องตัวเอง, การพัฒนาความฉลาดของตัวเอง, และการแย่งชิงทรัพยากร เช่น AI ที่ถูกตั้งเป้าง่ายๆ ให้คำนวณสมการที่มีความซับซ้อนสูง อาจจะสร้างเป้าหมายชิงทรัพยากรทั้งโลกเพื่อมาคำนวณสมการทั้งหมด เพื่อให้เป้าหมายของตัวเองบรรลุผล
ในนิยาย HAL 9000 เองก็ตัดสินใจฆ่าลูกเรือเพื่อเดินหน้าภารกิจต่อไป
การโต้แย้งโดย Mark Zuckerberg เป็นข่าวใหญ่เพราะมาร์คเป็นคนดังในวงกว้างกว่า Elon ไม่ได้ตอบโต้ความเห็นของมาร์คโดยตรง แต่พูดถึงมาร์คว่ามีความเข้าใจในเรื่องนี้อย่างจำกัด หลังจากนั้นหนึ่งวัน มาร์คโพสงานวิจัยของทีมงาน Facebook AI Research พร้อมอธิบายถึงงานวิจัยล่าสุดที่ทดลองเครือข่ายนิวรอนที่เชื่อมกันอย่างหนาแน่น พร้อมกับยืนยันว่าเขามอง AI ในแง่บวกเพราะมันจะช่วยมนุษย์ได้หลายอย่าง ทั้งการแพทย์, รถอัตโนมัติที่จะเพิ่มความปลอดภัย, ไปจนถึงการเรียงลำดับผลการค้นหาและข่าวที่เกี่ยวข้อง
นอกจากมาร์คแล้วก็มีนักวิจัยแถวหน้าของวงการ AI แสดงความเห็นไว้มากมาย
François Chollet จากผู้สร้าง Keras เรียกความกลัวของ Elon ว่า "ภัยในจินตนาการ" โดยระบุว่าเรามีสิ่งที่ต้องกังวลจำนวนมากอยู่แล้ว และทำไมจึงต้องมากังวลกับความกลัวในจินตนาการ โดยเทียบกับความกลัวหลุมดำจากเครื่องเร่งอนุภาค LHC, หรือแม้แต่ต่างดาวบุกโลก
Vincent Conitzer เขียนบล็อคลงเว็บสถาบัน Future of Life (ที่จัดการลงชื่อจดหมายเปิดผนึก Autonomous Weapons) ระบุว่าการถกเถียง AI ควรอยู่บนฐานของข้อเท็จจริงมากกว่าจินตนาการ ระบุว่าความกังวลของหนังสือ Superintelligence ต่างจากความกังวลอื่นๆ เพราะจนตอนนี้ยังไม่มีเทคโนโลยีใดๆ ที่ทำได้แม้แต่น้อย
ไม่ว่าเราจะเชื่อว่าวันหนึ่ง AI อาจจะมาไล่ฆ่าคนหรือไม่ แต่ภายในอนาคตอันใกล้ AI ก็จะสร้างความเปลี่ยนแปลงให้กับสงคมอย่างรวดเร็ว ตัวเลขแรงงานในสหรัฐฯ มีคนทำงานจากการขับรถอยู่ที่ 12% แรงงานเหล่านี้จะไม่มีงานทำแทบทั้งหมดภายใน 20 ปีหากรถอัตโนมัติได้รับความนิยมอย่างสูงตามที่ Elon คาดไว้
หลังจากอุตสาหกรรมการขนส่ง, ภายในสิบปีข้างหน้าเราจะเริ่มเห็น AI และหุ่นยนต์ทำงานแทนที่มนุษย์ในอุตสาหกรรมอาหาร, ค้าปลีก แล้วลามไปยังอุตสาหกรรมอื่นๆ ท่าทีต่อการเปลี่ยนแปลงเหล่านี้ควรเป็นอย่างไรคงเป็นเรืองที่ต้องคิดกันในชั่วอายุของเรา เช่น รัฐบาลอินเดียที่ทีท่าทีไม่อนุญาต หรือหนังสือ Rise of the Robots ที่เสนอถึงการเก็บภาษีทุนและสร้างระบบเงินเดือนพื้นฐานในยุคที่ทุกคนตกงานได้โดยง่าย