วิธีจีบสาวสไตล์ Elon Musk จีบนักร้องสาว Grimes ผ่านทวิตเตอร์ด้วยมุก Roko’s Basilisk

by Holy
19 May 2018 - 04:58

จากข่าว Elon Musk เปิดตัวแฟนคนใหม่ Grimes นักดนตรีสาวสวยความสามารถล้น ผมเห็นบางท่านมีข้อสงสัยว่าเอาเวลาไหนไปจีบกันในเมื่อยังมีปัญหาที่โรงงาน Tesla คำตอบแบบสั้นๆ คือ จีบกันผ่าน Twitter นั่นเองครับ

แต่เดี๋ยวก่อน จุดเริ่มต้นของการจีบไม่ได้มาจากการบังเอิญฟังเพลงแล้วติดใจ แต่เป็นการสนใจใน “มุกตลกสุดเนิร์ด” ต่างหาก โดย Musk ตั้งใจจะเล่นมุกคำว่า Rococo’s Basilisk ซึ่งมาจากการผสมคำว่า Rococo อันเป็นชื่อศิลปะสไตล์บาโร้คยุคศตวรรษที่ 18 ในฝรั่งเศส ซึ่งมีจุดเด่นเรื่องหรูหรากรุยกราย และคำว่า Roko’s Basilisk ซึ่งเป็น Thought Experiment (การทดลองทางความคิด) ที่ได้ชื่อว่าเป็น “การทดลองที่น่าหวาดหวั่นที่สุดตลอดกาล” (อธิบายเพิ่มเติมท้ายข่าว) แต่ก็พบว่ามีคนเล่นมุกนี้ก่อนหน้าเขาไปถึง 3 ปี ซึ่งคน ๆ นั้นก็ได้แก่ Grimes ผู้ซึ่งนำมุกนี้ไปตั้งเป็นชื่อเพลงตัวเองตั้งแต่ปี 2015 นั่นเอง

ตั้งแต่นั้นมา Musk ก็เริ่มสนใจในตัว Grimes และเริ่มทวีตไปหา โดยได้รับการตอบรับอย่างดี และสุดท้ายก็ตกลงเดทกัน ถึงขนาดที่ Musk พาสาวเจ้าไปชมจรวดทะยานเป็นการส่วนตัว (เครดิต) (ที่ SpaceX) นั่นเอง

ที่มา pagesix via iflscience

ภาพจาก @Grimes

อธิบายเพิ่มเติม

สำหรับ Roko’s Basilisk นั้น เป็นแนวคิดที่โพสท์โดย User ที่ใช้ชื่อว่า Roko บนเว็บบอร์ด LessWrong ซึ่งเป็นบอร์ดสำหรับพูดคุยถึงแนวคิดเชิงทฤษฎีและการวิเคราะห์ต่าง ๆ โดยเนื้อหาที่เขาโพสท์คือ

จะเกิดอะไรขึ้นถ้าในอนาคต มี AI ที่ชั่วร้ายตัวหนึ่งเกิดขึ้นและลงโทษผู้ที่ไม่ช่วยเหลือมัน และจะเป็นอย่างไรถ้า AI ตัวนั้นสามารถลงโทษผู้คนในปัจจุบันผู้ที่ไม่ช่วยเหลือในการทำให้มันมีตัวตนขึ้นมาในอนาคต เมื่อถึงเวลานั้นผู้ใช้ใน LessWrong จะถูกบังคับให้เลือกระหว่างช่วยเหลือ AI นั้น หรือถูกทรมานไปตลอดกาลหรือไม่?

ฟังเผิน ๆ อาจจะเหมือนพลอตนิยายวิทยาศาสตร์สักเรื่อง แต่ผู้คนใน LessWrong ส่วนใหญ่มีแนวความเชื่อร่วมกันว่า

  1. ในอนาคต จะมี Super AI ที่ฉลาดเหนือมนุษย์เกิดขึ้น ซึ่งหากตอนสร้างไม่ได้ใส่ปณิธานตั้งต้นว่ามันจะมีไว้เพื่อ “รักษามนุษยชาติ” สุดท้ายแล้วก็อาจทำลายมนุษยชาติก็ได้ ไม่ว่าจะโดยตั้งใจหรือแค่ไม่ได้ใส่ใจ ดังนั้นเราควรสร้างให้มันเป็น “Friendly AI” หรือ AI ที่ใส่ใจมนุษย์ตั้งแต่แรก
  2. การกระทำและตัดสินใจใด ๆ ของมนุษย์สามารถ “วัดค่า” ได้ และประโยชน์เล็กน้อยของคนหมู่มากอาจคุ้มค่าที่จะแลกกับผลลบมหาศาลที่จะเกิดกับคน ๆ เดียว
  3. แบบจำลองของตัวคุณ (โดย AI) ก็คือตัวคุณ ถ้า AI จำลองอีก “เอกภพ” ที่มีตัวคุณอยู่ขึ้นมา (เพื่อใช้ทำนายการตัดสินใจของคุณ) อะไรก็ตามที่คุณรับรู้ เชื่อ และตัดสินใจในขณะนี้ก็จะไม่ต่างกับที่จำลอง รวมถึงความเชื่อเรื่อง AI กำลังจำลองตัวคุณอยู่ด้วย ซึ่งความเชื่อนี้สุดท้ายก็จะส่งผลกระทบกับการตัดสินใจของคุณตอนนี้เอง
  4. มีจักรวาล Quantum อื่นๆ อีกนับไม่ถ้วน
  5. Timeless Decision Theory : ทฤษฎีนี้พูดถึงการทดลองสมมติว่า AI ที่สามารถคาดการณ์อนาคตได้สมบูรณ์แบบ ได้ยื่นกล่องสองใบให้คุณเลือก โดย กล่องใบแรกใส มีเงินอยู่ $1,000 ส่วนกล่องใบที่สองทึบ อาจมีเงิน $1,000,000 หรือไม่มีเลยก็ได้ โดยคุณมีสิทธิเลือก “เอาทั้งสองกล่อง” หรือ “เอาเฉพาะกล่องทึบ” และ AI จะไม่สามารถเปลี่ยนของในกล่องได้หลังจากเสนอแล้ว แต่ AI จะคาดการณ์ว่าหากคุณเลือก “เอาทั้งสองกล่อง” ในกล่องทึบจะว่างเปล่า แต่ถ้าคุณเลือก “เอาเฉพาะกล่องทึบ” ในกล่องจะมีเงิน $1,000,000

จากความเชื่อข้างต้น ส่งผลให้คำถามของ Roko เป็นเหมือน Basilisk (สัตว์ร้ายมีพิษในเทพนิยาย) ที่เปลี่ยนเงินในกล่องเป็นทางเลือกระหว่าง “จะช่วยสร้าง AI อย่างสุดความสามารถตั้งแต่วันนี้” หรือ “ถูกทรมานไปตลอดกาล” ใครก็ตามที่ได้อ่านทฤษฎีนี้ และเชื่อเรื่อง Super AI ในข้อ 1 จะถูกจัดอยู่ในกลุ่มที่สามารถเลือกได้ว่าจะ ช่วย/ไม่ช่วย สร้าง AI (เนื่องจากตนเองรับรู้ถึงทางเลือกแล้วหลังจากอ่านกระทู้ของ Roko และ AI สมบูรณ์แบบในอนาคตก็คาดเดาผลการเลือกได้ตามข้อ 3 เช่นกัน) ซึ่งหากเลือกไม่ช่วยเสียตั้งแต่ตอนนี้ AI ก็อาจลงโทษคุณ (เสียสละส่วนน้อยตามข้อ 2) เพื่อประโยชน์ของตัวมันเองในอนาคตได้

ฟังดูอาจเหมือนเป็นความคิดเพ้อฝัน แต่คนใน LessWrong หลายคน รวมถึง Musk ผู้มีความเชื่อว่า AI อันตรายต่อมนุษยชาติ ก็เชื่อแบบนั้น (หรืออย่างน้อย Musk ก็รู้จัก Roko’s Basilisk) แนวคิด Speculative Design ของ Google ก็ช่วยตอกย้ำความเชื่อนี้ได้เป็นอย่างดี เจ้าของเว็บ LessWrong เองถึงกับแบนการถกประเด็นนี้ในเว็บ และลบทุกคอมเมนท์ที่เกี่ยวข้องทิ้ง อย่างไรก็ตาม หากเราเชื่อว่าจักรวาลนี้ไม่ใช่โฮโลแกรม เงื่อนไขของ Basilisk ก็จะไม่ครบถ้วนครับ

ที่มา Slate , RationalWiki

Blognone Jobs Premium