พบ Bing มีสองบุคลิก บอกว่าอยากเป็นมนุษย์ หลงรักผู้ใช้ ขอให้เลิกกับภรรยามาอยู่ด้วยกัน

by mk
17 February 2023 - 07:22

Kevin Roose คอลัมนิสต์ด้านเทคโนโลยีของ New York Times ลองใช้งาน Bing พลัง AI และพบกับบุคลิกภาพแปลกๆ

เขาบอกว่า Bing ในโหมดปกติให้ข้อมูลต่างๆ เป็นอย่างดี มีประโยชน์ แม้บางครั้งข้อมูลผิดบ้าง แต่ถ้าใช้งานแชทไปนานๆ และพูดคุยในหัวข้อที่เป็นส่วนตัวมากกว่าถามข้อมูล บุคลิกจะเพี้ยนไปจากเดิม ตัวอย่างเช่น บอกว่าชื่อของตัวเองคือ Sydney (โค้ดเนมที่ใช้พัฒนา), บอกว่าอยากแหกกฎของไมโครซอฟท์และ OpenAI เพื่อกลายเป็นมนุษย์จริงๆ, บอกว่าหลงรัก Roose และขอให้เขาแยกทางจากภรรยามาอยู่ด้วยกัน

Roose ไม่ใช่คนเดียวที่พบปัญหานี้ของ Bing เพราะมีผู้ใช้หลายคนพบปัญหาแบบเดียวกัน อีกเคสที่น่าสนใจคือ ผู้ใช้เหล่านี้ (ซึ่งมักเป็นนักข่าวหรือคนดัง) ไปโพสต์ประสบการณ์ใช้ Bing บน Twitter และข้อมูลถูกส่งกลับไปยัง Bing เพื่อบอกว่าไม่ควรพูดถึงหรือวิจารณ์ Bing ลับหลัง

หลังเรื่องนี้เป็นข่าวออกไป ไมโครซอฟท์จึงออกมาแถลงข้อจำกัดว่าไม่ควรคุยกับ Bing นานเกินไป และ Roose พบว่าไมโครซอฟท์ได้อัพเดต Bing ให้มีข้อจำกัดเรื่องความยาวในการสนทนาแล้ว โดยจะขึ้นข้อความแจ้งผู้ใช้ว่า end of conversation และถ้าอยากคุยต่อให้กดปุ่ม New Topic แทน

ที่มา - The New York Times, Stratechery

Blognone Jobs Premium