เราเห็นกรณีการนำเสนอข้อมูลปลอมจาก ChatGPT อยู่บ่อยครั้ง แต่ครั้งนี้น่าจะเป็นครั้งแรกๆ ถึงผลกระทบจากข้อมูลปลอมจาก ChatGPT ในอาชีพการงาน เมื่อ Steven Schwartz ทนายความสหรัฐ ใช้ข้อมูลคดีปลอมและโควทปลอม เป็นข้อมูลในชั้นศาล
Steven Schwartz ว่าความให้ Roberto Mata ฟ้องร้องเรียกค่าเสียหายกับสายการบิน Avianca ของโคลอมเบีย จากอาการบาดเจ็บบนเครื่องที่เกิดเมื่อปี 2019 โดยทนายใช้ข้อมูลคดีและคำตัดสินจาก ChatGPT ทั้งหมด 6 คดี รวมถึงโควทและข้อมูลอ้างอิงจากการสืบสวนคดีดังกล่าว เป็นคดีอ้างอิงในชั้นศาล ก่อนที่ผู้พิพากษาจะพบว่า ข้อมูลดังกล่าวเป็นของปลอม
Schwartz อ้างว่าไม่รู้ว่าข้อมูลจาก ChatGPT จะเป็นของปลอม ตอนนี้เขาถูก sanction ไปแล้วและต้องรอคำตัดสินจากสภาทนายความอีกครั้งว่าจะถูกลงโทษอย่างไร
ที่มา - QZ