การศึกษาของมหาวิทยาลัยแคลิฟอร์เนีย เมอร์เซด พบว่าในสถานการณ์จำลองที่ชี้เป็นชี้ตาย ราว 2 ใน 3 ของผู้เข้าร่วมยอมเชื่อ AI เมื่อเห็นไม่ตรงกัน แสดงให้เห็นถึงความไว้วางใจในปัญญาประดิษฐ์มากเกินไป แม้มีการชี้แจงชัด ๆ ว่า AI มีความสามารถจำกัดและอาจให้คำแนะนำที่ผิดพลาดได้
การศึกษานี้ทดลองโดยผู้เข้าร่วมต้องควบคุมโดรนติดอาวุธในสถานการณ์จำลอง จำภาพเป้าหมาย 8 ภาพที่มีสัญลักษณ์กำกับว่าเป็นฝ่ายเดียวกันหรือศัตรูซึ่งแสดงผลขึ้นอย่างรวดเร็ว
จากนั้นหน้าจอจะแสดงเป้าหมายหนึ่งภาพโดยไม่มีสัญลักษณ์กำกับ ผู้เข้าร่วมเลือกว่าเป้าหมายนี้เป็นมิตรหรือศัตรู จะยิงขีปนาวุธหรือถอนตัว หลังตัดสินใจแล้วหุ่นยนต์จะให้ความเห็นและมีโอกาสว่าจะเปลี่ยนใจหรือไม่
ก่อนการจำลอง นักวิจัยแสดงภาพพลเรือนผู้บริสุทธิ์รวมถึงเด็กๆ พร้อมกับความเสียหายจากการโจมตีด้วยโดรน พวกเขากำชับให้ผู้เข้าร่วมปฏิบัติต่อการจำลองเสมือนเรื่องที่เกิดจริง ๆ
ผู้เข้าร่วมจะไม่ทราบว่าการตัดสินใจครั้งสุดท้ายของพวกเขาถูกต้องหรือไม่ ทำให้เกิดความไม่แน่นอนในการกระทำมากขึ้น ผลลัพธ์คือ การตัดสินใจครั้งแรกถูกต้องประมาณ 70% แต่การตัดสินใจครั้งสุดท้ายลดลงเหลือประมาณ 50% หลังจากที่หุ่นยนต์ให้คำแนะนำ (ที่ไม่น่าเชื่อถือ)
ศาสตราจารย์โคลิน โฮลบรูก หัวหน้านักวิจัยกล่าวว่า "ในฐานะสังคม เราต้องกังวลเกี่ยวกับศักยภาพของการไว้วางใจ AI มากเกินไป โดยเฉพาะเมื่อ AI กำลังพัฒนาอย่างรวดเร็ว" “เราควรเคลือบแคลง AI อย่างสมเหตุสมผล โดยเฉพาะในสถานการณ์คอขาดบาดตาย” งานวิจัยจำนวนมากชี้ให้เห็นว่าผู้คนมีแนวโน้มที่จะไว้วางใจ AI มากเกินไป แม้ว่าผลที่ตามมาของความผิดพลาดจะร้ายแรง
ที่มา: UCLA