แอปเปิลชี้แจงระบบสแกนภาพ ต้องยืนยันว่าเป็นภาพโป๊เด็กจากหลายชาติ, ให้ผู้ตรวจยืนยันว่าไม่ตรวจข้อมูลอื่น

by lew
14 August 2021 - 14:09

แอปเปิลเพิ่มเอกสารชี้แจงจุดที่อาจจะถูกโจมตีได้ของระบบสแกนภาพอนาจารเด็กหรือ CSAM หลังจาก Craig Federighi เดินสายให้สัมภาษณ์และยอมรับว่ามีกระแสตีกลับ โดยเอกสารระบุถึงเงื่อนไขการออกแบบของแอปเปิล

เงื่อนไขที่แอปเปิลพูดถึงในเอกสารฉบับใหม่ ระบุว่าค่าแฮชที่แอปเปิลจะยอมรับ ต้องเป็นค่าแฮชที่ตรงกันจากองค์กรคุ้มครองเด็กสององค์กรที่อยู่ภายใต้คนละรัฐบาลกัน (separate sovereign jurisdictions) เงื่อนไขนี้ไม่ปรากฎอยู่ในเอกสารด้านเทคนิคฉบับแรกที่แอปเปิลเปิดเผยออกมาที่ระบุเพียงว่าค่าแฮชจะมาจาก NCMEC และองค์กรคุ้มครองเด็กอื่นๆ

กระบวนการอัพเดตฐานข้อมูลค่าแฮชนี้จะต้องอัพเดตผ่านการอัพเดตระบบปฎิบัติการที่ตรงกันทั้งโลก จะไม่มีการอัพเดตเฉพาะตัวฐานข้อมูลเปล่าๆ และไม่สามารถอัพเดตฐานข้อมูลบนเครื่องผู้ใช้รายคน แอปเปิลจะแสดงค่า root hash ของฐานข้อมูลบนเว็บไซต์ และแสดงในเครื่องของผู้ใช้เอง

สำหรับประสิทธิภาพของตัวสแกน NeuralHash แอปเปิลสแกนภาพทั้งจากฐานข้อมูลของ NCMEC กับภาพที่ไม่เกี่ยวข้อง 100 ล้านภาพ พบภาพถูกแจ้งเตือนอย่างผิดๆ เพียง 3 ภาพ และเมื่อทดสอบกับภาพโป๊อื่นๆ อีก 500,000 ภาพก็ไม่พบภาพถูกแจ้งเตือนเลย โดยแอปเปิลยืนยันว่า NeuralHash ไม่ได้พยายามจับลักษณะภาพใดเป็นพิเศษ เช่น ลักษณะใบหน้า นอกจากนี้แอปเปิลยังป้องกันการแจ้งเตือนอย่างผิดๆ ด้วยการตั้งค่าว่าต้องพบภาพในฐานข้อมูลถึง 30 ภาพจึงแจ้งเตือน (ข้อมูลนี้เปิดเผยครั้งแรกหลัง Craig Federighi พบสื่อ โดยตอนให้สัมภาษณ์เขาพูดเพียงว่า "ประมาณ 30 ภาพ" แต่เอกสารยืนยันภายหลังว่าฐานข้อมูลแรกจะใช้เกณฑ์ 30 ภาพ) เกณฑ์นี้จะเปลี่ยนไปได้ในอนาคต และแอปเปิลจะแสดงข้อมูลคู่กับค่า root hash

แอปเปิลจะไม่มีฐานข้อมูลภาพ CSAM ที่องค์กรคุ้มครองเด็กส่งมาให้ อย่างไรก็ตามเมื่อผู้ใช้มีภาพที่ถูกแจ้งเตือนครบเกณฑ์ เจ้าหน้าที่ของแอปเปิลจะเห็นภาพที่ถูกแจ้งเตือนและตรวจสอบอีกครั้งว่าเป็นภาพที่เข้าข่าย CSAM จริง แนวทางนี้ป้องกันการสอดไส้ค่าแฮชของข้อมูลที่ไม่เกี่ยวข้องเข้าไปในฐานข้อมูล และแอปเปิลจะให้ผู้ตรวจภายนอก (third party auditor) ยืนยันว่าทำตามกระบวนการที่วางไว้ทั้งหมดจริง

ที่มา - Apple

Blognone Jobs Premium