หลังจากแอปเปิลประกาศสแกนภาพหากภาพโป๊เด็ก หรือ CSAM ทาง 9to5mac ก็ไปค้นหน้าประกาศ Child Safety เวอร์ชั่นเดิมของแอปเปิลแล้วพบว่าแอปเปิลพูดถึงระบบตรวจจับภาพล่วงละเมิดเด็กมาก่อนหน้านี้แล้ว และหลังจากสอบถามไปยังแอปเปิลก็ได้คำตอบว่าก่อนหน้านี้แอปเปิลสแกนเฉพาะ iCloud Mail และข้อมูลอื่นๆ ตั้งแต่ปี 2019
ประกาศเดิมของแอปเปิลเป็นเพียงประกาศย่อหน้าเดียว โดยระบุว่าระบบทำงานแบบเดียวกับการสแกนอีเมลสแปม และหากพบก็จะปิดบัญชีผู้ใช้ โดยไม่ได้พูดถึงการแจ้งเจ้าหน้าที่แต่อย่างใด
แนวทางนี้ทำให้เรารู้ว่าแอปเปิลมีตัวสแกนข้อมูลในฝั่งเซิร์ฟเวอร์อยู่แล้ว แต่ตัดสินใจเลือกที่จะย้ายตัวสแกนนี้มาอยู่ในอุปกรณ์ผู้ใช้เพื่อสแกนภาพก่อนส่งขึ้น iCloud Photos
ที่มา - 9to5mac