เป็นทางการ แอปเปิลเปิดตัวระบบสแกนภาพโป๊เด็กบน iPhone/iPad, บล็อคการค้นหาผ่าน Safari/Siri ด้วย

by lew
6 August 2021 - 01:35

แอปเปิลเปิดตัวระบบสแกนภาพถ่ายเพื่อหาภาพอนาจารเด็ก (child sexual abuse material - CSAM) บน iPhone และ iPad อย่างเป็นทางการ พร้อมกับเพิ่มระบบบล็อคคำค้นที่เกี่ยวข้องกับภาพโป๊เด็กบน Safari และ Siri ทั้งบน Apple Watch, iPhone, iPad, และ Mac ตรงตามที่ Matthew Green นักวิจัยความปลอดภัยไซเบอร์นำข้อมูลมาเปิดเผยเมื่อวานนี้

ระบบสแกน CSAM จะทำงานสแกนภาพก่อนจะอัพโหลดขึ้น iCloud เท่านั้น โดยแอปเปิลระบุว่าเป็นการรักษาความเป็นส่วนตัวของผู้ใช้เนื่องจากไม่ต้องการไปสแกนภาพบนคลาวด์โดยตรง เมื่อสแกนแล้วจะสร้างรายการภาพที่ตรงกับฐานข้อมูลภาพโป๊เด็กจากหน่วยงานรัฐ เรียกว่า safety voucher แล้วอัพโหลดขึ้น iCloud ไปพร้อมกับภาพ

เมื่อภาพอัพโหลดขึ้น iCloud จะตรวจสอบว่าจำนวนภาพที่ตรงกับฐานข้อมูลเกินกำหนดหรือยัง หากเกินแล้วจะมีพนักงานของแอปเปิลมาตรวจสอบ และหากยืนยันว่าเป็นภาพโป๊เด็กจริงก็จะรายงานหน่วยงานที่เกี่ยวข้องต่อไป

ก่อนหน้านี้เคยมีข่าวว่าแอปเปิลยกเลิกโครงการเข้ารหัสไฟล์บน iCloud แบบ end-to-end เปิดทางให้หน่วยงานรัฐสามารถขอข้อมูลผู้ใช้จากแอปเปิลโดยตรงได้ การสร้างระบบแจ้งเตือนที่ซับซ้อนเช่นนี้จึงดูไม่จำเป็นนัก เพราะในความเป็นจริงแอปเปิลก็สแกนภาพบน iCloud ได้โดยตรง แต่กระบวนการที่ซับซ้อนเหล่านี้ช่วยให้แอปเปิลมั่นใจได้ว่าพนักงานที่เกี่ยวข้องจะไม่เข้าไปดูข้อมูลผู้ใช้โดยไม่จำเป็น

กระบวนการสแกนภาพใช้อัลกอริทึม NeuralHash ที่สามารถจับภาพได้แม้ถูกแปลงบางส่วน เช่น การหมุนภาพ, เอากล้องมาถ่ายภาพจากหน้าจอ, หรือการวางลายน้ำทับภาพ

นอกจากการสแกนภาพแล้วแอปเปิลยังอัปเดต Siri และ Safari ให้แจ้งเตือนผู้ใช้เมื่อพยายามค้นหาด้วยคำที่เกี่ยวข้องกับภาพอนาจารเด็ก พร้อมกับขึ้นลิงก์สายด่วนให้ความช่วยเหลือผู้มีความคิดและพฤติกรรมเสี่ยง แอปเปิลเตรียมอัพเดตใส่ฟีเจอร์นี้บน iOS, iPadOS, watchOS, และ mac OS ภายในปีนี้

ที่มา - Apple

Blognone Jobs Premium