[ไม่ยืนยัน] นักวิจัยความปลอดภัยระบุ แอปเปิลเตรียมใช้เครื่องมือสแกนภาพโป๊เด็กใน iPhone

by lew
5 August 2021 - 04:37

Matthew Green นักวิจัยความปลอดภัยไซเบอร์ชื่อดัง อ้างแหล่งข่าวไม่เปิดเผยตัวตนหลายรายว่าแอปเปิลกำลังเปิดใช้งานตัวสแกนภาพโป๊เด็กบนไอโฟน

เนื้อหาทางเพศจากการละเมิดเด็ก (child sexual abuse material - CSAM) เป็นประเด็นสำคัญในโลกเทคโนโลยีเนื่องจากเป็นเนื้อหาที่มีความผิดจากการครองครองเพียงอย่างเดียว แต่เทคโนโลยีการเข้ารหัสทุกวันนี้ทำให้กระบวนการตรวจสอบว่าใครครอบครองหรือเผยแพร่เนื้อหาเหล่านี้ทำได้ยากขึ้น

แนวทางการสร้างฐานข้อมูลภาพโป๊เด็กและสแกนหาภาพเหล่านี้บนบริการคลาวด์มีมานานแล้ว โดยไมโครซอฟท์ได้พัฒนาโปรแกรม PhotoDNA เพื่อหาภาพที่ตรงกับฐานข้อมูลมาตั้งแต่ปี 2014 ทั้งกูเกิล, ทวิตเตอร์, และเฟซบุ๊กก็ใช้งานเครื่องมือนี้ แต่ที่ผ่านมายังจำกัดอยู่เฉพาะบริการออนไลน์เท่านั้น หากแอปเปิลนำเครื่องมือนี้มาสแกนบน iPhone จริงก็นับว่าเป็นการนำเครื่องมือมาสแกนบนอุปกรณ์ของผู้ใช้โดยตรงเป็นวงกว้างครั้งแรกๆ

Green ระบุว่าเครื่องมือจะดาวน์โหลดฐานข้อมูลแฮชลักษณะภาพ (perceptual hash) ลงมายังโทรศัพท์ และสแกนหาภาพที่ตรงกับค่าแฮช หากพบภาพที่ตรงจำนวนเกินที่ตั้งไว้ก็จะแจ้งกลับไปยังเซิร์ฟเวอร์แอปเปิล แนวทางนี้ทำให้แอปเปิลสามารถแจ้งเจ้าหน้าที่ได้ แม้ผู้ใช้จะไม่เปิดบริการคลาวด์ใดๆ เพื่อซิงก์ภาพออกจากโทรศัพท์เลยก็ตาม อย่างไรก็ดี Green ระบุว่าในช่วงแรกแอปเปิลจะตรวจสอบค่าแฮชเฉพาะภาพที่แชร์ขึ้นคลาวด์แล้วเท่านั้น แต่การสร้างโปรแกรมเพื่อรันในเครื่องผู้ใช้โดยตรงนั้นก็ไม่น่ามีวัตถุประสงค์อื่นนอกจากต้องการสแกนทุกภาพในเครื่อง

ที่ผ่านมาระบบแชตแบบเข้ารหัสจากปลายทางถึงปลายทาง (end-to-end) เป็นประเด็นถกเถียงกันมากเนื่องจากหน่วยงานรัฐไม่สามารถเข้าถึงข้อมูลในแชตผ่านทางผู้ให้บริการได้ แต่ต้องยึดโทรศัพท์และตรวจสอบข้อความจากโทรศัพท์โดยตรงเท่านั้น แนวทางการฝังโปรแกรมสแกนเนื้อหาและขอให้แจ้งเตือนเมื่อเนื้อหาในโทรศัพท์ตรงตามเงื่อนไขจึงเป็นแนวทางที่หน่วยงานรัฐหลายชาติเสนอให้ใช้งาน หลายปีก่อนโปรแกรม LINE ในจีนก็เคยดาวน์โหลดฐานข้อมูลคำสำคัญเพื่อบล็อคคำต้องห้าม

ที่มา - Hacker News, @matthew_d_green


ภาพจาก Pexels

Blognone Jobs Premium