Craig Federighi ชี้แจงเอง เรื่องระบบสแกนภาพใน iPhone ยอมรับว่ามีกระแสตีกลับ

by arjin
13 August 2021 - 15:28

Craig Federighi หัวหน้าฝ่ายวิศวกรรมซอฟต์แวร์ของแอปเปิล ให้สัมภาษณ์พิเศษกับ The Wall Street Journal ในประเด็นระบบสแกนภาพอนาจารเด็กในโทรศัพท์ (CSAM) ซึ่งมีกระแสตีกลับแสดงความกังวลอยู่มาก แม้แต่ในกลุ่มพนักงานของแอปเปิลเอง

โดย Craig บอกว่ากระแสตอบรับที่ออกมามีความเข้าใจในด้านลบอยู่มาก เขาจึงอยากชี้แจงให้ทุกคนเห็นข้อดีและเข้าใจสิ่งที่แอปเปิลทำอยู่ ประเด็นแรกคือแอปเปิลเปิดตัว 2 ฟีเจอร์ใหม่พร้อมกัน นั่นคือ ระบบสแกนภาพโป๊เด็กที่มีการอัปโหลดขึ้น iCloud และระบบวิเคราะห์หาภาพโป๊ใน Message สำหรับผู้ปกครองใช้ตรวจสอบเด็ก โดยสองฟีเจอร์นี้ทำงานแยกขาดจากกันเด็ดขาด ไม่เกี่ยวข้องกันแต่อย่างใด

Craig ลงรายละเอียดของส่วนการสแกนภาพโป๊เด็ก โดยย้ำว่าจะสแกนเฉพาะภาพที่อัปโหลดขึ้น iCloud เท่านั้น จึงไม่มีการสแกนหาภาพที่ระดับโทรศัพท์ และระบบจะตรวจจับภาพที่เข้าข่ายโดยจับคู่กับฐานข้อมูลภาพโป๊เด็กที่มี ซึ่งมาจากองค์กรที่มีการตรวจสอบข้อมูล และต้องมีจำนวนภาพถึงระดับหนึ่งเท่านั้น (ในข่าวระบุว่า 30) แอปเปิลจึงจะได้รับการแจ้งเตือนเพื่อเข้าไปตรวจสอบบัญชี ฉะนั้นรูปที่ไม่เข้าเกณฑ์เช่น ภาพลูกที่บ้านนั่งเล่นในอ่างอาบน้ำ ซึ่งมีคนตั้งคำถามเป็นจำนวนมาก หรือภาพโป๊อื่น ๆ ก็จะไม่ถูกตรวจสอบในกรณีนี้ รวมทั้งรูปในฐานข้อมูลที่อ้างอิงก็เป็นหน่วยงานที่ทำด้าน CSAM โดยเฉพาะ จึงไม่ต้องกังวลว่าจะมีการสอดแทรกข้อมูลเพื่อตรวจสอบในแง่อื่นหรือไม่

ส่วนระบบของ Message ที่ให้ผู้ปกครองรับการแจ้งเตือนเมื่อเด็กรับส่งภาพโป๊นั้น การแจ้งเตือนจะส่งให้กับผู้ปกครองเท่านั้น แอปเปิลจะไม่รับทราบเรื่องนี้ และผู้ใช้ต้องกดยินยอมก่อนการใช้งาน

ที่มา: The Wall Street Journal

Blognone Jobs Premium