กูเกิลทำ Content Safety API ให้องค์กรไว้กรองรูปเด็กถูกละเมิด ใช้คนน้อยลงในการทำหน้าที่นี้

by sunnywalker
4 September 2018 - 03:04

กูเกิลและเฟซบุ๊กถูกวิจารณ์มานานเรื่องเนื้อหาละเมิดเด็ก และรูปเด็กถูกละเมิด ซึ่งอัลกอริทึมก็ไม่สามารถคัดกรองและจัดการได้ทั้งหมด ทำให้ต้องใช้คนเข้ามาช่วยคัดกรอง แต่การทำหน้าที่นี้ก็ทำให้เสียสุขภาพจิตมาก ล่าสุด กูเกิลทำ Content Safety API ให้องค์กรพาร์ทเนอร์และ NGO นำไปคัดกรองรูปเด็กถูกละเมิดโดยใช้พลัง AI ลดการใช้พลังงานคน

กูเกิลระบุว่า ปกติการตรวจจับเนื้อหารูปภาพละเมิดเด็กจะใช้วิธีจับคู่ภาพที่เคยระบุไว้ว่าเป็นภาพผิดกฎหมาย ซึ่ง Content Safety API จะช่วยให้สามารถติดตามผู้กระทำผิดได้อย่างมีประสิทธิภาพมากขึ้น เพราะสามารถบ่งชี้รูปภาพใหม่ที่ไม่เคยมีอยู่ในประวัติหรือยืนยันว่าเป็นภาพละเมิดเด็กมาก่อน

โดยขณะนี้มีองค์กรที่ร่วมใช้เครื่องมือดังกล่าวคือ Internet Watch Foundation (IWF) และองค์กรอื่นสามารถเข้าไปกรอกฟอร์มเพื่อใช้เครื่องมือได้ ที่นี่


ภาพจาก Shutterstock โดย Castleski

การทำ API ดังกล่าวของกูเกิลเป็นผลพวงจากการวิจารณ์ต่างๆ อย่างที่ได้กล่าวไปแล้ว และยังมีกรณี Jeremy Hunt เลขานุการฝ่ายต่างประเทศของอังกฤษ โพสต์ทวิตเตอร์วิจารณ์กูเกิลเรื่องจะทำเสิร์ชที่จีน โดยร่วมมือกับจีนเพื่อเซนเซอร์เนื้อหานั้นทำได้ แต่ไม่ประสานกับทางรัฐบาลอังกฤษ สหรัฐ และอื่นๆ ในการแก้ปัญหาเนื้อหาล่วงละเมิดเด็ก

ที่มา - Venture Beat

Blognone Jobs Premium