ประโยชน์สำคัญของปัญญาประดิษฐ์คือการใช้อธิบายภาพถ่ายและวิดีโอ ทำให้คอมพิวเตอร์สามารถค้นหาภาพจากคำอธิบายได้อย่างแม่นยำ แต่ผู้ใช้ ryanjay0 บน GitHub ก็เสนอแนวทางการพัฒนาปัญญาประดิษฐ์เพื่อการอธิบายแต่ละช่วงเวลาของภาพยนตร์สำหรับผู้ใช้ ที่ชื่อระบบว่า Miles Deep
Miles Deep เป็นเครือข่ายประสาทแบบ CNN ที่ใช้โมเดลที่ฝึกด้วย ImageNet มาล่วงหน้า จากนั้นจึงสร้างโมเดลเพิ่มเติมด้วยภาพอีก 36,000 ภาพ และข้อมูลทดสอบอีก 2,500 ภาพ โดยภาพที่ใช้ฝึกเป็นภาพ 6 ประเภท ได้แก่ (ขออนุญาตไม่แปล) blowjob_handjob, cunnilingus, sex_back, sex_front, titfuck, และ other
โมเดลใช้เฟรมเวิร์ค Caffe ในการพัฒนา และต้องใช้การ์ดกราฟิกของ NVIDIA สำหรับการทำงานบนจีพียู (ใช้ซีพียูเท่านั้นก็ได้ แต่ช้าลงสิบเท่าตัว) ตัวอย่างเอาท์พุตจะเป็นค่าความมั่นใจของฉากประเภทต่างๆ
โมเดลคล้ายกันเคยมีการแจกมาแล้วโดย Yahoo! แต่เป็นการตรวจสอบภาพอนาจารอย่างเดียว ไม่ได้ลงไปตรวจสอบประเภทต่างๆ ของภาพเช่นนี้
ที่มา - The Register, GitHub: Miles Deep