เทคโนโลยีนี้จะทำให้จอทัชสกรีนสามารถแยกแยะได้ว่าเราใช้อะไรสัมผัสหน้าจอ โดยใช้ sensor ขนาดเล็ก ในการตรวจจับแรงสั่นสะเทือนของวัตถุที่กระทำกับหน้าจอ เพื่อแยกวัตถุที่ใช้สัมผัสหน้าจอแต่ละชนิดออกจากกัน ทำให้สามารถเขียนคำสั่งต่อการสัมผัสของวัตถุชนิดนั้นๆ ได้ เช่น ใช้ข้อนิ้วแทนการคลิกค้างเพื่อเรียกเมนู สามารถดูตัวอย่างเพิ่มเติมได้จากวิดีโอด้านล่างครับ
ในตอนนี้ Qeexo บริษัทผู้พัฒนาเทคโนโลยีชิ้นนี้ได้ปล่อย sdk เวอร์ชั่นของ Android ออกมาแล้ว นักพัฒนาท่านไหนสนใจ สามารถอีเมลไปสอบถามกับทาง Qeexo ได้ ส่วนของฝั่ง iOS นั้นจะออกตามมาเร็วๆ นี้