Skinput Gadgete Mengubah Tangan Menjadi Layar Touch Screen. Pengembang di Microsoft Research dan Carnegie Mellon University bekerja sama untuk membuat gelang tangan yang dipasang langsung di tangan anda. Mereka telah menggabungkan proyektor mini yang untuk mengubah tampilan dengan sensor yang canggih yang dapat membedakan mana bagian dari lengan Anda yang ditekan. Para peneliti menyatakan Skinput dapat digunakan untuk mengontrol perangkat audio, bermain game sederhana seperti Tetris, membuat panggilan telepon dan menavigasi sistem browsing yang sederhana.
Skinput dapat menyelesaikan masalah pada layar yang tidak rata
Gambar menunjukkan bagaimana skinput dapat mengenali nomor telephon yang sedang diketik di telapak tangan
Chris Harrison peneliti dari Carnegie Mellon University mengatakan kepada Mail Online: “Ini adalah teknologi yang mutakhir dan kita sebenarnya melihat masa depan di sini. “Proyek ini berjalan sangat baik dan saya pikir Anda akan mulai melihat interface tersebut muncul dalam lima tahun ke depan.” Gadget secara efektif akan mengubah lengan ke permukaan layar sentuh dengan mengambil berbagai suara ultra-rendah yang dihasilkan ketika Anda menekan tangan anda.
Lokasi kulit yang berbeda secara akustik berbeda karena kepadatan tulang dan efek penyaringan dari jaringan lunak dan sendi. Tim kemudian menggunakan perangkat lunak yang cocok dengan frekuensi suara lokasi kulit secara spesifik. Jika prototipe tidak bergantung pada lengan, akan menggunakan teknologi nirkabel seperti Bluetooth untuk mengirimkan perintah ke perangkat yang dikendalikan, seperti ponsel, iPod, atau komputer.
Penelitian menunjukkan bahwa kulit kita sangat sempurna untuk dijadikan display
Dalam tulisan makalah untuk Microsoft Research, Chris Harrison, Desney Tan dan Dan Morris, berkata: “kulit bagaikan sebuah input kanvas tetapi sering diabaikan padahal selalu kemana mana bersamanya. ‘Selanjutnya, perasaan kita bagaimana caranya agar tubuh kita dikonfigurasi dalam ruang tiga dimensi memungkinkan kita untuk secara akurat berinteraksi dengan tubuh kita secara bebas. “Kita dapat dengan mudah menjentikkan jari-jari kita masing-masing, menyentuh ujung hidung kita, dan bertepuk tangan tanpa bantuan visual.”
Sensor menangkap dua jenis sinyal akustik dimana gelombang transversal diciptakan oleh permukaan kulit dan gelombang longitudinal yang berjalan melalui jaringan lunak lengan dan melewati tulang. Saat ini, detektor akustik dapat mendeteksi lima lokasi kulit dengan akurasi 95,5 persen, yang akan cukup digunakan untuk aplikasi smartphone.
Sensor menangkap dua jenis sinyal akustik dimana gelombang transversal diciptakan oleh permukaan kulit dan gelombang longitudinal yang berjalan melalui jaringan lunak lengan dan melewati tulang. Saat ini, detektor akustik dapat mendeteksi lima lokasi kulit dengan akurasi 95,5 persen, yang akan cukup digunakan untuk aplikasi smartphone.
Mr Harrison mengatakan kepada Mail Online: “Kami berhasil memperoleh ketepatan yang baik di laboratorium dengan sekitar satu kesalahan dari 20 tombol yang ditekan, semua mirip dengan apa yang mungkin Anda temukan di sebuah iPhone keyboard.” Dua puluh sukarelawan yang telah diuji mengatakan mereka merasa mudah untuk menavigasi. Para peneliti menambahkan bahwa Skinput juga bekerja dengan baik ketika pengguna sedang berjalan atau berlari.
Mr Harrison berkata: ‘Salah satu contoh pemutar audio pada lengan atas. Mungkin tidak memiliki tombol sama sekali, dan hanya menggunakan kulit sebagai tombol touch screen. “Kemudian, Anda tekan jari-jari Anda untuk maju ke lagu berikutnya, mengubah volume, atau menghentikan sementara lagu. ” Para peneliti berencana untuk mempresentasikan hasil kerja mereka pada bulan April di Pertemuan Computer-Human Interaction di Atlanta, Georgia.
Mr Harrison berkata: ‘Salah satu contoh pemutar audio pada lengan atas. Mungkin tidak memiliki tombol sama sekali, dan hanya menggunakan kulit sebagai tombol touch screen. “Kemudian, Anda tekan jari-jari Anda untuk maju ke lagu berikutnya, mengubah volume, atau menghentikan sementara lagu. ” Para peneliti berencana untuk mempresentasikan hasil kerja mereka pada bulan April di Pertemuan Computer-Human Interaction di Atlanta, Georgia.