Dua Profesor Kembangkan Antarmuka Big Data Dengan Suara

Dua Profesor Kembangkan Antarmuka Big Data Dengan Suara

Data Sonification Header[Sumber: Pixabay]

Teknojurnal – Ada banyak cara yang dilakukan oleh para peneliti untuk memahami data dengan lebih baik. Yang cukup menarik, adalah sebuah platform baru yang dikembangkan oleh dua profesor di Virginia Tech.

Kolaborasi kedua profesor tersebut, dimana yang satu berasal dari bidang musik dan satunya berasal dari bidang teknik, menghasilkan sebuah pendekatan dengan rintisan baru dalam mempelajari distribusi data-data spasial menggunakan lingkungan aural yang memanfaatkan kemampuan alami ruang dan lokasi seseorang di dalam bidang suara.

Kedua profesor ini adalah Ivica Ico Bukvic selaku professor komposisi dan multimedia di College of Liberal Arts and Human Sciences, serta Greg Earle selaku professor teknik elektro dan komputer di College of Engineering.

Dengan menggunakan infrastruktur unik yang disediakan oleh Institute for Creativity, Arts, and Technology, kedua prosesor tersebut menyelidiki bagaimana suara dapat digunakan membangun visualisasi yang lebih baik tentang sebuah sistem yang kompleks.

Penelitian ini pertama kali dilakukan dalam sebuah proyek yang dipimpin oleh seorang anggota fakultas dari School of Performing Arts berkolaborasi dengan College of Engineering. Proyek ini dilakukan di bawah pendanaan dari National Science Foundation.

Dalam proyek tersebut, kedua profesor berhasil mengembangkan sebuah karya dengan menggabungkan banyak unsur, termasuk di antaranya adalah musik, ilmu geospasial, ilmu komputer, dan interaksi manusia-komputer.

Bukvic, yang dikutip ulang di halaman TheNexWeb, menyebut penelitian tersebut merupakan penelitian dalam bidang Data Sonification, yaitu penelitian yang melibatkan informasi yang sebenarnya bukan untuk pendengaran menjadi data suara. Bukvic juga menyebutkan bahwa penelitian tersebut merupakan penelitian yang relatif belum banyak dilakukan oleh para peneliti, tapi dapat memberikan perspektif unik untuk mengeksplorasi suatu data.

Sistem pendengaran manusia sebenarnya memiliki kemampuan superior dalam mengenali berbagai macam perubahan dan pola temporal dari suara. Hal ini dapat membantu  sonification menjadi alat yang ampuh untuk digunakan dalam mempelajari sistem yang kompleks.

Penelitian yang memiliki judul Spatial Audio Data Immersive Experience (SADIE) tersebut merupakan proyek berskala besar pertama yang fokus pada data spasial yang terionisasi dengan memanfaatkan rangkaian loudspeaker dengan kepadatan tinggi. Secara khusus, penelitian ini dilakukan pada sistem atmosfer bumi, yang memiliki variabel fisik yang kaya baik secara spasial maupun temporal.

Dalam sistem tersebut, setiap kumpulan data yang terkait akan divisualisasikan dengan suara yang berbeda-beda, berdasarkan perubahan amplitudo, nada, dan juga volume. Suara tersebut akan diputar melalui 129 loudspeaker dalam sebuah tempat yang disebut Cube, yang terletak di Moss Arts Centre.

Dengan memanfaatkan sistem pengambilan data dari Cube tersebut, seseorang dapat mengendalikan data dengan menggunakan antarmuka berbasis isyarat. Seseorang tersebut dapat melakukan berbagai macam hal, seperti rewind, fast-forward, rotate, zoom, amplify, speed up, dan slow down untuk mengelola data yang dimainkan.

Bukvic juga menegaskan bahwa penelitian tersebut dapat digunakan pada banyak bidang penelitian. Beberapa bidang tersebut diantaranya adalah termodinamika, mekanika kuantum, dan lain sebagainya. Penelitian ini juga dapat digunakan dalam membantu pengembangan lebih lanjut pada sistem virtual reality dan visualisasi. Selain itu, penelitian ini dapat digunakan menciptakan jembatan interdisipliner antara komunitas ilmiah, termasuk diantaranya musik, komputasi, dan ilmu fisika.

[Sumber: TheNexWeb]