Bergumul dengan data di jurnalisme data


Produk jurnalistik tanpa data bukanlah produk jurnalisme. Mungkin hanya jurnalisme ludah saja. Karena (katanya), jurnalisme memang sudah seharusnya berdasarkan pada data.

salah satu proses membersihkan data di openrefine

Ya kurang lebih begitulah.

Apa itu jurnalisme data? Baca saja sendiri ya. Intinya, praktik jurnalisme sangat berkaitan erat dengan data. Untuk itulah, sebagai jurnalis kemarin sore, saya harus mau (lagi) berurusan dengan data.

Makanya Kamis (4/8/2016) lalu saya cukup bersemangat ketika AJIB menggelar pelatihan tentang jurnalisme data. Atau yang kini lebih beken dikenal sebagai data driven journalism. Apalagi ternyata sedikit banyak ada irisan antara pekerjaan yang (masih) saya geluti dengan kuliah yang pernah saya ikuti dulu, beberapa (belas) tahun lalu.

Menurut Mirko Lorenz, ada 4 proses inti dalam data-driven journalism alias ddj ini. Yakni menggali data, filtering, visualisasi, dan baru merangkai cerita dari data tersebut. Gambarnya begini:

data-driven-journalism
sumber; Wikipedia

Nah, dari empat proses itu, tiga proses pertama sebenarnya bukan hanya monopoli jurnalis saja. Ini sebenarnya tugas dari seorang yang suka bergelut dengan data. Entah itu statistisi, data saintis, atau tukang scraping situs seperti saya :D.

Ada banyak hal yang harus dilakukan ketika melakukan penggalian data. Bagi anak yang pernah kuliah di jurusan ilmu kompter atau informatika mungkin tak asing dengan istilah datamining. Bisa jadi di proses ini berbagai macam ilmu saling berkelindan demi menemukan emas data yang berharga bagi publik.

Di proses ini (juga di proses filtering), kemampuan pemrograman juga kadang diperlukan. Peralatan macam python maupun skrip bash mungkin sangat berguna agar proses penggalian dan pengambilan data (terutama dari situs tertentu) bisa dilakukan secara otomatis. Kan nggak lucu kalau harus mengunduh satu persatu data dari satu situs, sementara datanya ada ribuan. Atau jutaan.

Bayangkan oleh mbaknya, bagaimana caranya mengunduh data siswa yang lulus hasil seleksi di situs PPDB jika harus dilakukan satu persatu secara manual? Keburu deadline. Keburu PPDB tahun berikutnya dimulai. Maka, otomatisasi menjadi hal yang cukup penting. Sepertinya begitu.

Oke, data sudah diambil, dan ternyata datanya ribuan, bahkan jutaan. Sementara format di dalam datanya nggak seragam. Apalagi kalau proses input data hanya mengandalkan spreadsheet macam excel.

Alhasil, untuk satu istilah bisa jadi ada banyak variasinya. Mana yang benar: USA, U.S.A, United States, atau United States of America?

Semuanya benar, tapi kan jadi susah mengelolanya. Untuk itulah data mentah itu harus dibersihkan dulu. Pakai apa?

Bisa saja pakai excel, atau spreadsheet lain. Tapi jangan marah kalau programnya keburu ngehang karena datanya kebanyakan.

Untunglah banyak orang baik di dunia ini. Salah satu peralatan yang bisa dipakai adalah OpenRefine. Dengan alat ini, kita bisa membersihkan data dan memfilternya sesuai tujuan yang diinginkan.

Sekarang, data sudah dianggap bersih dan siap divisualisasikan. Pakai apa? Lagi-lagi kita bisa pakai excel, kalau kuat. Atau punya aplikasinya. Tapi kalau mau disimpan di web bagaimana? Kan tak elok kalau datanya cuma berupa gambar. Tak interaktif.

Untuk di bagian ini, ada banyak juga peralatan yang bisa digunakan. Buat pengguna Windows dan Mac, bisa pakai Tableau, baik yang berbayar maupun yang versi public. Sayangnya sampai kini Tableau belum ada versi linuxnya. Nasib…

Selain pakai Tableau, kita pun bisa gunakan alat lain. Salah dua yang cukup keren adalah Storymap dan timeline buatan Knightlab.

Storymap dapat digunakan untuk menampilkan data yang membutuhkan peta. Sementara Timeline untuk tulisan yang berhubungan dengan sejarah. Di sini, tulisan akan ditampilkan layaknya skrip film.

Untuk membuatnya, silakan kunjungi kedua web tersebut, dan berkreasilah. Nanti hasilnya tinggal ditempel di situs kita, dan voilaaa, tulisan kita jadi lebih menarik dan interaktif. Contohnya bisa dilihat di sini.

Akhirulkalam, mari kita belajar openrefine, storymap, timeline, tableau, dan tentunya belajar bahasa Slytherin eh python *pesan sponsor*.


Ada komentar?

This site uses Akismet to reduce spam. Learn how your comment data is processed.