“Dengan kekuatan yang besar, datang tanggung jawab yang besar,” nasihat Paman Ben kepada Peter Parker. Dan Facebook.
13 Maret 2018, tim investigasi dari PBB untuk kasus pelanggaran hak asasi kemanusiaan baru saja merilis pernyataan jika Facebook terindikasi memiliki peran penting atas terjadinya kerusuhan besar di Myanmar, yang menewaskan ribuan nyawa manusia, dan memaksa 650.000 orang etnis Rohingya mengungsi dari negara bagian Rakhine ke Bangladesh. Menurut PBB, Facebook ikut bertanggung jawab atas tersebarnya berita-berita palsu dan banyaknya ujaran kebencian terhadap etnis Rohingya. Facebook kemudian dituntut berbenah, dan Mark Zuckerberg berjanji akan memperbaiki platform ciptaannya.
Cuma satu, memperbaiki fungsi Facebook ketika menghadapi isu-isu disinformasi, ialah bukan pekerjaan semudah mengacungkan jari tengah. Terlebih, posisi Facebook di antara masyarakat sekarang sudah dilematis. Facebook telah berubah menjadi entitas masif dengan jaringan luas dan fungsi yang kompleks. Faktanya pada Agustus 2018, Facebook lagi-lagi bertemu kontroversi di tengah usaha memberantas setiap ujaran kebencian terhadap etnis Rohingya. Bahkan penting diingat, etnis Rohingya hanya sepenggal contoh dari sekian banyak kontroversi yang menerpa Facebook di seputaran isu disinformasi dan ujaran kebencian.
Tantangan yang menjumpai Facebook terlahir oleh jerih payah mereka sendiri. Terlahir dari pertumbuhan bisnis yang berujung pada ambiguitas ketika perusahaan memposisikan diri di antara masyarakat. Problematisnya profil serta posisi perusahaan merupakan bagian besar dari akar permasalahan Facebook di saat meredam laju disinformasi.
Di negera-negera berkembang, Facebook adalah internet. Seperti media konvensional, Facebook dipandang sebagai sumber informasi. Di Myanmar tidak terkecuali. Maka pantas bila kemudian seluruh disinformasi dan ujaran kebencian kepada etnis Rohingya yang bertebaran melalui Facebook menjadi salah satu faktor terjadinya tragedi kemanusiaan di negeri pagoda emas. Hanya saja ironis, faktor itu bisa saja tiada kalau Zuckerberg tidak terlambat menyadari evolusi posisi Facebook. Tidak terlambat mempersiapkan tim dengan tanggung jawab sebagaimana perusahaan media pada umumnya.
Tapi, Facebook memang bukan korporasi media pada umumnya. Facebook bukan media jurnalistik, bukan media informasi seperti majalah, stasiun radio, atau juga stasiun televisi. Kalau begitu, bukannya wajar jika mereka tidak perlu bertanggung jawab penuh atas setiap informasi yang beredar di platformnya?
Paling tidak, begitu pada mulanya.
Dengan jumlah pengguna sebanyak 2 milyar dan berasal dari hampir seluruh penjuru Bumi, Facebook memiliki kesempatan agar didisiplinkan seperti sebuah negara. Tetapi jelas, Facebook tidak diciptakan dengan asas-asas politik apapun sebagaimana pemerintahan sebuah negara bekerja. Facebook memberi klaim jika agenda mereka berada di lingkaran sosial, namun aktivitas mereka lebih sering mengejar pertumbuhan bisnis dan akuisisi. Ketika disebut perusahaan media konvensional layaknya stasiun radio, stasiun televisi, majalah, atau penerbit, Facebook belum pernah bertanggung jawab penuh atas konten-konten yang berkeliaran di platform mereka.
Pada kesempatan berbicara dengan Recode, Zuckerberg membagi pendapatnya tentang posisi Facebook di saat bertemu disinformasi. “The approach that we’ve taken to false news is not to say, you can’t say something wrong on the internet. I think that would be too extreme. Everyone gets things wrong, and if we were taking down people’s accounts when they got a few things wrong, then that would be a hard world for giving people a voice and saying that you care about that,” jelas Zuckerberg. Ia tidak salah, tapi tidak sepenuhnya benar. Namun pernyataannya mampu memaparkan bagaimana dilema di markas besar Facebook.
Menurut Zuckerberg semua orang pernah melakukan kesalahan, dan menutup akun-akun penyebar informasi yang salah akan menjadi keputusan yang ekstrim. Respon semacam itu, menurutnya lagi, akan meniadakan visinya demi memposisikan Facebook sebagai tempat bagi para pengguna internet untuk bebas bersuara.
Tapi, kontroversi di tubuh Facebook adalah bukan tentang isi kepala pemimpinnya, melainkan tentang apa saja yang dilakukan. Jika Zuckerberg menginginkan platformnya bersifat independen, dimana setiap penggunanya dapat menyampaikan pendapat dengan bebas, pada beberapa poin, Facebook masih layak dikategorikan seperti itu. Nyaris seluruh pengguna internet dapat mendaftarkan diri sebagai pengguna Facebook, kemudian mereka dapat mengekspresikan pemikirannya kepada pengguna internet lainnya. Tetapi, pantas disadari pula, istilah “netral” sudah lama menguap dari halaman Facebook, sejalan dengan hadirnya algoritma untuk mengatur tingkat keterlihatan sebuah unggahan pada fitur News Feed; serta disediakannya halaman unik dengan fitur manajemen iklan demi mengakomodasi agenda-agenda korporasi dan content creator.
Media sosial, sesuai namanya, diciptakan atas kebutuhan manusia untuk bersosialisasi. Namun bersosialisasi, manusia bukan membutuhkan media sosial saja, informasi juga dibutuhkan. Lantas, seiring berkembangnya Facebook sebagai media sosial, berkembang pesat juga mereka menjadi alternatif sumber informasi. Cuma, tanpa fungsi kontrol yang baik.
Di Myanmar, minimnya fungsi kontrol oleh Facebook terhadap konten-konten di dalamnya telah memicu tragedi kerusuhan dan genosida. Melalui Guardian, seorang analis, Raymond Serrato, memaparkan jika ia telah memeriksa sekitar 15.000 unggahan pada halaman Facebook yang berasal dari kelompok nasionalis garis keras pendukung Ma Ba Tha. Ia menemukan seluruh unggahan tersebut disebar sejak bulan Juni 2016, dengan jumlahnya melonjak tinggi pada tanggal 24 dan 25 Agustus 2017, ketika militan ARSA (Arakan Rohingya Salvation Army) menyerang pasukan pemerintah, yang lantas mendorong pasukan keamanan agar menggagas “operasi pembersihan” terhadap etnis Rohingya.
Alan Davis, analis lainnya dari Institute for War and Peace Reporting yang memimpin studi tentang ujaran kebencian di Myanmar, menambahkan jika selama proyek anti ujaran kebencian di Myanmar berjalan, dia dan timnya memperhatikan bahwa unggahan-unggahan yang menyudutkan etnis Rohingya pada halaman Facebook menjadi, “[…] lebih ditargetkan dan militeristis.” Tim penelitinya menemukan banyak unggahan yang cenderung menuduh sembarangan bahwa etnis Rohingya adalah ancaman.
Studi oleh Karsten Müller dan Carlo Schwarz semakin menegaskan tanggung jawab Facebook di antara arus disinformasi. Müller dan Schwarz menggunakan 3.335 kasus serangan terhadap kelompok pengungsi di Jerman sebagai objek studi mereka, dengan menganalisis komunitas di mana saja serangan terjadi, lalu didukung beberapa macam variabel seperti kesejahteraan, populasi pengungsi, catatan kriminal bernada kebencian, dan yang lainnya. Namun, Facebook sebagai faktor kontinu pada setiap kasus. Hasilnya, seperti dilaporkan melalui The New York Times pertama kali, mereka menemukan, “Di mana pun jumlah pengguna Facebook per orang naik ke satu standar deviasi di atas rata-rata nasional, serangan terhadap pengungsi pun meningkat sekitar 50%.”
Müller dan Schwarz meninjau jika Facebook secara efektif menyaring dan mengelompokkan penggunanya ke dalam ketegori-kategori dengan demografi dan pola aktivitas yang serupa satu sama lainnya. Prosedur segmentasi lantas berdampak pada jenis informasi yang diterima oleh setiap pengguna. Misal, fitur News Feed akan menyusun tingkat keterlihatan sebuah unggahan, baik promosi atau bukan, berdasarkan interaksi unggahan tersebut dengan teman-teman dan keluarga si pengguna.
Pengelompokkan itu lantas berpotensi juga mengisolasi pengguna dari otoritas yang dapat memoderasi pendapat. Facebook bukan saja mempertemukan penggunanya dengan komunitas yang sesuai demografi dan pola aktivitasnya, tapi juga berpeluang mengubah cara komunitas pengguna Facebook menentukan benar atau salah.
Riset oleh American Press Institute pun mendukung tinjauan Müller dan Schawarz. Dimana masyarakat, di media sosial, cenderung lebih percaya terhadap informasi yang disampaikan oleh orang terdekat atau yang ia percaya. Terlepas dari kredibilitas sumber informasi.
Sebelum tragedi kemanusiaan di Myanmar memuncak, Zuckerberg sebenarnya sudah memulai langkah yang cukup tepat. Pada akhir tahun 2016, Facebook mempermudah skema pelaporan disinformsi, dan memulai program third party fact checking untuk melakukan kurasi informasi. Namun sayangnya, skema yang dijalankan belum mengakomodasi isu-isu disinformasi secara global. Kemampuan bahasa, wawasan budaya di setiap daerah operasional beserta dinamika sosialnya, dan masifnya jaringan platform menjadi tantangan terbaru. Oleh tantangan yang sama pun Zuckerberg mengakui jika Facebook sudah menciderai etnis Rohingya.
Zuckerberg dan tim berbenah kembali. Menanggapi tragedi di Myanmar secara spesifik, Facebook merilis hasil analisis tersendiri, dan melanjutkan moderasi terhadap konten-konten disinformasi yang menyerang etnis Rohingya dengan dibantu oleh 60 orang tenaga lingusitik yang berbahasa nasional Myanmar. Setelah berencana menambah tenaga linguistik lagi hingga berjumlah 100 orang di akhir tahun 2018, mereka juga menonaktifkan sejumlah akun pejabat kemiliteran dan beberapa akun organisasi berbahaya di Myanmar.
Langkah-langkah di atas tidak otomatis memperbaiki kinerja Facebook ketika bertemu disinformasi. Selain masih ditemukannya lagi kurang lebih 1.000 unggahan yang menyerang etnis Rohingya dan umat Muslim secara umum, langkah-langkah tersebut adalah penanggulangan, bukan usaha untuk meredam. Maka, tantangan yang dihadapi Facebook masih tetap besar. Bagaimana meredam disinformasi di ruang diskusi yang luas dan ramai budayanya?
Beberapa negara mencoba beradaptasi. Upaya yang muncul lalu berbagai macam, mulai dari kampanye-kampanye edukasi, sampai menindak akun-akun penyebar disinformasi dengan hukuman denda bernilai tinggi atau kurungan penjara berdurasi sampai lebih dari 5 tahun. Jerman adalah salah satu negara yang mencoba adaptasi dengan kebijakan ekstrem. Pemerintah Jerman akan memberi denda kepada Facebook sebanyak 5-50 juta Euro, apabila ditemukan sebuah konten disinformasi beredaran di platform selama lebih dari 24 jam.
Ancaman denda dan kurungan penjara memang dapat diandalkan untuk memberi efek jera kepada pelaku disinformasi. Namun dua kebijakan itu dapat memicu pelanggaran hak asasi manusia lainnya – kebebasan berpendapat dan berekspresi. Sebagaimana penjelasan Facebook juga, salah satu tantangan menghadapi disinformasi ialah menentukan batas-batas kapan dan dimana konten itu bersifat berita palsu, kesalahan informasi, satir, pendapat, atau ujaran kebencian.
Kebijakan pemerintah Jerman untuk menekan Facebook agar bergerak cepat menghapus konten-konten terduga disinformasi pun belum efektif. Sebab tidak semua konten dapat ditentukan salah, palsu, benar, atau ofensif dalam waktu 24 jam. Setiap konten memiliki tingkat kompleksitas yang berbeda-beda, maka dibutuhkan waktu pemeriksaan yang beragam. Memaksakan pemeriksaan berjalan cepat akan berpotensi pada klaim disinformasi yang gegabah. Selain itu, penghapusan hanya akan meniadakan disinformasi pada sementara waktu. Disinformasi yang sudah terlanjur disiarkan dapat disimpan oleh pengguna lain, lantas diunggah kembali dengan bebas di waktu berbeda.
Secara global, Facebook terus berbenah. Mereka menghapus akun-akun terduga palsu dan berbahaya, melanjutkan kurasi konten, mempromosikan news literacy, menambah tenaga moderator, dan cakupan wilayah third party fact checking. Terakhir, program andalan tersebut sudah berkembang ke 48 negara. Di Indonesia sendiri, Facebook berkolaborasi dengan Tirto, Tempo, Mafindo, Liputan6, Kompas, dan AFP Indonesia. Third party fact checking juga tidak semena-mena menghapus unggahan terduga disinformasi, agar semangat kebebasan berpendapat dan berekspresi masih tetap terjaga. Pemeriksa telah disediakan beberapa jenis penanda seperti Palsu, Campuran, Judul Salah, Benar, Tidak Memenuhi Syarat, Satir, Opini, Pembuat Gurauan, serta Tidak Dinilai untuk konten yang belum diperiksa.
Facebook juga mengembangkan teknologi lainnya untuk meredam disinformasi. Selain teknologi machine learning agar sistem mampu mengenali disinformasi secara otomatis, mereka turut mengoptimalkan fitur Related Articles, dan memberi kontrol tambahan kepada pengguna terhadap News Feed masing-masing. Terbaru, Facebook mengumumkan rencana perubahan algoritma News Feed dengan metode bernama click-gap. Metode tersebut akan menyusun tingkat keterlihatan unggahan berdasarkan pemetaan trafik kunjungan dari domain yang ditautkan pada unggahan.
Pada November 2018, penelitian dari Stanford University menunjukkan jika jumlah aktivitas disinformasi di halaman Facebook sudah mulai mengalami penurunan. Pada Februari 2019, Facebook juga mengklaim jika usaha-usaha mereka meredam disinformasi mulai membuahkan hasil. Sayangnya, studi dari Stanford University dan klaim oleh Facebook sama-sama tidak merinci bagaimana hubungan di antara usaha-usaha Facebook dengan berkurangnya siaran disinformasi pada platform mereka.
Tentu melegakan mengetahui frekuensi aktivitas disinformasi pada halaman Facebook sudah mengalami penurunan. Namun, apakah langkah-langkah yang dipilih sudah cukup efektif untuk mencegah isu yang sama muncul kembali? Faktanya di negara-negara berkembang lainnya, seperti India, Kenya, dan beberapa negara di benua Afrika, disinformasi masih terus-menerus tumbuh di dalam Facebook.
Lalu bagaimana?
“It’s not that every single thing that happens on Facebook is gonna be good. This is humanity,” jelas Zuckerberg kembali, masih kepada Recode.
“This is humanity (Ini adalah kemanusiaan).”
Entah media sosial yang independen atau media informasi, Facebook adalah alat. Alat untuk berpendapat, berkomunikasi, berbagi informasi, dan alat untuk bersosialisasi. “Ini adalah kemanusiaan,” dapat menjadi sudut pandang alternatif. Klise, tapi memang manusia sendiri yang selalu menjadi penentu apakah sebuah alat akan berdampak baik atau buruk. Isu disinformasi di dalam Facebook bukan lagi isu teknis, melainkan kemanusiaan.
Zuckerberg bercita-cita agar Facebook memiliki skala keterbukaan yang luas, merdeka, bebas, dan situasi yang kondusif. Permasalahannya adalah seluruh dunia belum siap mencapai skala tersebut. Tidak semua negara siap mencapai skala yang sama. Setiap negara menyajikan skala keterbukaan, budaya, dan dinamika sosial yang berbeda-beda. Facebook tidak akan bisa mencapai skala yang dicita-citakan Zuckerberg tanpa menjadi platform yang juga diusik oleh sisi-sisi gelap para penggunanya.
Menentukan batasan-batasan berpendapat di kehidupan nyata adalah pekerjaan susah, menentukannya kembali di dunia internet “tanpa batas” tentu akan lebih runyam. Belum lagi menentukan siapa yang berhak memutuskan batasan-batasan tersebut.
Facebook telah berkembang masif menuju dimensi ambiguitas, tanggung jawabnya pun membesar. Masif, namun kehilangan arah, sampai-sampai pemimpinnya pun terjebak di antara dua visi yang cukup berseberangan. Dapat dipahami kemudian bila salah satu pendirinya mengeluh, “Sudah saatnya Facebook berakhir.”
0 Comments