Contact Information

Alamat: Komplek Rumah Susun Petamburan Blok 1 Lantai Dasar, Tanah Abang - Jakpus 10260

We're Available 24/ 7. Call Now.
Review 8.000 Konten Negatif di Facebook per Hari, Wanita Ini Tersiksa
SHARE:

Technologue.id, Jakarta – Sebelum resign, Sarah Katz bersama lebih dari 4.000 orang lainnya bekerja sebagai moderator konten di Facebook. Katz dan kawan-kawannya (juga sistem AI Facebook) adalah garda terdepan media sosial berpengguna 2 miliar lebih itu untuk menjadikan Facebook platform yang bersih dari konten-konten negatif dan aman digunakan banyak orang. Sayangnya, pekerjaan ini tidaklah mudah. Katz pun memilih untuk meninggalkan posisinya sebagai content reviewer di Facebook. Wanita yang sehari-harinya bekerja di kantor Facebook di Menlo Park ini merasa tertekan dengan pekerjaannya itu.

Baca juga:

Facebook Incar Hak Siar Liga Inggris

Alasan pertama Katz keluar dari pekerjaannya ini adalah ia terlalu banyak terpapar konten negatif. Saking banyaknya konten yang harus ia review, hal ini sampai membuat nuraninya kehilangan sensitivitas. "Facebook memiliki miliaran pengguna dan orang-orang tidak tahu bagaimana menggunakan platform itu dengan benar," katanya pada BusinessInsider.com (09/07/2018). "Ada banyak sekali konten yang tidak Anda harapkan untuk dilihat dibagikan di Facebook," tambahnya. Konten tersebut meliputi pornografi anak, hate speech, spam, hingga kekerasan.

Baca juga:

Awas, Laman Facebook Palsu Banyak Gentayangan!

Selain itu, mengamati sekitar 8.000 post setiap harinya dan harus membuat keputusan setiap 10 detik apakah konten tersebut layak dikonsumsi publik atau tidak menimbulkan kejenuhan tersendiri bagi Katz. "Pekerjaan ini menjadi monoton setelah beberapa saat," akunya. Belum lagi adanya tekanan yang sangat tinggi dari Facebook. Performa Katz, yang direkrut dari kontraktor pihak ketiga bernama Vertisystem, tidak boleh menurun. Satu atau dua kali ia gagal memenuhi target, yakni me-review 8.000 post setiap harinya, Facebook akan memberikan peringatan. Kalau ketiga kalinya terjadi, Facebook bakal memecatnya, walaupun hal ini belum pernah ia alami atau saksikan secara langsung.

Baca juga:

Anda Sekarang Harus Bayar Iuran Kalau Join Grup Tertentu di Facebook

Untuk lebih mengamankan platformnya, Facebook berencana menggaet 3.000 orang moderator konten lagi tahun ini. Semoga saja Mark Zuckerberg ke depannya juga bisa lebih baik melindungi mereka dari efek-efek negatif yang dialami oleh Katz dan mungkin pegawai lainnya pula.

SHARE:

Ini Alasan Meta Hidupkan Lagi Fitur Facial Recognition di FB dan IG

Sasar Milenial, Igloo Luncurkan Layanan Asuransi Mudah via Website