Lebih dari 140 Facebook Moderator konten telah didiagnosis menderita gangguan stres pascatrauma parah yang disebabkan oleh paparan konten media sosial yang vulgar, termasuk pembunuhan, bunuh diri, pelecehan seksual terhadap anak-anak, dan terorisme.
Moderator bekerja delapan hingga sepuluh jam sehari di sebuah fasilitas di Kenya untuk sebuah perusahaan yang disewa oleh perusahaan media sosial dan Dr. Ian Kanyanya, kepala layanan kesehatan mental di Rumah Sakit Nasional Kenyatta di Nairobi, menemukan bahwa mereka menderita gangguan stres pasca-trauma, gangguan kecemasan umum (GAD) dan gangguan depresi mayor (TDM). ).
Diagnosa massal tersebut dilakukan sebagai bagian dari gugatan yang diajukan terhadap perusahaan induk Facebook, Meta, dan Samasource Kenya, sebuah perusahaan outsourcing yang melakukan moderasi konten untuk Meta dengan menggunakan pekerja dari seluruh dunia. Afrika.
Gambar dan video yang memuat nekrofilia, kebinatangan, dan tindakan melukai diri sendiri menyebabkan beberapa moderator pingsan, muntah, menjerit, dan lari dari meja mereka, menurut dokumen tersebut.
Kasus ini menyoroti dampak buruk dari meningkatnya penggunaan media sosial dalam beberapa tahun terakhir, yang semakin memerlukan pengendalian diri, yang sering terjadi di negara-negara termiskin di dunia, untuk melindungi pengguna dari materi terburuk yang dipublikasikan oleh sebagian orang.
Setidaknya 40 moderator dalam kasus ini menyalahgunakan alkohol, obat-obatan seperti ganja, kokain dan amfetamin, serta obat-obatan seperti obat tidur. Beberapa diantaranya melaporkan kegagalan pernikahan dan menurunnya keinginan untuk melakukan keintiman seksual, serta hilangnya koneksi dengan keluarga mereka. Beberapa orang yang tugasnya menghapus video yang diunggah oleh kelompok teroris dan pemberontak khawatir mereka akan diawasi dan diserang, dan jika mereka kembali ke rumah mereka akan diburu dan dibunuh.
Facebook dan perusahaan media sosial dan AI besar lainnya mengandalkan pasukan moderator konten untuk menghapus postingan yang melanggar standar komunitas mereka dan melatih sistem AI untuk melakukan hal yang sama.
Moderator di Kenya dan negara-negara Afrika lainnya ditugaskan antara tahun 2019 dan 2023 untuk memverifikasi postingan yang berasal dari Afrika dan dalam bahasa mereka sendiri, namun mereka dibayar delapan kali lebih rendah dibandingkan rekan-rekan mereka di AS, menurut dokumen klaim.
Laporan medis yang diserahkan ke pengadilan ketenagakerjaan dan hubungan industrial di Nairobi dan dilihat oleh The Guardian memberikan gambaran mengerikan tentang kehidupan kerja di dalam fasilitas yang dikontrak oleh Meta, di mana para pekerja terus-menerus diberikan gambar untuk diperiksa di ruang dingin yang mirip dengan gudang. di bawah cahaya terang dan aktivitas kerja mereka dipantau hingga saat ini.
Hampir 190 moderator mengajukan klaim multi-cabang yang mencakup tuduhan sengaja melukai mental, praktik perburuhan yang tidak adil, perdagangan manusia dan perbudakan modern, serta pemecatan ilegal. 144 orang yang diperiksa oleh Kanyanya ditemukan menderita PTSD, GAD dan MDD dengan gejala PTSD yang parah atau sangat parah pada 81% kasus, sebagian besar setidaknya setahun setelah keberangkatan mereka.
Meta dan Samasource menolak mengomentari klaim tersebut karena litigasi.
Martha Dark, pendiri dan salah satu CEO Foxglove, sebuah organisasi nirlaba yang berbasis di Inggris yang mendukung kasus pengadilan tersebut, mengatakan: “Buktinya tidak dapat disangkal: memoderasi Facebook adalah pekerjaan berbahaya yang menyebabkan gangguan stres pasca-trauma dalam segala hal.” kepada hampir semua orang yang memoderasi.” Dia.
“Di Kenya, hal ini membuat 100% trauma dari ratusan mantan moderator yang dites PTSD… Di industri lain mana pun, jika kami menemukan bahwa 100% pekerja keamanan didiagnosis menderita penyakit yang disebabkan oleh pekerjaan mereka, orang yang bertanggung jawab akan terpaksa melakukannya. mengundurkan diri dan menghadapi akibat hukum atas pelanggaran hak asasi manusia yang masif. “Itulah sebabnya Foxglove mendukung para pekerja pemberani ini untuk mencari keadilan di pengadilan.”
Berdasarkan dokumen yang diajukan dalam kasus Nairobi, Kanyanya menyimpulkan bahwa penyebab utama kondisi kesehatan mental di antara 144 orang tersebut adalah pekerjaan mereka sebagai moderator konten Facebook, karena mereka “menjumpai konten yang sangat vulgar setiap hari, termasuk video pembunuhan yang mengerikan. menyakiti diri sendiri, bunuh diri, upaya bunuh diri, kekerasan seksual, konten seksual eksplisit, pelecehan fisik dan seksual terhadap anak-anak, tindakan kekerasan yang mengerikan, hanyalah beberapa di antaranya.”
Empat dari moderator menderita trypophobia, yaitu keengganan atau ketakutan terhadap pola lubang atau gundukan kecil yang berulang-ulang yang dapat menyebabkan kecemasan yang hebat. Bagi sebagian orang, kondisi ini berkembang karena melihat lubang pada tubuh yang membusuk saat mengerjakan konten Facebook.
Moderasi dan tugas terkait menandai konten sering kali merupakan bagian tersembunyi dari ledakan teknologi. Pengaturan serupa, namun tidak terlalu traumatis, dibuat bagi pekerja kontrak untuk menandai banyak gambar benda-benda biasa seperti furnitur jalanan, ruang keluarga, dan pemandangan jalan raya sehingga sistem kecerdasan buatan yang dirancang di California dapat mengetahui apa yang mereka lihat.
Meta mengatakan dia menanggapi dukungan dari pengulas konten dengan serius. Kontrak dengan moderator konten pihak ketiga di Facebook dan instagram Harapan terperinci atas saran, pelatihan, dukungan 24 jam di lokasi, dan akses ke layanan kesehatan swasta. Meta mengatakan pembayarannya di atas standar industri di pasar tempat mereka beroperasi dan menggunakan teknik seperti pemburaman, peredaman suara, dan rendering monokrom untuk membatasi paparan karya seni bagi orang-orang yang meninjau konten di kedua platform tersebut.