Platform media sosial memiliki “tugas” yang harus dilakukan untuk mematuhi peraturan Inggris. Hukum Keamanan Online dan kami belum menerapkan semua langkah yang diperlukan untuk melindungi anak-anak dan orang dewasa dari konten berbahaya, kata regulator komunikasi.

Ofcom pada hari Senin menerbitkan kode praktik dan pedoman yang harus dipatuhi oleh perusahaan teknologi untuk mematuhi hukum, yang membawa ancaman denda besar dan penutupan situs jika perusahaan gagal mematuhinya.

Regulator mengatakan banyak dari tindakan yang direkomendasikannya tidak diikuti oleh platform terbesar dan paling berisiko.

“Kami tidak yakin satu pun dari mereka menerapkan semua tindakan tersebut,” kata Jon Higham, direktur kebijakan keamanan online Ofcom. “Kami pikir ada banyak pekerjaan yang harus dilakukan.”

Semua situs dan aplikasi dalam lingkup hukum, dari Facebook, Google dan X hingga reddit dan Onlyfans, kini memiliki waktu tiga bulan untuk mengevaluasi risiko munculnya konten ilegal di platformnya.

Mulai tanggal 17 Maret mereka harus mulai menerapkan upaya perlindungan untuk mengatasi risiko-risiko tersebut, dan Ofcom akan memantau kemajuannya. Kode praktik dan pedoman Ofcom menetapkan cara untuk mengatasi risiko tersebut. Situs dan aplikasi yang mengadopsinya akan dianggap mematuhi hukum.

Undang-undang ini berlaku untuk situs dan aplikasi yang menerbitkan konten yang dibuat oleh pengguna untuk pengguna lain, serta mesin pencari besar, yang mencakup lebih dari 100.000 layanan online. Laporan ini mencantumkan 130 “kejahatan prioritas” (mencakup berbagai jenis konten, termasuk pelecehan seksual terhadap anak-anak, terorisme, dan penipuan) yang harus ditangani secara proaktif oleh perusahaan teknologi dengan mengadaptasi sistem moderasi mereka.

Menulis di PenjagaSekretaris Teknologi Peter Kyle mengatakan kode dan pedoman tersebut adalah “perubahan terbesar yang pernah dilakukan terhadap kebijakan keamanan online”.

“Teroris internet dan pelaku kekerasan terhadap anak tidak akan lagi bisa berperilaku bebas dari hukuman,” tulisnya. “Karena, untuk pertama kalinya, perusahaan teknologi akan dipaksa untuk secara proaktif menghapus konten ilegal yang mengganggu Internet kita. “Jika mereka gagal melakukan hal tersebut, mereka akan dikenakan denda besar dan, jika perlu, Ofcom dapat meminta pengadilan untuk memblokir akses ke platform mereka di Inggris.”

Kode dan pedoman yang diterbitkan oleh Ofcom meliputi: menunjuk seorang eksekutif senior untuk bertanggung jawab atas kepatuhan terhadap hukum; memiliki staf yang memadai dan mendanai tim moderasi yang dapat dengan cepat menghapus materi ilegal, seperti konten ekstrem yang berhubungan dengan bunuh diri; pengujian algoritme yang lebih baik (yang memilih apa yang dilihat pengguna di feed mereka) untuk mempersulit penyebaran materi ilegal; dan menghapus akun yang dioperasikan oleh atau atas nama organisasi teroris.

Platform teknologi juga diharapkan mengoperasikan alat yang “mudah ditemukan” untuk mengajukan keluhan konten yang menyatakan telah menerima keluhan dan menunjukkan kapan keluhan tersebut akan ditangani. Platform yang lebih besar diharapkan memberi pengguna opsi untuk memblokir dan membisukan akun lain di platform, serta opsi untuk menonaktifkan komentar.

lewati promosi buletin sebelumnya

Ofcom juga mengharapkan platform untuk menerapkan sistem otomatis untuk mendeteksi materi pelecehan seksual terhadap anak-anak, termasuk apa yang disebut tindakan “pencocokan hash” yang dapat mencocokkan materi mencurigakan tersebut dengan contoh konten yang diketahui. Kode dan pedoman baru ini sekarang akan berlaku untuk layanan berbagi file seperti Dropbox dan Mega, yang “berisiko tinggi” dalam menyebarkan materi yang kasar.

Penggiat keselamatan anak mengatakan pengumuman Ofcom tidak cukup. Molly Rose Foundation, yang didirikan oleh keluarga Molly Russell, yang mengambil nyawanya Ketika dia berusia 14 tahun pada tahun 2017, setelah melihat konten tentang bunuh diri di media sosial, dia berkata bahwa dia “terkejut” karena tidak ada tindakan khusus untuk mengatasi konten terkait tindakan menyakiti diri sendiri dan bunuh diri yang memenuhi ambang batas kriminalitas. NSPCC mengatakan pihaknya “sangat prihatin” bahwa platform seperti WhatsApp tidak diharuskan menghapus konten ilegal jika memang demikian secara teknis tidak memungkinkan.

Penipuan, yang merupakan masalah yang tersebar luas di media sosial, akan diatasi dengan mewajibkan platform untuk membentuk saluran pelaporan khusus dengan badan-badan seperti Badan Kejahatan Nasional dan Pusat Keamanan Siber Nasional, yang dapat menandai contoh penipuan di platform.

Mereka juga akan mengadakan konsultasi di musim semi mengenai pembuatan protokol untuk peristiwa krisis seperti kerusuhan yang terjadi di musim panas sebagai tanggapan terhadap pembunuhan Southport.

Source link