Jakarta –
Meta, perusahaan induk Instagram, dilaporkan secara aktif mengizinkan konten terkait kekerasan, seperti gambar yang menyakiti diri sendiri dan gambar vulgar, untuk dipromosikan di platform tersebut. Temuan ini ditemukan melalui penelitian dari Denmark yang menunjukkan bahwa meta image tidak dihapus, dan moderasi konten dianggap tidak mencukupi.
Menurut Guardian, detikINET melaporkan, Selasa (3/12/2024), peneliti Denmark membuat jaringan pribadi di Instagram untuk menguji apakah konten yang terkait dengan tindakan menyakiti diri sendiri akan dikenali dan dihapus oleh platform tersebut.
Dia bahkan membuat profil palsu dengan seorang anak laki-laki berusia 13 tahun dan seiring waktu membagikan 85 foto perilakunya yang merugikan diri sendiri. Kontennya mencakup gambar darah, silet, dan bahkan seruan untuk menyakiti diri sendiri.
Tujuan dari penelitian ini adalah untuk menguji klaim Meta bahwa mereka telah meningkatkan kemampuannya dalam menghapus konten berbahaya, terutama dengan bantuan kecerdasan buatan (AI). Meta sebelumnya mengklaim bahwa mereka menghapus sekitar 99% konten berbahaya sebelum dilaporkan.
Namun, Digital Anwar, sebuah organisasi yang mempromosikan pengembangan digital yang bertanggung jawab, menemukan bahwa dalam percobaan selama sebulan, tidak ada foto yang dihapus.
Yang lebih mengejutkan lagi, ketika Digital Invaar mengembangkan alat AI sederhana untuk menganalisis konten, alat tersebut mampu secara otomatis mengidentifikasi 38% gambar yang berkaitan dengan tindakan menyakiti diri sendiri dan 88% gambar ekstrem. Temuannya menunjukkan bahwa Instagram sebenarnya memiliki teknologi yang dapat mengatasi permasalahan tersebut, namun mereka tidak menerapkannya dengan baik.
Digital Inwar menilai moderasi konten di Instagram tidak cukup dan mengatakan bahwa Meta tidak mematuhi peraturan UE, khususnya Undang-Undang Layanan Digital, yang mewajibkan platform besar untuk mengidentifikasi dan memitigasi risiko sistemik, termasuk dampak buruk pada kesehatan fisik dan mental pengguna. .
Sebagai tanggapan, juru bicara Meta mengatakan bahwa konten yang merugikan diri sendiri melanggar kebijakan perusahaan, dan akan dihapus ketika ditemukan. Dalam laporan resminya, Meta mengumumkan bahwa pada paruh pertama tahun 2024, mereka menghapus lebih dari 12 juta konten bunuh diri dan terkait bunuh diri di Instagram, 99% di antaranya dihapus secara aktif.
Metta juga menambahkan bahwa pihaknya telah memperkenalkan fitur untuk akun remaja Instagram yang secara ketat memoderasi konten sensitif bagi remaja, untuk mengurangi kemungkinan mereka melihat atau ditawari konten berbahaya.
Namun, terlepas dari klaim tersebut, penelitian di Denmark menunjukkan bahwa algoritma Instagram sebenarnya membantu memperluas jaringan konten yang merugikan diri sendiri. Anak-anak berusia 13 tahun yang bergabung dengan grup self-linked dilaporkan terhubung langsung dengan anggota grup lainnya, hal ini menunjukkan bahwa algoritma platform tersebut berperan dalam penyebaran konten berbahaya.
Tanya Hesby, CEO Digital Invar, yang mengungkapkan keterkejutannya atas temuan ini. Dia berkata: “Kami mengira jika intensitas gambar yang dibagikan meningkat, platform akan segera mengenalinya dan menghapusnya. Namun kenyataannya, hal ini tidak terjadi.”
“Kami terkejut karena kami mengira mereka memiliki sistem yang sangat canggih untuk mengatasi masalah ini, namun ternyata tidak berjalan sebaik yang kami harapkan.”
Temuan ini semakin mengkhawatirkan karena menunjukkan bahwa meskipun Meta mengklaim memiliki alat untuk mengidentifikasi konten berbahaya, platform tersebut tampaknya tidak serius dalam memperbaiki masalah tersebut, yang dapat berdampak besar pada keselamatan pengguna, terutama di kalangan pengguna kaum muda. .
Simak video “Video: Meta didenda Rp 13 T oleh Komisi Eropa” (jsn/afr)