Di era digital saat ini, miliaran konten diunggah ke platform dan situs web daring setiap hari.
Oleh karena itu, memoderasi materi ini tidak pernah sepenting atau sesulit ini. Meskipun sebagian besar konten yang diunggah ini mungkin positif, kami juga melihat semakin banyaknya materi yang berbahaya dan ilegal – mulai dari kekerasan dan tindakan menyakiti diri sendiri hingga retorika ekstremis, gambar yang eksplisit secara seksual, dan materi pelecehan seksual terhadap anak (CSAM).
Menangani banjir konten berbahaya ini kini menjadi tantangan tersendiri bagi para pelaku bisnis. Mereka yang tidak mampu (atau tidak mau) melakukannya akan menghadapi hukuman berat dan menempatkan anak-anak pada risiko yang serius.
Penelitian kami sendiri telah mengungkapkan bahwa lebih dari sepertiga (38%) orang tua telah didekati oleh anak-anak mereka setelah melihat konten yang berbahaya atau ilegal, dengan banyak yang mengakses materi yang sangat vulgar dan berbahaya seperti CSAM hanya dalam waktu sepuluh menit setelah online.
Oleh karena itu, sudah saatnya untuk langkah-langkah moderasi konten yang lebih kuat dan bisnis yang mencari cara lain untuk melampaui metode moderasi manual tradisional, yang sudah tidak praktis dan tidak dapat diskalakan. Sebaliknya, mereka harus memanfaatkan kemampuan pelengkap AI yang mengubah lanskap moderasi konten melalui otomatisasi, akurasi yang ditingkatkan, dan skalabilitas.
Namun, seperti halnya inovasi baru lainnya, perusahaan yang tertarik menggunakan AI harus memastikan bahwa mereka menerapkan teknologi tersebut dengan cara yang memastikan kepatuhan terhadap peraturan. Keputusan yang diambil perusahaan saat ini akan berdampak besar pada operasi mereka di masa mendatang.
Tangan bantuan AI
AI telah mengubah lanskap moderasi konten secara drastis dengan menggunakan pemindaian otomatis gambar, video yang direkam sebelumnya, streaming langsung, dan jenis konten lainnya dalam sekejap. AI dapat mengidentifikasi masalah seperti aktivitas di bawah umur dalam hiburan dewasa, ketelanjangan, aktivitas seksual, kekerasan ekstrem, tindakan menyakiti diri sendiri, dan simbol kebencian dalam platform konten buatan pengguna, termasuk media sosial.
AI dilatih pada sejumlah besar “data kebenaran dasar”, mengumpulkan dan menganalisis wawasan dari arsip gambar dan video yang diberi tag, mulai dari senjata hingga konten eksplisit. Keakuratan dan kemanjuran sistem AI berkorelasi langsung dengan kualitas dan kuantitas data ini. Setelah dilatih, AI dapat secara efektif mendeteksi berbagai bentuk konten berbahaya. Hal ini terutama penting selama skenario streaming langsung, di mana moderasi konten harus dapat dilakukan di berbagai platform dengan berbagai standar hukum dan komunitas.
Sementara pendekatan otomatis tidak hanya mempercepat proses moderasi, tetapi juga menyediakan skalabilitas – fitur vital di era di mana moderasi hanya oleh manusia tidak mungkin dilakukan mengingat besarnya volume konten daring.
Sinergi AI dan manusia
Otomatisasi AI memberikan manfaat yang signifikan, memungkinkan organisasi untuk melakukan moderasi dalam skala besar dan mengurangi biaya dengan menghilangkan kebutuhan akan tim moderator yang besar. Akan tetapi, bahkan teknologi yang paling canggih pun memerlukan penilaian manusia untuk menyertainya, dan AI sendiri masih jauh dari kata sempurna. Nuansa dan isyarat kontekstual yang spesifik dapat membingungkan sistem dan menghasilkan hasil yang tidak akurat. Misalnya, AI mungkin tidak dapat membedakan antara pisau dapur yang digunakan dalam video memasak dan senjata yang digunakan dalam tindakan kekerasan atau membingungkan pistol mainan dalam iklan anak-anak dengan senjata api sungguhan.
Oleh karena itu, saat AI menandai konten sebagai konten yang berpotensi berbahaya atau melanggar pedoman, moderator manusia dapat turun tangan untuk meninjau dan membuat keputusan akhir. Pendekatan hibrida ini memastikan bahwa, sementara AI memperluas cakupan moderasi konten dan menyederhanakan prosesnya, manusia tetap memegang otoritas tertinggi, terutama dalam kasus-kasus yang rumit.
Selama beberapa tahun mendatang, kecanggihan teknik identifikasi dan verifikasi AI akan terus meningkat. Ini termasuk meningkatkan akurasi pencocokan individu yang ditampilkan dalam berbagai jenis konten dengan dokumen identitas mereka—langkah selanjutnya dalam memastikan persetujuan dan mengurangi distribusi konten yang tidak sah.
Berkat kemampuan belajarnya, AI akan terus meningkatkan akurasi dan efisiensinya, dengan potensi untuk mengurangi kebutuhan akan campur tangan manusia seiring terus berkembangnya AI. Namun, unsur manusia akan tetap diperlukan, terutama dalam banding dan penyelesaian sengketa yang terkait dengan keputusan moderasi konten. Teknologi AI saat ini tidak hanya tidak memiliki perspektif dan pemahaman yang bernuansa, manusia juga dapat berfungsi sebagai pemeriksa terhadap potensi bias atau kesalahan algoritmik.
Lanskap regulasi AI global
Seiring dengan terus berkembangnya dan berevolusinya AI, banyak bisnis akan beralih ke badan regulasi untuk menguraikan rencana mereka dalam mengatur aplikasi AI. Uni Eropa berada di garis depan legislasi ini, dengan Undang-Undang Kecerdasan Buatannya yang mulai berlaku pada bulan Agustus 2024. Diposisikan sebagai pelopor dalam bidang regulasi, undang-undang tersebut mengkategorikan sistem AI menjadi tiga jenis: yang menimbulkan risiko yang tidak dapat diterima, yang dianggap berisiko tinggi, dan kategori ketiga dengan regulasi minimal.
Sebagai hasilnya, sebuah kantor AI telah didirikan untuk mengawasi penerapan Undang-Undang tersebut, yang terdiri dari lima unit: regulasi dan kepatuhan; keselamatan; inovasi AI dan koordinasi kebijakan; robotika dan AI untuk kebaikan masyarakat; dan keunggulan dalam AI. Kantor tersebut juga akan mengawasi tenggat waktu bagi bisnis tertentu untuk mematuhi peraturan baru, berkisar antara enam bulan untuk sistem AI yang dilarang hingga 36 bulan untuk sistem AI berisiko tinggi.
Oleh karena itu, bisnis di UE disarankan untuk mencermati perkembangan legislatif secara saksama guna mengukur dampaknya terhadap operasi mereka dan memastikan sistem AI mereka patuh dalam tenggat waktu yang ditetapkan. Penting juga bagi bisnis di luar UE untuk tetap mendapatkan informasi tentang bagaimana peraturan tersebut dapat memengaruhi aktivitas mereka, karena undang-undang tersebut diharapkan dapat menginformasikan kebijakan tidak hanya di UE tetapi juga di Inggris, AS, dan kawasan lain. Peraturan AI yang berbasis di Inggris dan AS akan mengikuti, jadi bisnis harus memastikan bahwa mereka mengikuti perkembangan dan bahwa alat apa pun yang mereka terapkan sekarang kemungkinan akan memenuhi pedoman kepatuhan yang diluncurkan oleh negara-negara ini di masa mendatang.
Pendekatan kolaboratif untuk Internet yang lebih aman
Meskipun demikian, keberhasilan penerapan AI dalam moderasi konten juga akan memerlukan komitmen kuat untuk perbaikan berkelanjutan. Alat-alat kemungkinan akan dikembangkan sebelum peraturan apa pun mulai berlaku. Oleh karena itu, penting bagi bisnis untuk mengauditnya secara proaktif guna menghindari potensi bias, memastikan keadilan, dan melindungi privasi pengguna. Organisasi juga harus berinvestasi dalam pelatihan berkelanjutan bagi moderator manusia agar dapat menangani kasus-kasus rumit yang ditandai oleh AI untuk ditinjau secara efektif.
Pada saat yang sama, dengan sifat pekerjaan moderasi konten yang melelahkan secara psikologis, penyedia solusi harus memprioritaskan kesehatan mental moderator manusianya, menawarkan dukungan psikologis yang kuat, sumber daya kesehatan, dan strategi untuk membatasi paparan konten yang mengganggu dalam jangka panjang.
Dengan mengadopsi pendekatan proaktif dan bertanggung jawab terhadap moderasi konten bertenaga AI, platform daring dapat mengembangkan lingkungan digital yang mempromosikan kreativitas, koneksi, dan dialog yang konstruktif sekaligus melindungi pengguna dari bahaya.
Pada akhirnya, solusi moderasi konten yang didukung AI menawarkan perangkat yang komprehensif bagi organisasi untuk mengatasi tantangan di era digital. Dengan pemantauan dan penyaringan konten buatan pengguna dalam jumlah besar secara real-time, teknologi canggih ini membantu platform menjaga lingkungan daring yang aman dan patuh serta memungkinkan mereka untuk meningkatkan upaya moderasi secara efisien.
Namun, ketika beralih ke AI, organisasi harus terus mencermati dokumen-dokumen penting, waktu peluncuran, dan implikasi undang-undang yang akan datang.
Jika diterapkan secara efektif, AI dapat bertindak sebagai mitra yang sempurna bagi manusia, menciptakan solusi moderasi konten yang menjaga anak-anak terlindungi saat mereka mengakses internet dan bertindak sebagai landasan untuk menciptakan ekosistem daring yang aman.