Konten-konten gambar hasil produksi kecerdasan buatan (AI) makin banyak beredar di internet dan kian meresahkan. Pasalnya, konten-konten tersebut bisa mengecoh pengguna internet yang tidak mengetahui fakta di baliknya.
Di Korea Selatan misalnya, Kasus pornografi hasil AI deepfake menjadi masalah serius di dalam beberapa waktu terakhir. Sebab, semakin banyak warga Korsel, termasuk anak di bawah umur, menjadi korban kejahatan seks deepfake.
Kasus ini mencuat setelah viralnya sejumlah chat rooms atau ruang obrolan di Telegram yang diduga membuat dan mendistribusikan materi pornografi deepfake yang memicu ketakutan dan kemarahan di Korea Selatan.
Menurut Badan Kepolisian Nasional Korea Selatan, terdapat 297 kasus kejahatan deepfake pornografi yang dilaporkan dari Januari hingga Juli. Dari 178 terdakwa, 113-nya adalah remaja. Di Seoul sendiri sudah menangkap 10 remaja 14 tahun atas kejahatan ini.
Oleh karena konten-konten AI kian marak dan tidak sedikit yang meresahkan, Google kini sedang mengembangkan alat untuk mendeteksi konten buatan AI.
Penerapan C2PA Untuk Mendeteksi Konten AI
Awal tahun ini Google bergabung dengan komite Coalition for Content Provenance and Authenticity (C2PA). Bersama anggota komite beberapa bulan ini Google tengah mengembangkan teknologi untuk mendeteksi dan menandai konten hasil kecerdasan buatan.
Nantinya teknologi ini akan diimplementasikan pada Content Credentials. Content Credentials ini merupakan ekstensi yang membantu melacak asal konten video dan foto.
Dalam beberapa bulan mendatang Google akan memasukkan versi terbaru Content Credentials ke produk-produk utama Google. Dengan kata lain nanti Google akan mempermudah kita mendeteksi konten AI di hasil pencarian Google.
Melansir Engadget, pendeteksi ini akan tersedia juga di Google Images, Lens, dan Circle to Search. Jika gambar yang muncul memiliki metadata C2PA, kita akan mudah mendeteksi perubahan yang dilakukan oleh AI dalam menu “About this image”.
Google juga tengah belajar untuk membuat sistem yang dapat mengidentifikasi rincian video YouTube. Detailnya, sistem yang mengidentifikasi kapan video tersebut diambil oleh kamera.
Sistem pendeteksian ini juga memiliki beberapa kelemahan, Sistem ini bergantung pada penggunaan sistem penandaan C2PA oleh perusahaan-perusahaan yang terkait seperti pembuat kamera dan pembuat alat AI.
Artinya jika seseorang menghapus metadata pada suatu foto, maka Google juga akan kesusahan untuk mendeteksi kadar AI pada suatu foto.
Di sisi lain, perusahaan Meta sedang bertikai tentang cara mengungkapkan konten AI di Facebook, Instagram dan Threads. Meta baru saja mengubah kebijakan yaitu membuat label lebih tidak terlihat dalam foto yang diedit menggunakan AI.
Label “AI info” yang dulunya berada di tengah-tengah foto yang diedit menggunakan alat AI, sekarang label tersebut akan berada pada menu postingan.
Selain itu, Google juga berencana akan memakai metadata C2PA ke sistem iklan. Namun mereka tidak mengungkap detail-detail lain. Sejauh yang diketahui, C2PA akan digunakan untuk menginformasikan cara Google menegakkan kebijakan utama.
Cara Mencegah Jadi Korban Konten Deepfake Pornografi
Menurut Sophie Maddocks, mahasiswi doktoral di Annenberg School for Communication, pornografi deepfake dapat diakses siapapun dari aplikasi atau website tertentu.
Teknologi ini menggunakan algoritma deep learning yang diprogram untuk mendeteksi baju seseorang di gambar dan menggantinya dengan tubuh telanjang atau gambar-gambar vulgar lainnya. Detailnya, AI diprogram untuk belajar sendiri guna memecahkan masalah dengan kumpulan data-data yang dapat digunakan AI untuk menggambar ulang foto seseorang.
“Gambar-gambar seksual sintetis ini dibuat oleh AI, karena mereka tidak menggambarkan kejadian nyata, tetapi mereka dilatih dengan gambar orang sungguhan, yang banyak di antaranya dibagikan tanpa persetujuan,” kata Maddocks, mengutip laman University of Pennsylvania.
“Di ruang online, sulit untuk memisahkan gambar yang didistribusikan secara konsensual dari gambar yang didistribusikan secara non-konsensual,” lanjut dia.
Lalu, bagaimana cara menghindar agar tidak menjadi korban pornografi deepfake?
Pornografi deepfake ini merupakan tindak kejahatan digital, yang artinya pelaku tidak perlu untuk berkontak fisik dengan korban. Kejahatan ini semakin menyeramkan karena kemampuan memanipulasi visual yang begitu meyakinkan.
Maka dari itu kita perlu paham cara membuat perisai diri atas tindak kejahatan deepfake. Berikut langkah-langkah yang perlu diambil untuk mencegah jadi korban deepfake, mengutip McAfee:
Pahami secara mendalam apa itu deepfake
Langkah pertama yang perlu diambil adalah mengedukasi diri dan kerabat terdekat. Memahami apa itu deepfake dan bagaimana teknologi ini bekerja merupakan hal yang penting.
Pastikan selalu update teknologi
Teknologi AI akan selalu berkembang, akhir-akhir ini banyak fitur baru AI yang dapat digunakan oleh publik, termasuk deepfake. Selalu update informasi membantu untuk menyesuaikan tindakan pencegahan. Kita bisa menggunakan informasi dari website FTC untuk mengetahui perkembangan AI dan memahami ancaman yang bisa ditimbulkan dari AI.
Perketat keamanan media sosial
Media sosial sangat melekat dengan kita, maka tidak heran kita perlu bijak terhadap pengaturan media sosial. Atur siapa saja yang dapat melihat postingan itu sangat penting. Tidak hanya itu, kita juga perlu memerhatikan penyebaran postingan di media sosial.
Perhatikan apa yang di-posting
Tidak semua hal harus kita unggah ke media sosial, tetap bijak dalam memposting foto atau video juga sangat penting. Selalu ingat bahwa segala jenis netizen dapat melihat postingan kita, termasuk pelaku kejahatan deepfake. Makin sedikit informasi dan foto diri yang tersebar, makin kecil kemungkinan seseorang membuat deepfake dari wajah kita.
Gunakan watermark
Selalu pertimbangkan untuk menggunakan watermark saat ingin memposting foto atau video. Mungkin cara ini sedikit memakan waktu, tapi dengan adanya watermark dapat membantu mengungkap bahwa gambar tersebut telah dimanipulasi jika sewaktu-waktu kita menjadi korban deepfake.
Pantau nama di ruang digital
Anda dapat menggunakan Google Alerts atau bentuk peringatan serupa lainnya untuk nama Anda. Mendapat ringkasan email mingguan tentang informasi pribadi Anda akan membantu mengotomatiskan pemantauan konten dan mungkin memperingatkan Anda tentang penggunaan yang tidak sah atas kemiripan Anda dengan cepat.
Jangan takut melapor
Jika anda melihat foto anda atau teman anda, segera laporkan ke pihak platform. Lalu laporkan ke pihak yang berwajib jika konten deepfake digunakan untuk niat buruk seperti ancaman atau fitnah.
Gunakan keamanan yang canggih
Kita perlu melawan kejahatan siber dengan teknologi. Pelajari cara menggunakan keamanan digital yang berbasis AI. Pada akhirnya kita perlu melek teknologi untuk keamanan kita sendiri. Selalu update tentang teknologi AI dan bijak dalam bermedia sosial akan membantu kita di zaman yang AI telah menjadi hal umum dan dapat diakses siapa saja.