Cara Tak Terkecoh Deepfake seperti Kasus ‘Jokowi’ Ngomong Mandarin
Meski sulit, deteksi konten deepfake karya kecerdasan buatan (AI) seperti video pidato Presiden Joko Widodo (Jokowi) berbahasa Mandarin masih bisa dideteksi dengan berbagai teknik, termasuk watermark.
Lalu bagaimana cara agar tak terkecoh konten hasil polesan teknologi deepfake?
Managing Partner Red Asia, perusahaan teknologi berbasis AI, Damon Hakim menjelaskan dengan berkembangnya teknologi AI ini, masyarakat harus jeli ketika menerima informasi baik itu lewat tulisan, gambar, suara, maupun video.
SCROLL TO CONTINUE WITH CONTENT
“Tips untuk user pastikan bahwa apa yang dibaca, didengar maupun ditonton di internet, terlepas deepfake maupun tidak deepfake sadari bahwa ini datang dari sumber yang mungkin kita tidak tahu,” kata dia saat peluncuran tiga layanan AI redAI for Indonesia, Rabu (1/11).
Ia menjelaskan masyarakat harus memiliki filter sendiri untuk memastikan agar tidak mudah menerima informasi apalagi menyebarkan ke platform lain.
Terlebih, konten tersebut tak jelas sumbernya dari mana. Biasanya berbagai kegiatan pejabat publik kerap diunggah di media sosial resmi maupun diliput oleh media massa.
Kendati demikian Damon tak menampik kalau kemajuan teknologi kerap menjadi pisau bermata dua. Dengan begitu, kata dia, masyarakat harus lebih kritis terhadap suatu konten yang tengah ramai di media sosial.
“Jadi saya pikir teknologi sama seperti pisau bermata dua. Ada ada cara untuk menggunakan sebuah alat dengan cara yang benar dan salah tergantung dari usernya,” katanya.
Sebelumnya, Kementerian Komunikasi dan Informatika memastikan video Jokowi berbicara bahasa Mandarin masuk kategori disinformasi dan dibuat menggunakan teknologi deepfake.
Menkominfo Budi Arie Setiadi mengatakan video itu hasil suntingan menggunakan kecerdasan buatan alias AI deepfake. Ia memastikan video itu tidak benar.
“Kementerian Kominfo menyatakan bahwa video tersebut merupakan hasil editan yang menyesatkan,” kata Budi melalui keterangan tertulis, Kamis (26/10).
Ia menambahkan, “Di-edit sedemikian rupa dengan teknologi artificial intelligence (AI) deepfake.”
Istilah “deepfake” berasal dari teknologi yang mendasarinya – algoritma pembelajaran mendalam – yang belajar sendiri untuk memecahkan masalah dengan kumpulan data yang besar dan dapat digunakan untuk membuat konten palsu dari orang sungguhan.
“Deepfake adalah rekaman yang dihasilkan oleh komputer yang telah dilatih melalui gambar-gambar yang tak terhitung jumlahnya,” kata Cristina López, seorang analis senior di Graphika, sebuah perusahaan yang meneliti aliran informasi di jaringan digital, mengutip Business Insider.
Watermark
Pada Juli, sejumlah perusahaan teknologi pengembang AI termasuk OpenAI, Alphabet (Google), Meta, Amazon, hingga Microsoft, membuat komitmen sukarela kepada Gedung Putih untuk menerapkan tanda air atau watermark pada konten yang dihasilkan AI.
“Komitmen ini merupakan langkah yang menjanjikan, namun masih banyak pekerjaan yang harus kita lakukan bersama,” kata Presiden AS Joe Biden, dikutip dari Reuters.
Sudahkah komitmen ini direalisasikan?
Panji Wasmana, National Technology Officer Microsoft Indonesia, mengungkapkan pihaknya sudah menerapkan tanda air itu secara bertahap pada platform AI mereka.
“Beberapa produk kami mulai dijalankan dan akan bertambah,” ujar dia, ditemui di kantornya, Senin (30/1), “Tapi itu bertahap dalam proses.”
Ia mencontohkan penerapannya pada AI di Microsoft Desaigner yang memanfaatkan algoritma milik OpenAI, Dall-e.
Secara singkat, Panji menjelaskan watermark itu bentuknya bisa eksplisit pada gambar dan juga menanamkan informasi metadata (data dasar pada file terkait).
“Ke depannya, kami sedang mencoba mengembangkan algorythm yang disebut security emerging, jadi selain filenya itu keliatan normal, tapi di dalamnya itu ada metadata yang kita tambahkan untuk menyatakan bahwa konten ini adalah genderated by AI,” tutur dia.
“Sehingga walaupun watermarking-nya dihapus, metadata-nya tetap ada. tujuannya memberikan penanganan yang lebih baik lagi,” imbuhnya.
Di samping itu, Microsoft berencana menerapkan tanda sejenis pada konten audio dan video.
“Signature-nya yang berikutnya nanti di audio juga sama. Kita akan menambahkan filler lagi setiap audio generated maupun video generated strateginya sama,” jelas Panji.
“Dalam proses. Karena sekali lagi penambahan metadata tadi harus melihat standar baku dari setiap viewer atau setiap target party vendor yang memanfaatkan teknologi.”