0

Waspada Video Hoaks Pilpres 2024, Simak Cara Ceknya

RajaBackLink.com
waspada-video-hoaks-pilpres-2024,-simak-cara-ceknya

Jakarta, CNN Indonesia

Misinformasi hingga hoaks diprediksi bakal kembali berseliweran di berbagai platform media sosial jelang Pemilu 2024. Hoaks yang menyebar itu mulai dari bentuk teks, foto, bahkan manipulasi video.

Di tengah pesatnya perkembangan teknologi, memanipulasi video bukan perkara sulit. Cukup menggunakan teknologi deepfake untuk bisa membuat video palsu, tapi seakan-akan sangat nyata.

Deepfake adalah teknik manipulasi konten video dan suara yang mengandalkan kecerdasan buatan (AI). Menurut Kaspersky dalam keterangan resminya, teknologi ini kemungkinan besar diprediksi bakal digunakan untuk mempengaruhi situasi dan opini publik jelang Pemilu 2024.

ADVERTISEMENT

SCROLL TO CONTINUE WITH CONTENT

Penelitian Kasperksy juga mengungkap bahwa terdapat permintaan yang signifikan terhadap deepfake. Dalam beberapa kasus, terdapat kemungkinan permintaan deepfake dari individu terhadap target tertentu seperti selebriti atau tokoh politik.

“Ancaman digital berupa SMS, email phising, video palsu, dan situs berbahaya harus diantisipasi pada musim pemilu di Indonesia tahun depan,” kata Genie Sugene Gan, Head of Government Affairs and Public Policy for Asia-Pacific, Japan, Middle East, Turkey and Africa Regions di Kaspersky.

Gen menambahkan penjahat siber akan menggunakan teknologi terkini untuk melakukan penipuan finansial, manipulasi politik, balas dendam, disinformasi, hingga pelecehan. Dan mereka bisa saja menggunakan teknologi deepfake untuk melakukannnya.

Menurut Gen teknologi deepfake sebetulnya tidak berbahaya, namun di tangan penipu, teknologi ini bisa menjadi alat kejahatan. Oleh karena itu, ia mengajak seluruh pihak membangun kesadaran dan kewaspadaan terhadap teknologi deepfake dan kemungkinan eksploitasinya.

Sebagai contoh, beberapa waktu lalu viral suara mirip Presiden Joko Widodo (Jokowi) menyanyikan lagu ‘Asmalibrasi’ milik band Soegi Bornean. Suara yang terdengar dalam video tersebut dinilai mirip dengan suara asli Jokowi.

Berangkat dari situ, Kepala Pusat Riset Kecerdasan Artificial dan Keamanan Siber di Badan Riset dan Inovasi Nasional (BRIN) Anto Satriyo Nugroho meminta masyarakat waspada terhadap penggunaan AI jelang Pemilu 2024.

Pasalnya, sudah ada contoh penggunaan kecerdasan buatan untuk meniru suara tokoh politik tertentu dan bisa menjadi sumber hoaks di Pemilu 2024.

“Harus dicatat kita hanya mengandalkan suara atau video saja itu tidak cukup membuktikan suara itu asli atau tidak. Kita tidak bisa memakai itu untuk decision,” kata dia kepada CNNIndonesia.com beberapa waktu lalu.

Darrel M. West, pengajar senior di Center for Technology Innovation, Brookings Institution, AS, juga mengungkap bahwa AI kini benar-benar siap digunakan dalam kampanye. Menurutnya para politisi dapat menggunakan AI generatf untuk merespons dengan cepat.

“Tiga tahun lalu, AI benar-benar tidak digunakan dalam kampanye pemilihan. Tetapi teknologi telah berkembang sangat pesat. Sekarang, teknologinya sudah siap,” kata Darrel. 

Lalu, bagaimana cara mengecek keaslian sebuah video? Berikut langkah-langkahnya, menurut Kaspersky:

  • Pastikan kerabat dan keluarga mengetahui cara kerja deepfake dan tantangan yang dapat ditimbulkannya.
  • Edukasi diri Anda sendiri dan orang lain tentang cara mengenali deepfake.
  • Gunakan sumber berita yang berkualitas baik. Buta informasi tetap menjadi faktor penting yang mendorong penyebaran deepfake.
  • Miliki protokol dasar yang baik – “percaya tetapi verifikasi”. Sikap skeptis terhadap pesan suara dan video tidak menjamin kita terlepas dari jeratan penipuan, namun dapat membantu menghindarinya.

(tim/dmi)

[Gambas:Video CNN]

Waspada
RajaBackLink.com
RajaBackLink.com

More Similar Posts

RajaBackLink.com
RajaBackLink.com
Postingan Lainnya
RajaBackLink.com