JERUSALEM – Dalam dua minggu kebelakangan ini, sejak kumpulan pengganas Palestin Hamas melakukan serangan mautnya di selatan Israel yang mengorbankan kira-kira 1,400 orang dan Israel, terdapat ketakutan bahawa pertempuran baru dalam peperangan lama antara orang Israel dan Palestin boleh terbuka – di alam digital.

Walaupun imej-imej yang diubahsuai dan berita palsu telah lama menjadi sebahagian daripada senjata perang masa perang di Timur Tengah, dengan kedatangan kurang daripada setahun lalu alat-alat kecerdasan buatan (AI) generatif yang mudah digunakan, nampaknya sangat mungkin bahawa imej-imej deepfake akan segera muncul di medan perang juga.

“Hamas dan faksi-faksi Palestin yang lain telah menyebarkan imej-imej mengerikan daripada konflik lain seolah-olah mereka adalah mangsa-mangsa Palestin serangan Israel, jadi ini bukan sesuatu yang unik kepada teater operasi ini,” kata David May, pengurus penyelidikan di Yayasan untuk Pertahanan Demokrasi, kepada Digital.

Beliau menjelaskan bagaimana pada masa lalu, Hamas diketahui menakut-nakutkan wartawan agar tidak melaporkan penggunaan manusia sebagai perisai di enklaf Gaza, serta menyusun imej-imej kanak-kanak dan beruang teddy yang dikuburkan di bawah puing-puing.

“Hamas mengawal naratif di Jalur Gaza,” kata May, yang mengikuti aktiviti Hamas dengan rapat, sambil menambah bahawa “imej-imej AI akan memusatkan konflik Israel-Palestin yang sudah penuh dengan penyebaran berita palsu.”

Sudah ada laporan beberapa imej yang di-upload semula daripada konflik yang berbeza, dan minggu lepas, satu foto menyayat hati kanak-balita menangis merayau melalui puing-puing di Gaza terdedah sebagai ciptaan AI.

“Saya panggilnya berita palsu yang dipertingkatkan,” kata Dr. Tal Pavel, pengasas dan pengarah CyBureau, sebuah institut Israel berpusat pengajian dasar siber. “Kita sudah tahu istilah berita palsu, yang kebanyakan kesnya ialah kandungan visual atau tertulis yang dipermain-mainkan atau ditempatkan dalam konteks palsu. AI, atau deepfake, ialah apabila kita mengambil imej-imej itu dan membuatkan mereka hidup dalam klip video.”

Pavel menamakan munculnya imej visual deepfake AI “salah satu ancaman terbesar kepada demokrasi.”

“Ia bukan sahaja semasa peperangan tetapi juga semasa masa lain kerana semakin sukar untuk membuktikan apa yang benar atau tidak,” katanya.

Dalam kehidupan seharian, Pavel memberi nota, kes-kes salah maklumat deepfake sudah muncul ke permukaan. Beliau menyebut penggunaannya oleh kumpulan jenayah yang menjalankan penipuan dengan teknologi pengubahsuaian suara atau semasa kempen pilihan raya di mana video dan rakaman suara dipermain-mainkan untuk mengubah persepsi awam.

Dalam peperangan, beliau tambah, ia boleh menjadi lebih berbahaya.

“Ia ialah tanah perang baru dan kita hanya berada pada peringkat permulaan pelaksanaan,” kata Pavel. “Seseorang dengan sumber yang agak rendah boleh menggunakan AI untuk mencipta beberapa foto dan imej yang hebat.”

Teknik ini sudah digunakan dalam peperangan Rusia yang berterusan di Ukraine, kata Ivana Stradner, seorang lagi felo penyelidikan di Yayasan untuk Pertahanan Demokrasi yang mengkhusus dalam arena Ukraine-Rusia.

Pada Mac tahun lepas, satu video palsu dan sangat dipermain-mainkan Presiden Volodymyr Zelenskyy kelihatan menggesa askar-askarnya meletakkan senjata dan menyerah kalah kepada Rusia telah dimuat naik ke media sosial dan dikongsi oleh berita Ukraine. Sebaik sahaja ia ditemui palsu, video itu dengan cepat diambil turun.

“Video deepfake boleh jadi sangat realistik dan jika mereka dibuat dengan baik, maka sukar dikesan,” kata Stradner, sambil menambah bahawa aplikasi peniruan suara mudah didapati dan foto sebenar dengan mudah dicuri, diubah dan digunakan semula.

Di dalam Gaza, arena itu lagi sukar diterokai. Dengan hampir tiada wartawan berwibawa yang diketahui masih berada di Jalur itu – Hamas memusnahkan laluan manusia utama ke enklaf Palestin itu semasa serangannya pada 7 Oktober dan media asing tidak dapat memasuki – membezakan fakta daripada palsu sudah menjadi cabaran, dengan platform AI mudah guna yang boleh menjadi lebih sukar lagi.

Walau bagaimanapun, Dr. Yedid Hoshen, yang telah menyelidik deepfakes dan kaedah pengesanannya di Universiti Ibrani Jerusalem, berkata teknik sedemikian tidak sepenuhnya tidak boleh dikelirukan lagi.

“Mencipta imej itu sendiri tidak sukar, terdapat banyak teknik tersedia luar sana dan sesiapa yang cukup bijak boleh menjana imej atau video tetapi apabila kita bercakap tentang deepfakes, kita bercakap tentang wajah bercakap atau pertukaran muka,” katanya. “Jenis imej palsu ini lebih sukar dicipta dan untuk konflik seperti ini, mereka perlu dibuat dalam bahasa Ibrani atau Arab apabila kebanyakan teknologi masih hanya dalam bahasa Inggeris.”

Tambahan pula, kata Hoshen, masih terdapat tanda-tanda yang membezakan imej visual AI daripada yang sebenar.

“Masih agak sukar untuk menjadikan imej seiring dengan bunyi, yang mungkin tidak dikesan mata manusia tetapi boleh dikesan menggunakan teknik automatik,” katanya, sambil menambah “perincian kecil seperti tangan, jari atau rambut tidak sentiasa kelihatan realistik.”

“Jika imej kelihatan curiga maka ia mungkin palsu,” kata Hoshen. “Masih banyak yang AI salah faham.”