(SeaPRwire) –   Menteri Biden mengumumkan bahawa beliau tidak akan bertanding sebagai calon bebas menyokong Presiden Joe Biden semasa pilihan raya kebangsaan negeri. Suara AI yang dijana telah menyamai irama dan frasa tandatangan yang khas – (“malarkey!”) – yang ciri untuk Biden. Daripada panggilan itu ke meramalkan kemusnahan di bawah pentadbiran Biden kepada deepfake AI yang membayangkan penipuan undi dan menaikkan harga bir, AI sedang meninggalkan kesan ke atas pilihan raya di seluruh dunia. Dalam latar belakang ini, kerajaan dan beberapa syarikat teknologi sedang mengambil beberapa langkah untuk mengurangkan risiko – ahli perundangan Eropah baru-baru ini meluluskan undang-undang yang menjadi tonggak, dan seawal bulan lalu syarikat teknologi menandatangani ikrar di Persidangan Keselamatan Munich. Tetapi lebih banyak perlu dilakukan untuk melindungi demokrasi Amerika.

Di Munich, syarikat termasuk OpenAI, Apple, Meta, Microsoft, TikTok, Google, X, dan lain-lain mengumumkan kompak untuk mengambil langkah-langkah melindungi pilihan raya ketika Amerika dan negara lain mengadakan pilihan raya pada tahun 2024. Syarikat-syarikat akan membantu penonton menjejak asal kandungan yang dijana AI dan asli, cuba mengesan media AI yang mengelirukan dalam pilihan raya, dan melaksanakan “langkah berjaga-jaga yang sewajarnya” untuk mengurangkan risiko dari tipu helah pilihan raya yang dibantu AI. Walaupun tidak tidak diingini, kejayaan kompak ini akan bergantung kepada bagaimana komitmen-komitmennya dilaksanakan. Ia dilambangkan dengan bahasa longgar – “tindak balas bersesuaian,” “di mana wajar dan secara teknikal boleh dilaksanakan,” “cuba untuk,” dan sebagainya – yang memberi ruang kepada syarikat untuk berbuat sangat sedikit jika mereka memilih untuk berbuat demikian.

Tahun ini merupakan pilihan raya kebangsaan Amerika pertama sejak pembangunan AI akan membenarkan penipu menghasilkan gambar, video atau audio palsu tetapi hampir sempurna daripada calon dan pegawai melakukan atau mengatakan apa sahaja dengan masa minimum, hampir tiada kos, dan dalam skala meluas. Dan teknologi di sebalik AI chatbot generatif membenarkan penipu menyamar laman web pilihan raya atau laman berita palsu dalam masa beberapa saat dan dalam skala besar. Ia juga memberi penjahat – asing dan domestik – keupayaan untuk menjalankan kempen pengaruh interaktif berskala besar yang sukar dilacak.

Apabila AI generatif diserap ke dalam enjin carian biasa dan pengundi berbual dengan chatbot, orang yang mencari maklumat asas tentang pilihan raya mempunyai kemungkinan berdepan dengan maklumat palsu, omong kosong tulen, atau pautan ke laman web pinggiran. Kajian terbaru oleh AI Democracy Projects dan Proof News menunjukkan bahawa alat AI popular – termasuk Google Gemini, OpenAI GPT-4, dan Meta Llama 2 – “memberikan jawapan yang tidak tepat” apabila diberi soalan tertentu tentang pilihan raya. AI tradisional, bukan generatif pula boleh menimbulkan cabaran besar-besaran kepada kelayakan pengundi beribu-ribu, membahayakan penyingkiran salah daripada daftar pengundi dan membebankan pejabat pilihan raya. Ketika pegawai pilihan raya mempertimbangkan menggunakan alat AI baharu dalam tugas harian mereka, ketiadaan peraturan bermakna meletakkan akses mengundi beberapa dalam bahaya walaupun AI membuka peluang menjimatkan masa untuk pejabat yang kekurangan staf.

Sebelum persidangan Munich, operasi AI generatif terkemuka di dunia, OpenAI, baru-baru ini mengumumkan dasar yang direka untuk mengurangkan kerosakan pilihan raya ketika Amerika mengundi pada tahun 2024. Ini termasuk melarang pengguna membina chatbot AI khas yang menyamar calon, melarang pengguna menggunakan alat OpenAI untuk menyebarkan kebohongan tentang bila dan bagaimana untuk mengundi, dan mengekodkan imej dengan kod digital yang akan membantu pemerhati menentukan sama ada OpenAI Dall-E membuat imej yang berkembang biak di luar sana.

Tetapi tindakan-tindakan ini – walaupun lebih kukuh daripada sesetengah syarikat AI utama yang lain setakat ini – jatuh lemah dalam beberapa aspek penting dan menggarisbawahi batasan apa yang mungkin kita lihat pada bulan-bulan akan datang apabila OpenAI dan syarikat teknologi gergasi lain membuat gestur untuk menghormati komitmen yang dibuat di Munich. Pertama: dasar awam syarikat itu tidak menyebut beberapa naratif dan gambaran inti yang telah menghantui kitaran pilihan raya sebelum ini dan kemungkinan akan dibangkitkan semula dalam bentuk baharu tahun ini. Sebagai contoh, ia tidak secara terang-terangan menamakan pemalsuan yang kononnya menunjukkan pegawai pilihan raya campur tangan dengan pengiraan undi, pembuatan palsu mesin mengundi yang tidak boleh dipercayai atau terjejas, atau dakwaan tidak berasas bahawa penipuan undi meluas telah berlaku. (Menurut Pusat Brennan, ini merupakan naratif palsu paling biasa yang dipromosikan oleh penafian pilihan raya dalam pilihan raya separuh penggal 2022.) Walaupun dasar OpenAI mungkin meliputi sebahagian atau kesemua kandungan sedemikian, menamakan kategori ini secara khusus sebagai terlarang daripada penciptaan dan penyebaran akan memberi lebih kejelasan kepada pengguna dan perlindungan kepada pengundi. Memandangkan prosedur pilihan raya – dan masalah kecil yang diselesaikan dengan cepat pada Hari Pilihan Raya – berbeza dari kaunti ke kaunti, syarikat itu harus mempunyai saluran untuk berkongsi maklumat antara pegawai pilihan raya tempatan dan kakitangan OpenAI pada bulan-bulan menjelang pilihan raya.

Mungkin yang paling penting, syarikat teknologi perlu berbuat lebih untuk mengurangkan risiko bekerja dengan pembangun pihak ketiga – iaitu syarikat-syarikat yang menggunakan . Sebagai contoh, jika pengguna memasukkan soalan asas pilihan raya ke dalam enjin carian pihak ketiga yang menggunakan model OpenAI, jawapan mungkin mengandungi kesilapan, fakta lama dan kesilapan lain. (Laporan WIRED pada Disember lalu tentang Microsoft Copilot mendedahkan beberapa isu dengan enjin carian – yang menggunakan teknologi OpenAI – walaupun beberapa masalah itu mungkin telah diselesaikan sejak itu.) Untuk lebih melindungi pengundi musim pilihan raya ini, syarikat itu perlu mencipta dan menguatkuasakan keperluan yang lebih ketat untuk perkongsian dengan pembangun yang mengintegrasikan model OpenAI ke dalam enjin carian – atau mana-mana platform digital di mana pengundi mungkin pergi untuk mencari maklumat asas tentang ABC undian dan pilihan raya. Walaupun persetujuan yang ditandatangani di Munich ditujukan kepada kandungan yang sengaja mengelirukan, pengundi juga boleh terjejas oleh “khayalan” AI – pembuatan yang dikeluarkan oleh algoritma sistem – atau kesilapan lain yang pencipta AI dan pembekal perkhidmatan gagal cegah.

Tetapi, OpenAI tidak boleh berdiri sendiri. Syarikat teknologi gergasi lain perlu melepaskan dasar pilihan raya mereka sendiri untuk alat AI generatif, menyingkap sebarang penyuntingan di belakang tabir dan membuka amalan dalaman kepada pemeriksaan dan pengetahuan awam. Sebagai langkah pertama, syarikat teknologi utama termasuk Apple, ByteDance, Samsung dan X harus menandatangani piawaian terbuka untuk menyemat kandungan dengan penanda digital yang membantu membuktikan sama ada ia dijana AI atau asli ketika bergerak melalui ether dalam talian. (Walaupun Apple dan X berkomitmen untuk mempertimbangkan menyemat isyarat serupa kepada kandungan mereka di Munich, piawaian konsisten akan meningkatkan pengesanan dan koordinasi secara menyeluruh.) Penanda pula harus dipermudahkan untuk dikeluarkan. Dan syarikat media sosial perlu bertindak dengan segera untuk menangani deepfake dan akaun bot yang meniru aktiviti manusia, serta melaksanakan proses pengesahan akaun yang bermakna untuk pegawai pilihan raya dan organisasi berita bona fide untuk membantu pengundi mencari maklumat tepat dalam aliran penuh dengan maklumat palsu, orang yang menyamar, dan akaun yang berpura-pura sebagai berita sebenar.

Langkah-langkah salah satu syarikat – atau beberapa syarikat – untuk menangani kerosakan pilihan raya, walaupun penting, tidak cukup dalam landskap yang tenggelam dengan model AI terbuka sumber yang tidak dijamin di mana kod asas sistem dan tersedia untuk dimuat turun, dimuat turun dan dipelihara. Syarikat terkemuka seperti Meta dan Stability AI telah melepaskan sistem AI tidak selamat, dan pemain lain telah dengan pantas mengeluarkan banyak lagi. Seseorang yang ingin campur tangan dalam pilihan raya hari ini mempunyai pakej teknologi AI untuk memilih untuk memperkuat usaha mereka, dan pelbagai cara untuk melaksikkannya. Ini bermakna kerajaan peringkat semua peringkat juga perlu mengambil tindakan segera untuk melindungi pengundi.

Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.

Sektor: Top Story, Berita Harian

SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain. 

Kongres, agensi, dan negeri-negeri mempunyai pelbagai pilihan tangan untuk melemahkan risiko AI sebelum pilihan raya 2024. Kongres dan negeri-negeri harus mengawal selia deepfake – terutamanya yang disebarkan oleh kempen, tindakan politik dan pengaruh berbayar – dengan memerlukan penafian pada klip imej, video dan audio yang dipelihara secara digital yang boleh menindas undi, atau yang salah mewakili perkataan dan tindakan calon dan pegawai pilihan raya. Ahli perundangan juga harus memerlukan kempen dan tindakan politik untuk dengan jelas melabelkan sebahagian kandungan yang dihasilkan oleh teknologi di sebalik chatbot AI generatif, terutamanya di mana politikus menggunakan teknologi untuk terlibat dalam perbualan berterusan.