(SeaPRwire) –   Kerajaan Amerika Syarikat perlu bergerak “dengan cepat dan tegas” untuk mengelakkan risiko keselamatan negara yang besar yang timbul daripada kecerdasan buatan (AI) yang boleh, dalam kes terburuk, menyebabkan “ancaman kepupusan kepada spesies manusia,” menurut laporan yang dikomisen oleh kerajaan Amerika Syarikat yang diterbitkan pada Isnin.

“Pembangunan AI sempadan semasa membawa risiko segera dan semakin meningkat kepada keselamatan negara,” kata laporan itu, yang TIME peroleh sebelum penerbitannya. “Kemunculan AI maju dan AGI [kecerdasan umum buatan] berpotensi untuk mengganggu keselamatan global dengan cara yang mengingatkan pengenalan senjata nuklear.” AGI adalah teknologi hipotesis yang boleh melaksanakan kebanyakan tugas pada atau melebihi tahap manusia. Sistem sedemikian tidak wujud sekarang, tetapi makmal AI terkemuka sedang bekerja ke arahnya dan dijangka dalam tempoh lima tahun ke bawah.

Tiga penulis laporan bekerja pada laporan itu selama lebih setahun, berbual dengan lebih 200 pekerja kerajaan, pakar, dan pekerja di syarikat AI sempadan – seperti , , dan – sebagai sebahagian daripada penyelidikan mereka. Perbualan daripada beberapa orang itu , mencadangkan bahawa ramai pekerja keselamatan AI di dalam makmal terkemuka bimbang tentang insentif perseorangan yang menggerakkan pengambilan keputusan oleh eksekutif yang mengawal syarikat mereka.

Dokumen siap, bertajuk “Rancangan Tindakan untuk Meningkatkan Keselamatan dan Keselamatan AI Lanjutan,” mengesyorkan satu set tindakan dasar yang luas dan belum pernah berlaku sebelum ini yang jika dilaksanakan, akan mengganggu industri AI secara radikal. Kongres harus membuatnya haram, laporan itu mengesyorkan, untuk melatih model AI menggunakan lebih daripada tahap tertentu kuasa pengkomputeran. Ambang, laporan itu mengesyorkan, harus ditetapkan oleh agensi AI persekutuan baru, walaupun laporan itu mencadangkan agensi itu boleh menetapkan ia sedikit di atas tahap kuasa pengkomputeran yang digunakan untuk melatih model terkini seperti GPT-4 TerbukaAI dan Gemini Google. Agensi AI baru itu harus memerlukan syarikat AI di “sempadan” industri untuk memperoleh kebenaran kerajaan untuk melatih dan melaksanakan model baru di atas ambang yang lebih rendah, laporan itu menambah. Pihak berkuasa juga harus “dengan segera” mempertimbangkan melarang penerbitan “berat,” atau kerja dalaman, model AI yang kuat, contohnya di bawah lesen sumber terbuka, dengan pelanggaran mungkin dihukum dengan penjara, laporan itu mengatakan. Dan kerajaan harus mengetatkan kawalan lagi terhadap pengeluaran dan eksport cip AI, dan menyalurkan pembiayaan persekutuan ke arah penyelidikan “penyelarasan” yang menuntut untuk membuat AI maju lebih selamat, ia mengesyorkan.

Laporan itu dikomisen oleh Jabatan Negara pada November 2022 sebagai sebahagian daripada kontrak persekutuan bernilai $250,000, menurut rekod awam. Ia ditulis oleh Gladstone AI, syarikat empat orang yang mengendalikan taklimat teknikal kepada pekerja kerajaan tentang AI. (Bahagian rancangan tindakan mengesyorkan bahawa kerajaan melabur dengan berat ke dalam pendidikan pegawai tentang asas teknikal sistem AI supaya mereka dapat lebih memahami risikonya.) Laporan itu diserahkan sebagai dokumen 247 muka surat kepada Jabatan Negara pada 26 Februari. Jabatan Negara tidak menjawab beberapa permintaan untuk mengulas laporan itu. Pengesyoran “tidak mencerminkan pandangan Jabatan Negara Amerika Syarikat atau Kerajaan Amerika Syarikat,” kata halaman pertama laporan itu.

Pengesyoran laporan itu, banyak daripadanya sebelum ini tidak terfikir, mengikuti siri perkembangan utama dalam AI yang menyebabkan banyak pemerhati menilai semula pendirian mereka terhadap teknologi itu. Chatbot ChatGPT, dilancarkan pada November 2022, merupakan kali pertama kadar perubahan ini menjadi kelihatan kepada masyarakat umum, membawa banyak orang mempersoalkan sama ada AI masa depan mungkin membawa risiko kepupusan kepada manusia. Alat baharu, dengan lebih keupayaan, terus dilancarkan pada kadar cepat sejak itu. Ketika kerajaan di seluruh dunia membincangkan cara terbaik untuk mengawalselia AI, syarikat teknologi terbesar di dunia telah dengan cepat membina infrastruktur untuk melatih generasi AI berikutnya yang lebih kuat – dalam beberapa kes merancang untuk menggunakan 10 atau 100 kali lebih kuasa pengkomputeran.

Melarang latihan sistem AI maju di atas ambang tertentu, laporan itu menyatakan, mungkin “memoderasi dinamik perlumbaan antara semua pembangun AI” dan menyumbang kepada pengurangan kelajuan industri cip menghasilkan perkakasan lebih pantas. Dari masa ke masa, agensi AI persekutuan boleh menaikkan ambang dan membenarkan latihan sistem AI lebih maju sebaik sahaja bukti keselamatan model terkini cukup terbukti, laporan itu mencadangkan. Sama juga, ia mengatakan, kerajaan boleh menurunkan ambang keselamatan jika keupayaan berbahaya ditemui dalam model sedia ada.

Cadangan itu kemungkinan besar akan menghadapi kesukaran politik. “Saya fikir bahawa pengesyoran ini sangat tidak mungkin diterima oleh kerajaan Amerika Syarikat” kata Greg Allen, pengarah Pusat Wadhwani untuk AI dan Teknologi Lanjutan di Pusat Kajian Strategik dan Antarabangsa (CSIS), membalas ringkasan TIME mengenai pengesyoran laporan itu untuk melarang latihan AI di atas ambang tertentu. Dasar AI kerajaan AS semasa, beliau menunjukkan, adalah untuk menetapkan ambang pengkomputeran di atas mana keperluan pemantauan dan keperluan peraturan tambahan terpakai, tetapi bukan untuk menetapkan had atas mana latihan akan menjadi haram. “Tanpa sebarang kejutan luaran, saya fikir mereka sangat tidak mungkin mengubah pendekatan itu,” kata Allen.


Jeremie dan Edouard Harris, CEO dan CTO Gladstone masing-masing, telah memberi taklimat kepada kerajaan AS tentang risiko AI sejak 2021. Adik-beradik itu, yang merupakan adik-beradik, berkata bahawa pegawai kerajaan yang menghadiri banyak taklimat awal mereka bersetuju bahawa risiko AI adalah besar, tetapi memberitahu mereka bahawa tanggungjawab untuk menangani mereka jatuh kepada pasukan atau jabatan yang berbeza. Pada akhir 2021, Harrises berkata, mereka akhirnya mencari lengan kerajaan dengan tanggungjawab untuk menangani risiko AI: Jabatan Negara Biro Keselamatan dan Anti-Penyebaran Antarabangsa. Pasukan dalam Biro itu mempunyai mandat antara agensi untuk menangani risiko daripada teknologi muncul termasuk senjata kimia dan biologi, dan risiko radiologi dan nuklear. Berikutan taklimat oleh Gladstone, pada Oktober 2022 Biro itu keluarkan tender untuk laporan yang boleh memberi maklumat keputusan sama ada untuk menambah AI ke senarai risiko lain yang dipantau. (Jabatan Negara tidak menjawab permintaan untuk komen mengenai hasil keputusan itu.) Pasukan Gladstone menang tender itu, dan laporan yang dikeluarkan Isnin adalah hasilnya.

Laporan itu memberi tumpuan kepada dua kategori risiko berasingan. Menggambarkan kategori pertama, yang dipanggilnya “risiko senjata,” laporan itu menyatakan: “sistem sedemikian boleh digunakan untuk mereka dan bahkan melaksanakan serangan biologi, kimia atau siber yang membinasakan, atau membolehkan aplikasi senjata yang belum pernah berlaku dalam robotik bergerombol.” Kategori kedua adalah apa yang dipanggil laporan itu sebagai “risiko kehilangan kawalan,” atau kemungkinan bahawa sistem AI maju mungkin melarikan diri daripada penciptanya. Terdapat, laporan itu mengatakan, “sebab untuk percaya bahawa mereka mungkin tidak dapat dikawal jika mereka dibangunkan menggunakan teknik semasa, dan boleh bertindak secara bermusuhan terhadap manusia secara lalai.”

Kedua-dua kategori risiko, laporan itu mengatakan, diperburuk oleh “dinamik perlumbaan” dalam industri AI. Kemungkinan bahawa syarikat pertama yang mencapai AGI akan memetik kebanyakan ganjaran ekonomi, laporan itu mengatakan, memberi insentif kepada syarikat untuk memberi keutamaan kepada kelajuan berbanding keselamatan. “Makmal AI sempadan berhadapan dengan insentif segera dan langsung untuk mengukur sistem AI mereka secepat mungkin,” kata laporan itu. “Mereka tidak berhadapan dengan insentif segera untuk melabur dalam langkah keselamatan atau keselamatan yang tidak memberikan manfaat ekonomi langsung, walaupun beberapa melakukannya kerana keprihatinan tulus.”

Laporan Gladstone mengenal pasti perkakasan – khususnya cip komputer prestasi tinggi yang biasa digunakan untuk melatih sistem AI – sebagai halangan ketara kepada peningkatan keupayaan AI. Menyekat penyebaran perkakasan ini, laporan itu mendakwa, mungkin menjadi “keperluan paling penting untuk melindungi keselamatan global jangka panjang”.

Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.

Sektor: Top Story, Berita Harian

SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.