UK Government AI Safety Summit 2023 Day Two

(SeaPRwire) –   Pekerja di beberapa syarikat AI terkemuka di dunia bimbang tentang keselamatan kerja mereka dan insentif yang menggerakkan kepimpinan mereka, menurut laporan yang diterbitkan Isnin.

Laporan itu, yang dikomisen oleh Jabatan Negara dan ditulis oleh pekerja syarikat Gladstone AI, membuat beberapa cadangan bagaimana Amerika Syarikat harus bertindak balas terhadap apa yang didakwa sebagai risiko keselamatan negara yang signifikan yang dibawa oleh AI maju.

Penulis laporan berbual dengan lebih 200 pakar untuk laporan itu, termasuk pekerja di OpenAI, Google DeepMind, Meta dan Anthropic—makmal AI terkemuka yang semuanya bekerja ke arah “kecerdasan buatan umum”, teknologi hipotesis yang boleh melaksanakan kebanyakan tugas pada atau melebihi tahap manusia. Penulis berkongsi petikan kebimbangan yang dikongsi pekerja dari beberapa makmal ini secara peribadi dengan mereka tanpa menamakan individu atau syarikat khusus yang mereka bekerja. OpenAI, Google, Meta dan Anthropic tidak segera membalas permintaan untuk komen.

“Kami telah berkhidmat, melalui projek ini, sebagai penyaring kebimbangan bagi penyelidik terdepan yang tidak yakin bahawa laluan lalai organisasi mereka akan mengelakkan hasil buruk yang membinasakan,” kata Jeremie Harris, CEO Gladstone dan salah seorang penulis laporan itu kepada TIME.

Seorang individu di makmal AI tidak dinyatakan berkongsi kebimbangan dengan penulis laporan bahawa makmal itu mempunyai pendekatan yang “longgar terhadap keselamatan” yang timbul daripada keinginan untuk tidak melambatkan kerja makmal itu untuk membina sistem yang lebih kuat.

Yang lain menyatakan kebimbangan bahawa makmal mereka mempunyai langkah pengawalan yang tidak mencukupi untuk menghalang AGI daripada melarikan diri daripada kawalan mereka, walaupun makmal itu percaya AGI adalah kemungkinan jangka pendek.

Masih ada yang menyatakan kebimbangan tentang keselamatan siber. “Berdasarkan penilaian peribadi kebanyakan staf teknikal mereka, langkah keselamatan yang ada di kebanyakan makmal AI terdepan tidak mencukupi untuk menentang kempen ekstraksi IP yang berterusan oleh penyerang canggih,” kata laporan itu. “Berdasarkan keadaan semasa keselamatan makmal terdepan, ia kelihatan mungkin bahawa cubaan sedemikian untuk ekstrak model akan berjaya tanpa sokongan terus kerajaan AS, jika mereka belum berlaku.”

Ramai daripada orang yang berkongsi kebimbangan itu berbuat demikian sambil berjuang dengan pengiraan bahawa melaporkan secara terbuka mungkin menyebabkan mereka kehilangan keupayaan untuk mempengaruhi keputusan penting pada masa hadapan, kata Harris. “Tahap kebimbangan daripada sesetengah orang di makmal ini tentang proses membuat keputusan dan bagaimana insentif untuk pengurusan diterjemahkan ke dalam keputusan utama adalah sukar untuk dipertikaikan,” katanya kepada TIME. “Orang yang menjejak sisi risiko persoalan paling rapat, dan dalam banyak kes yang paling berpengetahuan, seringkali adalah mereka dengan tahap kebimbangan terbesar.”

Adakah anda pekerja di makmal AI dan mempunyai kebimbangan yang mungkin anda pertimbangkan berkongsi dengan wartawan? Anda boleh menghubungi penulis artikel ini di Signal di billyperrigo.01

Fakta bahawa sistem AI hari ini belum membawa kepada hasil membinasakan untuk manusia, penulis mengatakan, bukan bukti bahawa sistem lebih besar akan selamat pada masa hadapan. “Salah satu tema besar yang kami dengar daripada individu tepat di barisan hadapan, tentang perkara yang sedang dibangunkan di bawah tutup sekarang, adalah ia agak permainan roulet Rusia sesetengahnya,” kata Edouard Harris, ketua pegawai teknologi Gladstone yang juga menulis laporan bersama. “Lihat, kami menarik picu, dan hei, kami baik-baik saja, jadi mari kita tarik picu sekali lagi.”

Banyak kerajaan di seluruh dunia telah terjaga kepada risiko yang dibawa oleh sistem AI maju dalam 12 bulan kebelakangan ini. Pada November, UK menganjurkan Sidang Keselamatan AI di mana pemimpin dunia bersetuju untuk bekerja sama untuk menetapkan norma antarabangsa untuk teknologi itu, dan pada Oktober Presiden Biden mengeluarkan perintah eksekutif menetapkan piawaian keselamatan untuk makmal AI berpangkalan di AS. Walau bagaimanapun, Kongres masih belum meluluskan undang-undang AI, bermakna terdapat sedikit sekatan undang-undang ke atas apa yang boleh dan tidak boleh dilakukan makmal AI berhubung latihan model maju.

Perintah eksekutif Biden menyeru Institut Piawaian Kebangsaan untuk menetapkan “piawaian yang tegas” untuk ujian yang sistem AI harus lulus sebelum dikeluarkan ke awam. Tetapi laporan Gladstone mengesyorkan bahawa penyelia kerajaan tidak harus bergantung terlalu pada jenis penilaian AI ini, yang hari ini amalan biasa untuk menguji sama ada sistem AI mempunyai keupayaan atau tingkah laku membahayakan. Penilaian, laporan itu mengatakan, “boleh disesatkan dan dimanipulasi dengan mudah,” kerana model AI boleh disemak ringan oleh penciptanya untuk lulus penilaian jika soalan diketahui terlebih dahulu. Pentingnya ia lebih mudah bagi semakan ini hanya mengajar model untuk menyembunyikan tingkah laku membahayakan lebih baik, berbanding menghapuskan tingkah laku itu sepenuhnya.

Laporan itu menyatakan seorang pakar yang digambarkan mempunyai “pengetahuan terus” amalan satu makmal AI, yang menilai bahawa makmal tidak dinyatakan itu memainkan penilaian dengan cara ini. “Penilaian AI hanya boleh mendedahkan kehadiran, tetapi tidak mengesahkan ketiadaan, keupayaan membahayakan,” laporan itu mendakwa. “Terlalu bergantung kepada penilaian AI boleh menyebarkan rasa selamat palsu di kalangan pembangun AI [dan] penyelia.”

Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.

Sektor: Top Story, Berita Harian

SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.