(SeaPRwire) –   Helo dan selamat datang ke Eye on AI. Dalam edisi ini…mengapa anda sepatutnya bimbang tentang Moltbook…OpenAI merancang IPO…Elon Musk menggabungkan SpaceX dan xAI…Novis tidak mendapat manfaat sebanyak yang difikirkan orang daripada AI…dan mengapa kita memerlukan peraturan AI sekarang.

Minggu ini, semua orang dalam AI—dan ramai orang di luarnya—sedang bercakap tentang Moltbook. Platform media sosial yang dicipta untuk agen AI itu menjadi sensasi viral. Fenomena itu membuatkan ramai orang, malah sebilangan penyelidik AI yang biasanya waras dan berpijak di bumi, tertanya-tanya dengan kuat sejauh mana kita berada dari senario “pelancaran” fiksyen sains di mana bot AI mengatur diri sendiri, menambah baik diri sendiri, dan melepaskan diri daripada kawalan manusia.

Kini, nampaknya banyak penggera tentang Moltbook adalah tersilap tempat. Pertama sekali, tidak jelas berapa banyak kiriman yang paling mirip fiksyen sains di Moltbook dijana secara spontan oleh bot dan berapa banyak yang hanya wujud kerana pengguna manusia mendorong agen OpenClaw mereka untuk mengeluarkannya. (Bot di Moltbook semuanya dicipta menggunakan OpenClaw yang popular, yang pada asasnya adalah “tali kekang” agenik sumber terbuka—perisian yang membolehkan agen AI menggunakan banyak alat perisian lain—yang boleh dipasang pada mana-mana model AI asas.) Malah mungkin ada kiriman yang sebenarnya daripada manusia yang menyamar sebagai bot.

Kedua, tiada bukti bahawa bot-bot itu sebenarnya merancang bersama untuk melakukan apa-apa yang jahat, sebaliknya hanya meniru bahasa tentang perancangan yang mungkin mereka perolehi semasa latihan, yang merangkumi banyak sastera fiksyen sains serta rekod sejarah banyak aktiviti manusia yang mencurigakan di media sosial.

Seperti yang saya nyatakan dalam , banyak tajuk utama yang menimbulkan ketakutan di sekitar Moltbook menggema tajuk-tajuk yang menyertai eksperimen Facebook pada 2017 di mana dua chatbot membina “bahasa rahsia” untuk berkomunikasi antara satu sama lain. Ketika itu, seperti sekarang, ramai rakan sejawat wartawan saya tidak membenarkan fakta menghalang cerita yang menarik. Baik penyelidikan Facebook yang lebih lama itu mahupun Moltbook tidak mempersembahkan jenis bahaya seperti Skynet yang dicadangkan oleh beberapa liputan.

Sekarang untuk berita buruk

Tapi di situlah lebih kurang berita baiknya berakhir. Moltbook menunjukkan bahawa apabila berkaitan dengan agen AI, kita berada dalam Wild Wild West. Seperti yang dinyatakan oleh rakan sekerja saya Bea Nolan , Moltbook adalah mimpi ngeri keselamatan siber, penuh dengan perisian hasad, penipuan pam dan lambung kriptowang, dan serangan suntikan prompt tersembunyi—iaitu arahan yang boleh dibaca mesin, kadangkala tidak mudah dikesan oleh manusia, yang cuba merampas agen AI untuk melakukan sesuatu yang tidak sepatutnya dilakukannya. Menurut penyelidik keselamatan, nampaknya beberapa pengguna OpenClaw mengalami pelanggaran data yang ketara setelah membenarkan agen AI mereka masuk ke Moltbook.

Suntikan prompt adalah cabaran keselamatan siber yang belum diselesaikan untuk semua agen AI yang boleh mengakses internet pada masa ini. Dan itulah sebabnya ramai pakar AI berkata mereka sangat berhati-hati tentang perisian, alat, dan data apa yang mereka benarkan agen AI akses. Ada yang hanya membenarkan agen mengakses internet jika mereka berada dalam mesin maya di mana mereka tidak boleh mendapatkan akses kepada maklumat penting, seperti kata laluan, fail kerja, e-mel, atau maklumat perbankan. Tetapi sebaliknya, langkah berjaga-jaga keselamatan ini menjadikan agen AI kurang berguna. Sebab sebenar OpenClaw menjadi popular adalah kerana orang mahukan cara mudah untuk mencipta agen melakukan sesuatu untuk mereka.

Kemudian ada implikasi keselamatan AI yang besar. Hanya kerana tiada bukti bahawa agen OpenClaw mempunyai sebarang kehendak bebas, tidak bermakna meletakkan mereka dalam perbualan tidak terkawal dengan agen AI lain adalah idea yang baik. Sebaik sahaja agen ini mempunyai akses kepada alat dan internet, dalam beberapa aspek tidak kisahlah sama ada mereka mempunyai pemahaman tentang tindakan mereka sendiri atau sedar. Hanya dengan meniru senario fiksyen sains yang mereka telan semasa latihan, adalah mungkin agen AI boleh terlibat dalam aktiviti yang boleh menyebabkan kemudaratan sebenar kepada ramai orang—melibatkan diri dalam serangan siber, misalnya. (Pada dasarnya, agen AI ini boleh berfungsi dengan cara yang tidak begitu berbeza dengan virus komputer “cacing” yang sangat berkuasa. Tiada siapa yang fikir ransomware WannaCry itu sedar. Ia tetap melakukan kerosakan besar di seluruh dunia.)

Mengapa Yann LeCun salah…tentang manusia, bukan AI

Beberapa tahun lalu, saya menghadiri satu acara di Facebook AI Research Lab di Paris di mana Yann LeCun, yang merupakan ketua saintis AI Meta pada masa itu, berucap. LeCun, yang baru-baru ini meninggalkan Meta untuk melancarkan startup AI sendiri, sentiasa skeptikal dengan senario “pelancaran” di mana AI melepaskan diri daripada kawalan manusia. Dan pada acara itu, dia mempersenda idea bahawa AI akan pernah membentangkan risiko kewujudan.

Pertama sekali, LeCun berpendapat AI hari ini terlalu bodoh dan tidak boleh dipercayai untuk melakukan apa-apa yang membahayakan dunia. Tetapi kedua, LeCun mendapati senario “pelancaran” AI ini menghina penyelidik dan jurutera AI sebagai kelas profesional. Kami bukan bodoh, LeCun berhujah. Jika kami pernah membina apa-apa di mana terdapat peluang yang paling kecil untuk AI melepaskan kawalan manusia, kami akan sentiasa membinanya dalam kotak pasir “berpengudaraan”, tanpa akses kepada internet, dan dengan suis mati yang tidak boleh dinyahaktifkan oleh AI. Menurut LeCun, jurutera akan sentiasa boleh mengambil kapak kepada kord kuasa komputer sebelum AI dapat memikirkan cara untuk keluar dari sangkar digitalnya.

Baiklah, itu mungkin benar untuk penyelidik dan jurutera AI yang bekerja untuk syarikat besar, seperti Meta, atau OpenAI atau Anthropic juga. Tetapi kini AI—disebabkan kebangkitan ejen dan pembantu pengekodan—telah mendemokrasikan penciptaan AI itu sendiri. Kini dunia penuh dengan pembangun bebas boleh mencipta agen AI. Peter Steinberger yang mencipta OpenClaw adalah pembangun bebas. , yang mencipta Moltbook, adalah usahawan bebas yang mengekod platform sosial itu berdasarkan suasana. Dan, bertentangan dengan LeCun, pembangun bebas secara konsisten telah menunjukkan kesanggupan untuk membuang sistem AI keluar dari kotak pasir dan ke dalam alam liar, hanya untuk melihat apa yang berlaku…hanya untuk ketawa.

Dengan itu, ini adalah lebih banyak berita AI.

Jeremy Kahn

@jeremyakahn

Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.

Sektor: Top Story, Berita Harian

SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.