(SeaPRwire) – Ed Newton-Rex meletak jawatan secara terbuka daripada jawatan eksekutifnya di syarikat AI terkemuka tahun lalu, berikutan pertikaian dengan bosnya mengenai pendekatan mereka terhadap hakcipta.
Stability AI, pembuat model generasi imej AI popular Stable Diffusion, telah melatih model tersebut dengan memberi makan jutaan gambar yang telah “dijerat” dari internet, tanpa keizinan penciptanya. Seperti kebanyakan syarikat AI terkemuka yang lain, Stability telah mendakwa bahawa teknik ini tidak melanggar undang-undang hakcipta kerana ia merupakan satu bentuk “penggunaan adil” kerja berhakcipta.
Newton-Rex, ketua pasukan audio Stability, tidak bersetuju. “Syarikat bernilai berbilion dolar sedang melatih model generatif AI secara tanpa keizinan pada karya pencipta, yang kemudian digunakan untuk mencipta kandungan baru yang dalam banyak kes boleh bersaing dengan karya asal. Saya tidak nampak bagaimana ini boleh diterima dalam masyarakat yang telah menetapkan ekonomi seni kreatif supaya pencipta bergantung kepada hakcipta,” tulisnya dalam pengumuman peletakan jawatan di X, platform yang dahulunya dikenali sebagai Twitter pada November.
Ia merupakan salah satu serangan pertama dalam pertempuran yang kini memerangi penggunaan karya berhakcipta untuk melatih sistem AI. Pada Disember, New York Times OpenAI di mahkamah daerah Manhattan, mendakwa pencipta ChatGPT telah secara haram menggunakan jutaan rencana akhbar tersebut untuk melatih sistem AI yang bertujuan untuk bersaing dengan Times sebagai sumber maklumat yang boleh dipercayai. Sementara itu, pada Julai 2023, pelawak Sarah Silverman dan penulis lain OpenAI dan Meta, menuduh syarikat-syarikat tersebut menggunakan tulisan mereka untuk melatih model AI tanpa keizinan mereka. Awal tahun itu, artis , Sarah Andersen, dan Karla Orti menuntut Midjourney, Stability AI, dan DeviantArt, yang membangunkan model generatif imej AI, mendakwa syarikat-syarikat tersebut melatih model AI mereka pada karya artis tanpa keizinan. Beberapa artis visual juga melawan dengan menggunakan yang menawarkan untuk “meracuni” model AI dilatih tanpa persetujuan mereka, menyebabkan model tersebut rosak dengan cara yang tidak dapat diramalkan atau menentang cubaan untuk menyalin gaya seni mereka.
OpenAI telah menyatakan bahawa ia percaya saman New York Times terhadapnya “tidak berasas,” tambah bahawa walaupun ia percaya melatih data yang dijerat dari internet adalah , ia menyediakan penerbit pilihan untuk tidak terlibat “kerana ia perkara yang betul untuk dilakukan.” Stability AI tidak segera menjawab permintaan untuk komen.
Pada 17 Januari, Newton-Rex mengumumkan usaha baru untuk memberi insentif kepada syarikat AI untuk menghormati pencipta. Beliau melancarkan pertubuhan bukan untung, dipanggil ‘Fairly Trained’, yang menawarkan pensijilan kepada syarikat AI yang melatih model mereka hanya pada data yang penciptanya telah memberi persetujuan. Meninggikan syarikat-syarikat dengan amalan yang lebih baik berkenaan sumber data latihan mereka, beliau berharap, akan memberi insentif kepada seluruh ekosistem untuk melayani pencipta dengan lebih adil. “Terdapat aspek etika sebenar dalam industri ini, dan tujuan pensijilan ini adalah untuk menonjolkan itu,” kata Newton-Rex kepada TIME.
Sembilan model telah disahkan oleh Fairly Trained untuk bertepatan dengan pelancarannya—kebanyakannya dibuat oleh syarikat AI dalam bidang penciptaan bunyi. Ia termasuk model oleh , sebuah syarikat “kesejahteraan bunyi” yang bekerjasama dengan artis termasuk Grimes dan James Blake. Pensijilan itu menunjukkan bahawa syarikat-syarikat tersebut telah secara sah melisensi data yang model mereka dilatih, dan bukannya sekadar mendakwa penggunaan adil.
Selain bekerja dalam AI, Newton-Rex juga seorang penggubah klasikal yang menulis muzik koral. Beliau menyatakan amalannya sebagai seorang artis memberi motivasi untuk berdiri bagi pencipta. “Ini sentiasa menjadi isu yang sangat rapat dengan hati saya, dan saya pasti itu datang sebahagian besar daripada saya menjadi seorang pemuzik sendiri,” katanya. “Sukar untuk tahu bagaimana rasanya menjadi seorang pencipta sehingga anda benar-benar melalui proses menuangkan kerja anda ke dalam sesuatu dan melihatnya keluar ke dunia.” Kebencian melihat hanya cek royalti yang sedikit datang untuk seni beliau, sementara syarikat AI menjana berbilion dolar, beliau percaya, adalah perasaan yang umum di kalangan artis semua genre. “Saya telah menuangkan banyak kerja ke dalam ini dan ini balasan saya. Adakah saya mahu [kerja saya] digunakan tanpa bayaran lanjut oleh syarikat untuk membangunkan model mereka sendiri yang mereka untungkan daripadanya?”
Beliau teruskan: “Banyak pencipta, termasuk saya sendiri, akan berkata tidak kepada itu. [Tetapi] jika ada peluang untuk memberi persetujuan dan peluang untuk berbincang mengenai terma, dan peluang untuk akhirnya mendapatkan sebahagian wang, itu boleh menjadi sesuatu yang baik.”
Fairly Trained tidak meminta syarikat-syarikat yang memohon pensijilan untuk berkongsi set data mereka untuk diaudit. Sebaliknya, ia meminta syarikat-syarikat untuk mengisi sumbangan tertulis yang terperinci mengenai apa yang termasuk dalam set data mereka dan dari mana datanya berasal, proses kebertanggungjawapan yang mereka ada, dan sama ada mereka menyimpan rekod yang baik, menurut Newton-Rex. “Jelas terdapat unsur kepercayaan di sini,” katanya. “Perbualan perlu diadakan mengenai itu, dan sama ada lebih diperlukan. Tetapi perasaan saya ialah… setidak-tidaknya pada permulaan, sebenarnya sistem berasaskan kepercayaan berfungsi. Dan syarikat-syarikat akan diberi insentif untuk tidak memberi maklumat yang tidak tepat, terutamanya kerana itu boleh menyebabkan pensijilan dibatalkan pada masa hadapan.” Kebanyakan syarikat yang mendakwa pengecualian penggunaan adil, tambahnya, “sangat terbuka” dalam pandangan mereka bahawa mereka berhak mengikuti strategi itu.
Namun, mengambil kata syarikat mengenai kandungan dan asal-usul set data mereka adalah pendekatan dengan lubang jelas. “Kami perlu benar-benar melihat set data ini sendiri untuk mengesahkan sama ada mereka masih mengandungi kandungan yang problematik,” kata , seorang sarjana yang mengkaji kandungan set data besar yang digunakan untuk melatih sistem AI. “Sungguh sukar untuk mengatakan sama ada ia mencukupi atau tidak, tanpa melihat set data itu sendiri.”
Kebanyakan syarikat AI terbesar dunia, termasuk OpenAI, Google DeepMind, Meta, dan Anthropic, tidak mendedahkan kandungan atau bahkan banyak butiran mengenai set data yang digunakan untuk melatih model terbesar mereka. Ini sering menjadi halangan bagi pencipta yang cuba mengetahui sama ada data mereka telah digunakan untuk melatih model tanpa keizinan mereka.
OpenAI telah menandatangani perjanjian dengan beberapa akhbar berita, termasuk Associated Press dan Axel Springer, untuk melisensi rencana berita bagi penggunaan sebagai data latihan. Ia sedang dalam perbincangan lanjut dengan beberapa yang lain, termasuk CNN, Fox, dan TIME.
Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.
Sektor: Top Story, Berita Harian
SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.