(SeaPRwire) –   Ketua Pegawai Eksekutif lima syarikat media sosial termasuk Meta, TikTok dan X (dahulunya Twitter) ditanya oleh Senator pada Rabu tentang bagaimana mereka mencegah penyalahgunaan kanak-kanak dalam talian.

Jawatankuasa Kehakiman Senat mengadakan mesyuarat untuk memegang pihak berkuasa syarikat bertanggungjawab atas apa yang dikatakan kegagalan untuk mencegah penyalahgunaan kanak-kanak, dan meminta sama ada mereka akan menyokong undang-undang yang dicadangkan oleh ahli jawatankuasa untuk menangani masalah ini.

Ia adalah isu yang semakin buruk, menurut Pusat Kebangsaan untuk Kanak-kanak Hilang dan Dieksploitasi, yang menyatakan laporan bahan penyalahgunaan seks kanak-kanak (CSAM) mencapai rekod tertinggi tahun lepas dengan lebih daripada 36 juta, seperti dilaporkan oleh . Laluan Siber Kebangsaan untuk Laporan CSAM, sistem berpusat di AS untuk melaporkan CSAM dalam talian, diberitahu tentang pada 2022, dengan hampir 90% laporan datang dari luar negara.

Mark Zuckerberg dari Meta, Shou Chew dari TikTok, dan Linda Yaccarino dari X hadir bersama Jason Spiegel dari Snap dan Jason Citron dari Discord untuk menjawab soalan dari Jawatankuasa Kehakiman Senat. Walaupun Zuckerberg dan Chew hadir secara sukarela, Jawatankuasa perlu memberi perkhidmatan Spiegel, Citron, dan Yaccarino .

Senator Richard Durbin, seorang Demokrat dari Illinois dan pengerusi Jawatankuasa, membuka mesyuarat dengan video menunjukkan mangsa penyalahgunaan seks kanak-kanak dalam talian, termasuk keluarga kanak-kanak yang meninggal dunia akibat bunuh diri selepas ditargetkan oleh pesalah dalam talian.

Senator Lindsey Graham, seorang Republikan dari Carolina Selatan dan ahli berpengaruh, memberitahu hadirin tentang , anak lelaki berusia 17 tahun kepada Ahli Dewan Negeri Carolina Selatan Rep. Brandon Guffey, yang meninggal dunia akibat bunuh diri tahun lepas selepas dieksploitasi secara seksual di Instagram. “Anda mempunyai darah di tangan anda,” kata Graham kepada ketua pegawai eksekutif, terutamanya menyasarkan Zuckerberg.

Kebanyakan ahli parlimen menyatakan kekecewaan mereka dengan usaha yang dikatakan tidak mencukupi oleh syarikat media sosial untuk menangani masalah ini dan mengesahkan keinginan mereka sendiri untuk bertindak. Dalam tahun lepas, selain mengadakan beberapa mesyuarat, Jawatankuasa Kehakiman telah beberapa rang undang-undang bertujuan melindungi kanak-kanak dalam talian ke lantai Senat, termasuk yang akan mengeluarkan syarikat teknologi daripada tanggungjawab sivil dan jenayah di bawah undang-undang bahan penyalahgunaan seks kanak-kanak.

Dalam keterangan mereka, ketua pegawai eksekutif semua menyatakan langkah-langkah yang diambil untuk mencegah kesan buruk terhadap kanak-kanak dalam talian. Walau bagaimanapun, apabila dipaksa sama ada mereka akan menyokong rang undang-undang dilaporkan oleh Jawatankuasa Kehakiman, kebanyakan mereka mengelak.

Pada satu ketika, Senator Josh Hawley, seorang Republikan dari Missouri, meminta Zuckerberg sama ada beliau ingin meminta maaf kepada ibu bapa kanak-kanak yang terlibat yang hadir di mesyuarat itu. “Saya minta maaf atas segala yang telah anda semua alami,” kata Zuckerberg. “Ia sangat menyedihkan. Tiada seorang pun yang sepatutnya mengalami perkara yang telah menimpa keluarga anda.”

Pada beberapa kesempatan, ketua pegawai eksekutif menekankan penggunaan kecerdasan buatan syarikat mereka untuk menangani isu CSAM dalam talian. Dalam keterangannya, Citron menekankan penggunaan Sentropy oleh Discord, syarikat yang membangunkan penyelesaian moderasi kandungan berasaskan AI. Zuckerberg berkata 99% kandungan Meta menghapuskan dikesan secara automatik menggunakan alat AI. Walau bagaimanapun, para pembuat undang-undang dan ketua pegawai eksekutif tidak membincangkan peranan yang dimainkan oleh AI dalam penyebaran CSAM.

Imej penyalahgunaan kanak-kanak yang dijana AI

Kemunculan kecerdasan buatan generatif menambah kebimbangan tentang kesan buruk terhadap kanak-kanak dalam talian. Pihak berkuasa di seluruh dunia sedang bergegas untuk menangani serbuan kes yang melibatkan bahan penyalahgunaan seks kanak-kanak yang dijana AI—fenomena tanpa precedent sebelum kebanyakan mahkamah.

Pada , pelakon wanita berusia 17 tahun Xochitl Gomez, yang memegang watak superhero remaja Amerika Chavez dalam filem 2022 Doctor Strange in the Multiverse of Madness, berbicara tentang betapa sukarnya untuk membersihkan X daripada imej pornografi yang dijana AI daripadanya.

Berbual dalam podcast bersama pelakon Taylor Lautner dan isterinya pada, Gomez berkata ibunya dan pasukannya telah berusaha—tanpa kejayaan—untuk menghapuskan imej tersebut. “Ibunya mempunyai e-mel berikut-ikut, tetapi terlalu banyak dan dia telah menangani semuanya,” katanya. “Bagi saya, ia bukan sesuatu yang membingungkan, tetapi lebih kepada ‘Mengapa begitu sukar untuk menghapuskannya?'”

Pihak berkuasa dihadapkan dengan tugas yang rumit untuk menghentikan penyebaran CSAM yang dijana AI kerana teknologi itu berkembang dengan pesat dan kemudahan untuk mengakses alat seperti meningkat, bahkan di kalangan kanak-kanak itu sendiri.

Seperti model AI meningkat dan menjadi lebih mudah diakses, ia juga akan menjadi lebih sukar dipantau jika digunakan untuk tujuan haram, seperti mencipta CSAM, menurut Dan Sexton, ketua pegawai teknologi Pusat Internet Watch (IWF) UK. Beliau berkata dunia perlu sepakat dengan penyelesaian segera: “Semakin lama kita menunggu untuk mencari penyelesaian bagi setiap isu potensi yang mungkin berlaku esok, peluangnya adalah ia sudah berlaku dan kita mengejar di belakang, dan anda cuba membetulkan kerosakan yang sudah berlaku.”

Masalah yang semakin meningkat

Untuk sebahagian besar, mencipta sebarang CSAM sudah lama dilarang secara meluas, termasuk menggunakan AI. Dalam terbarunya Pusat Antarabangsa untuk Kanak-kanak Hilang dan Dieksploitasi mendapati bahawa 182 daripada 196 negara mempunyai undang-undang khusus yang menangani CSAM atau cukup untuk memerangi ia. Misalnya, mentakrifkan CSAM sebagai apa-apa penerangan visual tingkah laku seks yang jelas melibatkan kanak-kanak—yang mungkin termasuk “imej digital atau dijana komputer yang tidak dapat dibezakan dari kanak-kanak sebenar” serta “imej yang dicipta, diubahsuai, atau diubah suai, tetapi kelihatan memaparkan kanak-kanak yang boleh dikenal pasti, sebenar.” Di Ireland, undang-undang jauh lebih ketat: CSAM adalah haram, sama ada .

Sesetengah pesalah sudah dihukum di bawah undang-undang sedemikian. Pada September, mahkamah menjatuhkan hukuman penjara 2.5 tahun ke atas lelaki empat puluhan kerana menggunakan AI untuk menggambarkan ratusan imej pornografi kanak-kanak yang nyata. Pada April tahun lepas, mahkamah menjatuhkan hukuman penjara tiga tahun ke atas lelaki berusia 61 tahun kerana menggunakan teknologi deepfake untuk mencipta video penyalahgunaan seks kanak-kanak tiruan. Pada bulan yang sama, , seorang lelaki berusia 22 tahun dihukum penjara enam bulan dan 10 tahun probasi sebagai pesalah seks selepas mengaku beberapa tuduhan berkaitan penjanaan dan penyebaran imej seks yang jelas lebih daripada satu dozen wanita di bawah umur.

Tetapi penyelesaian kes-kes ini tidak selalu jelas. Sepanyol lebih daripada 20 orang gadis berusia antara 11 dan 17 tahun mempunyai imej bogel mereka yang dijana AI tersebar secara online pada September. Tetapi ia mengambil masa untuk pihak berkuasa penguatkuasaan undang-undang untuk menentukan liabiliti jenayah pesalah yang didakwa, yang juga dipercayai terdiri daripada kanak-kanak. Manuel Cancio, profesor undang-undang jenayah di Universiti Autonomi Madrid, berkata kepada TIME bahawa “jika ia adalah kes jelas di mana semua orang akan tahu di mana untuk menempatkannya di bahagian mana daripada kod jenayah [Sepanyol], maka tuduhan akan dikemukakan sudah.” David Wright, pengarah Pusat Keselamatan Internet UK, juga memberitahu TIME bahawa organisasi perlindungan kanak-kanak itu juga menerima laporan kanak-kanak sekolah mencipta dan menyebarkan imej bogel rakan sebaya mereka yang dijana AI.

Teknologi AI hari ini boleh menggunakan sama ada rupa kanak-kanak yang tidak curiga, atau mencipta imej yang tidak berdasarkan kanak-kanak sebenar, untuk menjana bahan penyalahgunaan seks dalam beberapa klik sahaja, walaupun kebanyakan pembangun tidak membenarkan penggunaan untuk bahan sedemikian. Pusat Internet Stanford bahawa sesetengah model AI dilatih pada set data yang mengandungi sekurang-kurangnya 3,000 imej CSAM yang diketahui—sumber dari platform utama seperti dan —walaupun dasar mereka melarang penghantaran bahan sedemikian. Reddit dan X tidak memberi maklumbalas tentang laporan itu. Sexton berkata IWF juga menerima laporan imej mangsa CSAM terdahulu digunakan semula untuk mencipta lebih banyak CSAM mereka.

David Thiel, ketua teknologi Pusat Internet Stanford, berkata CSAM yang dijana AI telah melepasi penyelesaian yang digunakan untuk menjejak dan menghapuskan kandungan itu. “Ia hanyalah aliran berterusan bahan baru dan bukannya penggulungan bahan yang diketahui ini yang membuat pengenalpastian imej visual menjadi sukar,” kata Thiel.

Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.

Sektor: Top Story, Berita Harian

SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.