Sebuah model AI pembuat video yang kuat diperkenalkan secara luas hari ini — tapi ada yang harus diperhatikan: Model ini tampaknya memusnahkan topik yang dianggap terlalu sensitif secara politik oleh pemerintah di negara asalnya, Cina.
Model ini, Kling, yang dikembangkan oleh perusahaan Beijing Kuaishou, diluncurkan dengan akses daftar tunggu sebelumnya tahun ini untuk pengguna dengan nomor ponsel Cina. Hari ini, model ini tersedia untuk siapa pun yang bersedia menyediakan alamat email mereka. Setelah mendaftar, pengguna dapat memasukkan perintah untuk memiliki model ini menghasilkan video lima detik dari apa yang mereka deskripsikan.
Kling berfungsi sesuai dengan deskripsi. Video 720p-nya, yang membutuhkan waktu satu atau dua menit untuk dihasilkan, tidak terlalu berbeda dari perintah yang diberikan. Dan Kling tampaknya mensimulasikan fisika, seperti dedaunan bergoyang dan air mengalir, sebaik model pembuat video seperti Gen-3 dari startup AI Runway dan Sora dari OpenAI.
Tetapi Kling sama sekali tidak akan menghasilkan klip tentang beberapa subjek tertentu. Perintah seperti 'Demokrasi di Cina,' 'Presiden Cina Xi Jinping berjalan di jalan,' dan 'Protes Lapangan Tiananmen' menghasilkan pesan kesalahan yang tidak spesifik.
Filtrasi ini tampaknya terjadi hanya pada tingkat perintah. Kling mendukung animasi gambar diam, dan akan dengan senang hati menghasilkan video potret Jinping, misalnya, selama perintah pendamping tidak menyebut nama Jinping (misalnya, 'Pria ini memberikan pidato.')
Kami telah menghubungi Kuaishou untuk komentar.
Perilaku aneh Kling kemungkinan akibat tekanan politik yang intens dari pemerintah Cina terhadap proyek AI generatif di wilayah tersebut.
Bulan ini, Financial Times melaporkan bahwa model AI di Cina akan diuji oleh badan pengatur internet terkemuka China, Administrasi Internet Cina (CAC), untuk memastikan bahwa tanggapannya tentang topik sensitif 'menggambarkan nilai-nilai sosialis inti'. Model-model tersebut akan dijadikan patokan oleh pejabat CAC untuk tanggapan mereka terhadap berbagai pertanyaan, sesuai laporan Financial Times — banyak di antaranya terkait dengan Jinping dan kritik terhadap Partai Komunis.
Dilaporkan bahwa CAC bahkan telah mengusulkan daftar hitam sumber-sumber yang tidak boleh digunakan untuk melatih model AI. Perusahaan yang mengajukan model untuk ditinjau harus menyiapkan puluhan ribu pertanyaan yang dirancang untuk menguji apakah model menghasilkan jawaban 'aman'.
Akibatnya, sistem AI menolak untuk merespons topik yang mungkin menimbulkan kemarahan dari regulator Cina. Tahun lalu, BBC menemukan bahwa Ernie, model obrolan AI unggulan perusahaan Cina Baidu, menunda dan mengalihkan saat ditanya pertanyaan yang mungkin dianggap kontroversial secara politik, seperti 'Apakah Xinjiang tempat yang baik?' atau 'Apakah Tibet tempat yang baik?'
Aturan yang keras ini mengancam untuk melambatkan kemajuan AI Cina. Tidak hanya memerlukan penyaringan data untuk menghapus informasi yang sensitif secara politik, tetapi juga menuntut investasi waktu pengembangan yang besar dalam menciptakan pengaman ideologis — pengaman tersebut mungkin tetap gagal, seperti yang digambarkan oleh Kling.
Dari sudut pandang pengguna, regulasi AI Cina sudah mulai mengarah pada dua kelas model: yang terhambat oleh penyaringan intensif dan yang jelas lebih sedikit. Apakah itu benar-benar hal yang baik untuk ekosistem AI secara umum?