Langkah ini menegaskan posisi negara. Bukan teknologi yang diadili, melainkan dampaknya yang dihentikan.
Pemerintah tidak menunggu perdebatan panjang tentang niat mesin, tetapi langsung membatasi ruang gerak sistem yang dinilai membahayakan, terutama bagi perempuan dan anak.
Platform pun dipanggil untuk memberi klarifikasi, menandai bahwa tanggung jawab tidak berhenti pada pengguna semata, tetapi juga pada penyelenggara sistem elektronik.
Dasar hukumnya jelas. Negara menggunakan kewenangan yang telah ada untuk memastikan ruang digital tidak memfasilitasi konten terlarang.
Pendekatan ini mencerminkan kesadaran realistis: ketika niat manusia tidak bisa dikendalikan satu per satu, maka infrastruktur digitalnya yang dipagari. Negara hadir sebagai penjaga ruang, bukan pengatur pikiran.
Pendekatan serupa tampak di berbagai negara. Uni Eropa menuntut dokumentasi dan akuntabilitas pengembang AI. India mengancam mencabut perlindungan hukum bagi platform yang abai. Inggris memanggil pengembang untuk dimintai penjelasan. Di titik ini, regulasi menjadi bahasa bersama: membatasi risiko, tanpa mematikan teknologi.
Hanya saja, pagar setinggi apapun memiliki batas. Regulasi dapat mempersempit bahaya, tetapi tidak pernah menggantikan akal sehat. Sistem bisa dibatasi, fitur bisa dikunci, akses bisa diputus, tetapi kehendak manusia selalu menjadi faktor penentu.
Di sinilah tanggung jawab itu kembali ke asalnya. AI tetap alat. Negara boleh membangun pagar. Platform wajib bertanggung jawab, namun beban terbesar tidak pernah berpindah. Ia tetap melekat pada manusia sebagai pemilik akal asli.





















