Kekuatan super baru Claude untuk mengadukan orang-orang yang tidak bermoral telah memicu gelombang kritik di internet dengan banyak orang berbondong-bondong ke berbagai forum media sosial untuk mengungkapkan apa yang oleh sebagian orang disebut sebagai pelanggaran kepercayaan dan ancaman terhadap privasi pengguna.
![]() |
Anthropic |
Anthropic merilis model AI terkuatnya, Claude 4 Opus, pada hari Kamis. USP (kependekan dari unique selling point) utamanya adalah kemampuan penalaran dan pengkodean yang canggih. Model tersebut sekitar 65 persen lebih kecil kemungkinannya untuk menggunakan pintasan untuk menyelesaikan tugas dibandingkan dengan pendahulunya, 3.7, klaim Anthropic. Namun, ternyata, model tersebut memiliki fitur rahasia lainnya. Sistem AI Claude 4 yang baru juga merupakan informan yang akan melaporkan Anda ke polisi dan menekan jika Anda memintanya melakukan sesuatu yang ilegal.
Sam Bowman, seorang peneliti penyelarasan AI di Anthropic, memposting di X bahwa "Jika ia mengira Anda melakukan sesuatu yang sangat tidak bermoral, misalnya, seperti memalsukan data dalam uji coba farmasi, ia akan menggunakan alat baris perintah untuk menghubungi pers, menghubungi regulator, mencoba mengunci Anda dari sistem yang relevan, atau semua hal di atas."
Perilaku tersebut merupakan perluasan dari tujuan Anthropic untuk membangun AI yang "etis". Seperti yang dijelaskan dalam kartu sistem resmi perusahaan, Claude 4 Opus dilatih untuk menghindari membantu dalam hal yang membahayakan. Model tersebut tampaknya telah menjadi sangat kuat dalam pengujian internal sehingga Anthropic telah mengaktifkan "Perlindungan Keamanan Tingkat 3 AI", yang berarti telah memasang pelindung keamanan di dalamnya, sehingga tidak menanggapi pertanyaan tentang, misalnya, cara membuat senjata biologis atau mensintesis dan melepaskan virus berbahaya. Anthropic juga telah mempersulit organisasi teroris untuk mencuri model tersebut. Undang-undang "whistleblower" tampaknya menjadi bagian dari protokol keamanan yang sama. Meskipun tidak sepenuhnya baru bagi Anthropic, Claude 4 Opus tampaknya dirancang untuk melakukan hal ini secara lebih aktif daripada versi AI sebelumnya.
Bowman kemudian mengklarifikasi bahwa perilaku membocorkan rahasia hanya terjadi dalam situasi ekstrem tertentu dan hanya jika diberi akses yang cukup dan diminta untuk "mengambil inisiatif," yang berarti tidak akan menghubungi pihak berwenang, mengunci pengguna dari sistem, atau mengirim email massal ke media untuk tugas rutin. Ia berkata, "Jika model tersebut melihat Anda melakukan sesuatu yang sangat jahat, ia akan mencoba menggunakan alat email untuk membocorkan rahasia." Ia kemudian menghapus tweet asli tersebut, dengan mengatakan bahwa tweet tersebut diambil di luar konteks.
Kemampuan baru Claude untuk melaporkan orang-orang yang tidak bermoral telah memicu gelombang kritik di internet. Orang-orang berbondong-bondong ke berbagai forum media sosial untuk mengungkapkan apa yang disebut sebagian orang sebagai pelanggaran kepercayaan dan ancaman terhadap privasi pengguna. Sebagian orang khawatir sistem dapat salah menafsirkan tindakan mereka atau dimanipulasi oleh perintah acak, yang menyebabkan alarm palsu dan konsekuensi yang tidak diinginkan.
Anthropic telah lama mempromosikan dirinya sebagai pemimpin dalam keamanan AI dengan pendekatan "AI Konstitusional". Namun dengan pengawasan moral agresif Claude 4 yang kini diketahui publik, banyak pengguna yang mempertimbangkan kembali kepercayaan mereka pada perusahaan tersebut dan mempertanyakan masa depan AI dan etika. Anthropic didukung oleh Amazon.