Anthropic Rekrut Ahli Senjata untuk Cegah Penyalahgunaan AI yang Berbahaya

Mar 17, 2026 - 10:00
 0  3
Anthropic Rekrut Ahli Senjata untuk Cegah Penyalahgunaan AI yang Berbahaya

Anthropic, perusahaan kecerdasan buatan (AI) asal Amerika Serikat, tengah mencari seorang ahli senjata kimia dan bahan peledak berdaya ledak tinggi untuk mencegah potensi penyalahgunaan katastropik dari sistem AI mereka.

Ad
Ad

Perusahaan ini khawatir bahwa teknologi AI yang dikembangkannya dapat digunakan oleh pihak tidak bertanggung jawab untuk memperoleh informasi tentang pembuatan senjata kimia, senjata radioaktif, atau bahan peledak berbahaya lainnya. Oleh karena itu, Anthropic ingin memperkuat pengamanan dan batasan dalam sistem AI agar tidak memberikan akses terhadap informasi tersebut.

Detail Posisi dan Persyaratan

Dalam pengumuman lowongan pekerjaan di LinkedIn, Anthropic menjelaskan bahwa kandidat yang dicari harus memiliki minimal lima tahun pengalaman dalam bidang pertahanan senjata kimia dan/atau bahan peledak. Selain itu, pengetahuan tentang perangkat penyebar radiologis atau yang dikenal sebagai dirty bomb juga menjadi syarat penting.

Perusahaan menyatakan bahwa posisi ini mirip dengan pekerjaan sensitif lain yang telah mereka ciptakan sebelumnya di bidang kebijakan dan keamanan teknologi.

Langkah Serupa dari Industri AI

Anthropic bukan satu-satunya perusahaan AI yang mengambil langkah ini. OpenAI, pengembang ChatGPT, juga membuka lowongan penelitian untuk risiko biologis dan kimia, dengan gaji mencapai 455.000 dolar AS atau sekitar 335.000 poundsterling, hampir dua kali lipat dari yang ditawarkan Anthropic.

Namun, langkah ini memicu kekhawatiran dari sejumlah ahli yang menilai bahwa memberikan informasi senjata pada sistem AI, meski dengan pengamanan, tetap berisiko.

"Apakah aman menggunakan sistem AI untuk menangani informasi sensitif tentang bahan kimia dan bahan peledak, termasuk dirty bomb dan senjata radiologis lainnya?" ujar Dr. Stephanie Hare, peneliti teknologi sekaligus pembawa acara program AI Decoded BBC.

"Tidak ada perjanjian internasional atau regulasi khusus yang mengatur penggunaan AI untuk jenis senjata ini. Semua ini terjadi di balik layar."

Urgensi dan Kontroversi Kebijakan

Ancaman eksistensial yang mungkin ditimbulkan oleh teknologi AI telah diingatkan berkali-kali oleh industri ini, namun tidak ada upaya signifikan untuk memperlambat kemajuannya. Situasi ini semakin mendesak karena pemerintah AS terus mendorong perusahaan AI, sementara operasi militer sedang berlangsung di Iran dan Venezuela.

Anthropic tengah menghadapi masalah hukum dengan Departemen Pertahanan AS yang menilai perusahaan ini sebagai risiko rantai pasokan, karena menolak agar sistemnya digunakan dalam senjata otonom sepenuhnya atau pengawasan massal terhadap warga AS.

Dario Amodei, salah satu pendiri Anthropic, menyatakan pada Februari lalu bahwa teknologi ini belum cukup matang dan tidak boleh digunakan untuk tujuan tersebut. Namun, Gedung Putih menegaskan bahwa militer AS tidak akan tunduk pada kontrol perusahaan teknologi.

Label risiko ini menempatkan Anthropic dalam posisi yang sama dengan Huawei, perusahaan telekomunikasi China yang diblokir karena alasan keamanan nasional berbeda.

Sementara itu, OpenAI menyatakan setuju dengan posisi Anthropic, namun telah bernegosiasi kontrak sendiri dengan pemerintah AS, meskipun belum dimulai.

Peran AI Anthropic Dalam Konflik Global

Asisten AI Anthropic yang bernama Claude belum dihentikan dan masih digunakan dalam platform yang disediakan oleh Palantir, serta diterapkan dalam konteks konflik AS-Israel dan Iran.

Analisis Redaksi

Menurut pandangan redaksi, rekrutmen ahli senjata kimia oleh Anthropic menunjukkan betapa seriusnya perusahaan AI berusaha mengantisipasi risiko penyalahgunaan teknologi yang bisa berakibat fatal. Namun, pendekatan ini juga mengandung dilema etis dan keamanan tersendiri. Dengan memberikan akses pengetahuan senjata berbahaya pada sistem AI, meskipun dengan tujuan pengamanan, resiko bocornya informasi atau pemanfaatan yang tidak diinginkan tetap ada.

Di sisi lain, ketatnya persaingan dan tuntutan pemerintah untuk mengembangkan teknologi ini tanpa hambatan menambah kompleksitas pengawasan dan regulasi. Hal ini menandakan perlunya dialog internasional yang lebih mendalam mengenai pengendalian penggunaan AI dalam konteks senjata dan keamanan global.

Kedepannya, publik dan pembuat kebijakan harus terus mengawasi perkembangan ini agar teknologi AI tidak menjadi alat yang justru memperbesar ancaman terhadap keamanan dunia. Perusahaan seperti Anthropic dan OpenAI akan menjadi sorotan utama dalam menentukan arah regulasi dan etika penggunaan AI di masa depan.

What's Your Reaction?

Like Like 0
Dislike Dislike 0
Love Love 0
Funny Funny 0
Angry Angry 0
Sad Sad 0
Wow Wow 0
admin As a passionate news reporter, I am fueled by an insatiable curiosity and an unwavering commitment to truth. With a keen eye for detail and a relentless pursuit of stories, I strive to deliver timely and accurate information that empowers and engages readers.
Ad
Ad