Kritik Tajam terhadap Rencana Tes Keamanan AI Trump yang Dinilai Rentan Gagal

May 7, 2026 - 16:40
 0  5
Kritik Tajam terhadap Rencana Tes Keamanan AI Trump yang Dinilai Rentan Gagal

Pada pekan ini, pemerintahan Trump melakukan perubahan arah dengan menandatangani perjanjian bersama Google DeepMind, Microsoft, dan xAI untuk melakukan pemeriksaan keamanan pemerintah terhadap model AI terdepan mereka sebelum dan sesudah peluncuran.

Ad
Ad

Sebelumnya, Donald Trump menolak kebijakan era Biden yang mewajibkan pemeriksaan keamanan secara sukarela, dengan alasan kebijakan tersebut merupakan bentuk overregulasi yang menghambat inovasi bebas. Tak hanya itu, setelah menjabat, Trump bahkan mengganti nama US AI Safety Institute menjadi Center for AI Standards and Innovation (CAISI), menghilangkan kata "safety" sebagai sindiran terselubung kepada Joe Biden.

Namun, setelah perusahaan Anthropic mengumumkan bahwa model terbarunya, Claude Mythos, terlalu berisiko untuk diluncurkan karena potensi eksploitasi oleh aktor jahat dalam hal kemampuan keamanan sibernya, sikap Trump berubah. Menurut Kevin Hassett, Direktur Dewan Ekonomi Nasional Gedung Putih, Trump diperkirakan akan segera mengeluarkan perintah eksekutif yang mewajibkan pengujian pemerintah terhadap sistem AI canggih sebelum dirilis, sebagaimana dilaporkan oleh Fortune.

Peran dan Tantangan CAISI dalam Pengujian AI

Dalam siaran pers CAISI, lembaga ini mengakui bahwa perjanjian sukarela dengan Google, Microsoft, dan xAI memperkuat kebijakan Biden. Direktur CAISI, Chris Fall, menyatakan optimisme terhadap kolaborasi yang diperluas ini, meskipun tidak menyebutkan secara khusus model Mythos.

“Ilmu pengukuran independen dan ketat sangat penting untuk memahami AI terdepan dan implikasi keamanannya bagi negara,” kata Fall.

Hingga kini, CAISI telah menyelesaikan sekitar 40 evaluasi, termasuk model-model terdepan yang belum dirilis. Saat melakukan pengujian, CAISI sering mendapatkan akses ke model dengan "pengamanan yang dikurangi atau dihilangkan" agar dapat mengevaluasi kemampuan dan risiko yang terkait dengan keamanan nasional secara lebih menyeluruh.

Selain itu, CAISI membentuk sebuah gugus tugas antar lembaga yang fokus pada isu keamanan nasional terkait AI agar evaluasi dapat terus mengikuti perkembangan ancaman terbaru.

Tanggapan Industri dan Keraguan Kritik

Beberapa perusahaan yang menandatangani perjanjian menunjukkan dukungan mereka terhadap rencana CAISI. Tom Lue, Wakil Presiden Google DeepMind untuk urusan AI global, menyatakan di LinkedIn bahwa dia "senang" dengan rencana pengujian CAISI. Microsoft juga menganggap pengujian adalah upaya kolaboratif antara pemerintah dan industri untuk mengidentifikasi risiko keamanan dan keselamatan publik secara besar-besaran.

Sementara itu, xAI belum memberikan komentar resmi terkait perjanjian ini, terutama saat mereka tengah berseteru dengan OpenAI mengenai komitmen terhadap keselamatan AI.

Namun, banyak kritikus meragukan efektivitas rencana pemerintah ini. Mereka menyatakan bahwa CAISI mungkin kekurangan dana dan keahlian teknis untuk melakukan evaluasi menyeluruh terhadap model AI terdepan. Kritik juga mengangkat kekhawatiran bahwa pendekatan sukarela oleh perusahaan AI tidak cukup untuk menciptakan transparansi harian yang dibutuhkan publik.

Lebih jauh, politisasi proses evaluasi, seperti menolak keluarnya model yang keluaran informasinya tidak mendukung pemerintah tertentu, dapat mengurangi kepercayaan publik terhadap AI dan akhirnya membuat perusahaan enggan bekerjasama.

Ketidakjelasan Definisi "Aman" dalam Pengujian AI

CAISI tidak menjelaskan standar pengujian yang akan digunakan, yang menurut Devin Lynch, mantan direktur kebijakan siber di Kantor Direktur Siber Nasional, merupakan masalah besar.

“Evaluasi sebelum peluncuran memang penting, tapi tantangan sebenarnya adalah apa arti evaluasi di ranah AI terdepan. Penilaian kemampuan hanya sebaik model ancaman yang digunakan. Lapisan tata kelola—standar, audit, kerangka tanggung jawab—masih paling kurang matang tapi paling penting. CAISI harus mendefinisikan dan mempublikasikan apa yang mereka uji, bukan hanya siapa yang diuji.”

Sementara itu, Sarah Kreps, Direktur Tech Policy Institute di Universitas Cornell, mengingatkan bahwa definisi "aman" dalam AI masih diperdebatkan dan proses vetting pemerintah bisa membawa dampak positif dan negatif.

Tanpa standar yang jelas, risiko politisasi pengujian sangat besar, yang artinya "siapa pun yang berkuasa akan menentukan bagaimana vetting dilakukan," kata Kreps.

Kekhawatiran Kontrol Pemerintah atas Output AI

Microsoft menyebut kolaborasi dengan CAISI dan NIST untuk mengembangkan metodologi pengujian yang menilai perilaku tak terduga, potensi penyalahgunaan, dan mode kegagalan, mengibaratkan proses ini seperti pengujian keselamatan kendaraan.

Namun, Gregory Falco, profesor di Cornell dan pakar tata kelola AI, menegaskan bahwa pengawasan pemerintah tidak boleh menjadi alat politik yang mengendalikan apa yang boleh atau tidak dikatakan model AI.

Falco menyarankan penciptaan mekanisme audit independen yang berkelanjutan, seperti sistem IRS, yang dapat memberikan konsekuensi nyata bagi penyebaran AI yang sembrono. Dengan demikian, perusahaan AI akan terdorong meningkatkan pengujian keamanan internal mereka.

Menurut Falco, ini menjadi satu-satunya jalur yang realistis mengingat pemerintah federal saat ini belum memiliki keahlian teknis dan infrastruktur yang memadai untuk evaluasi langsung secara terus-menerus.

Kesiapan CAISI dan Pendanaan

Rumman Chowdhury, konsultan tata kelola AI dan pendiri Humane Intelligence, mengkritik kesiapan CAISI yang menurutnya masih jauh dari cukup. Ia memperingatkan bahwa istilah "pengawasan yang masuk akal" bisa menjadi alat politik jika tidak dijalankan dengan transparan dan berbasis data.

Soal pendanaan, meskipun Kongres telah menyetujui hingga $10 juta untuk memperluas CAISI, analisis konservatif dari America First Policy Institute menyatakan CAISI masih kekurangan dana dibanding institusi sejenis di dunia dan belum memiliki pendanaan yang memadai.

Para kritikus menilai rencana CAISI belum cukup kuat untuk melindungi publik dari risiko AI yang paling tidak terduga. Falco berpendapat hanya audit independen yang mampu mencegah dampak buruk tersebut.

“Bahaya pengawasan pemerintah yang politis, performatif, atau dikendalikan oleh perusahaan yang dievaluasi harus dihindari. Kesempatan ada pada pembangunan kerangka audit yang praktis sehingga AS tetap menjadi pemimpin global AI sekaligus menciptakan akuntabilitas nyata terhadap risiko paling berdampak,” kata Falco.

Menurut Lynch, ujian sebenarnya adalah apakah kolaborasi ini bisa menstimulasi inovasi, melindungi keamanan nasional, dan menghasilkan AI yang dipercayai serta dapat dipercaya.

Analisis Redaksi

Menurut pandangan redaksi, pergeseran sikap pemerintahan Trump dalam menerima perlunya pengujian keamanan AI merupakan pengakuan penting terhadap risiko serius yang dihadapi teknologi ini. Namun, langkah ini juga membuka babak baru tantangan terkait bagaimana proses pengawasan ini dilakukan agar tidak menjadi alat politik yang justru menghambat transparansi dan inovasi.

Potensi politisasi dan kurangnya definisi standar pengujian yang jelas bisa mengikis kepercayaan publik dan industri. Jika tidak dikelola dengan baik, pengawasan AI bisa berubah menjadi pertarungan kekuasaan yang merugikan keamanan nasional dan kemajuan teknologi.

Ke depan, yang perlu diperhatikan adalah bagaimana pemerintah membangun kerangka kerja audit independen yang kredibel dan transparan, serta memastikan CAISI mendapatkan sumber daya dan keahlian yang memadai. Tanpa ini, risiko AI yang tidak terkontrol akan tetap tinggi, dan kepercayaan masyarakat terhadap AI bisa terancam.

Untuk pembaca yang ingin mengikuti perkembangan kebijakan keamanan AI ini, penting untuk terus memantau bagaimana regulasi dan kolaborasi antara pemerintah dan industri berkembang, serta dampaknya terhadap inovasi dan keamanan teknologi di Indonesia dan dunia.

What's Your Reaction?

Like Like 0
Dislike Dislike 0
Love Love 0
Funny Funny 0
Angry Angry 0
Sad Sad 0
Wow Wow 0
admin As a passionate news reporter, I am fueled by an insatiable curiosity and an unwavering commitment to truth. With a keen eye for detail and a relentless pursuit of stories, I strive to deliver timely and accurate information that empowers and engages readers.
Ad
Ad