Linux Tegaskan Aturan Kode AI: Copilot Diterima, Kesalahan Ditanggung Manusia

Apr 13, 2026 - 02:00
 0  4
Linux Tegaskan Aturan Kode AI: Copilot Diterima, Kesalahan Ditanggung Manusia

Setelah berbulan-bulan perdebatan sengit, Linus Torvalds dan para pengelola kernel Linux akhirnya menetapkan kebijakan resmi yang mengatur kontribusi kode yang dibantu oleh kecerdasan buatan (AI). Kebijakan ini membuka pintu bagi penggunaan alat AI seperti GitHub Copilot, namun dengan aturan transparansi yang sangat ketat dan penegasan bahwa tanggung jawab atas kode AI tetap berada pada manusia yang mengirimkannya.

Ad
Ad

Kebijakan Baru Linux untuk Kode AI

Komunitas open source telah lama bergulat dengan identitas dan etika penggunaan AI dalam pengembangan kode. Kini, proyek kernel Linux merilis aturan yang mewajibkan pengembang menggunakan tag "Assisted-by" untuk setiap kode yang dihasilkan atau dibantu oleh AI. Ini menggantikan tag "Signed-off-by" yang bersifat legal dan hanya boleh digunakan oleh manusia yang bertanggung jawab secara langsung.

Dengan langkah ini, setiap baris kode yang berasal dari AI dan segala potensi bug atau celah keamanan yang muncul akan secara legal menjadi tanggung jawab pengembang manusia yang mengajukan kode tersebut. Sistem ini bertujuan meningkatkan transparansi sekaligus menjaga akuntabilitas dalam proyek besar yang berpengaruh seperti Linux.

Latar Belakang dan Perdebatan yang Memanas

Debat soal kode AI dalam open source telah berlangsung panas, terutama sejak awal tahun ketika terjadi perselisihan antara Dave Hansen dari Intel dan Lorenzo Stoakes dari Oracle mengenai seberapa ketat pengawasan terhadap kode yang dihasilkan AI. Linus Torvalds menutup perdebatan tersebut dengan tegas, dengan menyatakan bahwa pelarangan total terhadap AI adalah "sandiwara yang sia-sia".

Torvalds berpendapat bahwa AI hanyalah alat lain dalam pengembangan perangkat lunak. Menurutnya, pengembang yang mengirimkan kode buruk tidak akan membaca dokumentasi atau aturan apa pun, sehingga fokus harus pada akuntabilitas pengembang manusia, bukan pada pelarangan teknologi yang mereka gunakan.

Sebelum kebijakan ini, beberapa distribusi Linux besar seperti Gentoo dan NetBSD mengambil sikap tegas dengan melarang kontribusi kode yang dibuat oleh AI. NetBSD bahkan menyebut hasil AI sebagai "tercemar" secara hukum karena ketidakjelasan status hak cipta dari data pelatihan model AI.

Inti permasalahan legal terletak pada Developer Certificate of Origin (DCO), yang mengharuskan pengembang secara hukum menyatakan bahwa mereka memiliki hak untuk mengirimkan kode tersebut. Karena model AI dilatih menggunakan kumpulan data kode open source yang sering kali memiliki lisensi ketat seperti GNU General Public License, kode yang dihasilkan AI dapat berpotensi melanggar lisensi tersebut tanpa disadari.

Menurut analisis dari Red Hat, hal ini bisa menggoyahkan seluruh kerangka DCO dan menimbulkan risiko hukum serius. Selain masalah legal, komunitas open source juga kewalahan menghadapi banjir kode "AI slop", yaitu kode AI yang tidak berguna dan cenderung mengacaukan proyek.

  • Pengembang cURL menutup bug bounty karena terlalu banyak laporan palsu dari AI
  • Proyek whiteboard tldraw menutup PR eksternal secara otomatis untuk melindungi diri
  • Node.js dan OCaml menerima patch AI raksasa dengan puluhan ribu baris yang memicu debat eksistensial

Kontroversi dan Pentingnya Transparansi

Kasus sempat memanas ketika Sasha Levin, insinyur NVIDIA sekaligus pengelola kernel, mengirimkan patch kernel 6.15 yang sepenuhnya dihasilkan AI tanpa menyatakannya secara jelas. Meskipun patch tersebut berjalan, ada regresi performa yang tidak terdeteksi karena tidak ada label AI, sehingga pengujian dan review kurang ketat.

Komunitas mengecam tindakan tersebut karena dinilai tidak jujur. Torvalds sendiri mengakui bahwa patch tersebut kurang mendapat review yang memadai. Kasus ini memperlihatkan pentingnya aturan baru yang menuntut keterbukaan dan tanggung jawab manusia terhadap kode yang mereka submit.

Demikian pula di dunia gaming, komunitas modding Doom mengalami pecah karena penggunaan kode AI tanpa pengungkapan, yang akhirnya memicu migrasi besar-besaran ke proyek fork baru bernama UZDoom.

Analisis Redaksi

Menurut pandangan redaksi, kebijakan Linux ini merupakan langkah yang sangat bijaksana dan realistis dalam menghadapi revolusi AI pada pengembangan perangkat lunak. Alih-alih melarang atau menolak AI secara total, Linux memilih mengatur dan mengedepankan akuntabilitas pengembang manusia sebagai inti dari kualitas dan keamanan kode.

Hal ini juga mencerminkan pemahaman bahwa AI adalah alat bantu, bukan pengganti pengembang. Dengan demikian, upaya menjaga integritas proyek tetap berjalan tanpa menghambat inovasi dan efisiensi yang bisa didapat dari AI.

Ke depan, komunitas open source lain diharapkan mengikuti jejak Linux untuk menciptakan aturan yang lebih jelas dan transparan terkait penggunaan AI, sehingga menghindari konflik hukum dan sosial yang telah muncul di beberapa proyek besar.

Untuk informasi lebih lengkap dan pembaruan terkait kebijakan ini, Anda dapat membaca langsung sumber berita di Tom's Hardware dan berita teknologi terpercaya lainnya.

What's Your Reaction?

Like Like 0
Dislike Dislike 0
Love Love 0
Funny Funny 0
Angry Angry 0
Sad Sad 0
Wow Wow 0
admin As a passionate news reporter, I am fueled by an insatiable curiosity and an unwavering commitment to truth. With a keen eye for detail and a relentless pursuit of stories, I strive to deliver timely and accurate information that empowers and engages readers.
Ad
Ad