Gambar untuk representasi. | Sumber Foto: Reuters
PPara pembuat kebijakan telah bergulat dengan meningkatnya kompleksitas model Machine Learning (ML) yang mengolah sejumlah besar data melalui Large Language Model (LLM) dan jaringan saraf dalam. Kompleksitas tersebut telah menyulitkan para pengelola data untuk secara efektif “mengoreksi, melengkapi, memperbarui, dan menghapus” data sensitif dari sistem komputer. Pada saat yang sama, kita menyaksikan peningkatan bias AI (Kecerdasan Buatan), misinformasi, dan pelanggaran privasi, yang semakin meningkat selama acara-acara seperti pemilihan umum.
OPINI | Kehidupan di era AI
Antitesis dari ML
Untuk mengatasi masalah ini, solusi yang mungkin telah memicu minat di antara para peneliti dan perusahaan adalah gagasan Machine Unlearning (MUL). Pertama kali diusulkan oleh Cao dan Yang dalam 'Towards Making Systems Forget with Machine Unlearning', MUL merenungkan pertanyaan tentang bagaimana kita dapat membuat mesin melupakan data dari model AI yang telah dilatih. Ini adalah antitesis dari ML. Sebuah algoritme ditambahkan ke model AI untuk tujuan mengidentifikasi dan menghapus informasi yang salah, tidak benar, diskriminatif, ketinggalan zaman, dan sensitif.
Konsep ini dibangun di atas tantangan untuk menghilangkan informasi karena pengadukan data yang terus-menerus oleh LLM ini. Begitu banyaknya sehingga sulit untuk melacak data karena data tersebut dapat digunakan untuk berbagai tujuan, menciptakan jaringan algoritma yang kompleks, yang juga dikenal sebagai silsilah data, yang berdampak buruk pada kualitasnya, yang mengarah pada manipulasi, keluaran yang berlawanan, dan kesulitan dalam menemukan dan menghapus informasi sensitif. Selain itu, karena tidak ada pendekatan sandbox untuk memilih dan memproses data dalam model ini, ada juga kemungkinan peretas memasukkan data yang dimanipulasi untuk menghasilkan hasil yang bias (keracunan data).
Seseorang mungkin berpendapat untuk menghapus seluruh set data, yaitu pemangkasan data, dan melatih ulang seluruh model AI. Namun, hal itu akan menyebabkan biaya komputasi yang meningkat dan penundaan yang tidak semestinya bagi para pemegang amanah data, sementara pada saat yang sama membawa risiko kehilangan akurasi yang substansial. Akibatnya, MUL mendapatkan daya tarik sebagai opsi yang layak di antara para pemegang amanah data seperti IBM, di mana model tersebut sedang diuji untuk meningkatkan akurasi, kejelasan, mengurangi waktu untuk melupakan, dan efisiensi biaya.
Tiga pendekatan
Namun, pertanyaannya tetap bagaimana model MUL dapat diimplementasikan untuk memenuhi kewajiban secara efektif. Mungkin ada tiga pendekatan berdasarkan kelayakannya untuk implementasi di lapangan: privat, publik, dan internasional. Dalam pendekatan privat, para fidusia data akan bertanggung jawab terutama untuk menguji algoritme MUL, yang kemudian dapat diterapkan di seluruh model pelatihan mereka untuk penghapusan yang efisien berdasarkan persyaratan tertentu. Pendekatan sukarela ini memberi perusahaan banyak ruang untuk meningkatkan model AI mereka dan mempertahankan hak pengguna tanpa campur tangan pemerintah yang tidak semestinya. Namun, masalah terjadi pada keahlian dan keterjangkauan untuk menjalankan model-model ini, yang mungkin membuat perusahaan-perusahaan kecil enggan menguji solusinya. Ini adalah model yang saat ini sedang diikuti, meskipun pada tahap awal.
Dalam pendekatan publik, pemerintah memiliki tanggung jawab untuk menyiapkan cetak biru undang-undang, baik melalui pendekatan hukum lunak maupun hukum keras, untuk mewajibkan para wali amanat data untuk memenuhi kewajiban hukum mereka. Pendekatan ini harus dibaca dengan konteks meningkatnya penyebutan AI dalam proses legislatif (dari 1.247 pada tahun 2022 menjadi 2.175 pada tahun 2023) di 49 yurisdiksi. Data tersebut mencerminkan kemungkinan besar intervensi pemerintah dalam waktu dekat jika terobosan besar dalam model MUL sejajar dengan lanskap peraturan yang meningkat. Pemerintah dapat mengeluarkan pedoman di bawah Rezim Perlindungan Data atau AI masing-masing yang mengamanatkan bahwa para wali amanat data menerapkan model MUL yang masuk akal. Misalnya, Undang-Undang AI Uni Eropa telah mengadopsi pendekatan hukum lunak dengan menambahkan ketentuan untuk mengatasi keracunan data. Undang-undang tersebut menganggap keracunan data sebagai bentuk serangan siber dan mengarahkan para wali amanat data untuk menerapkan kontrol keamanan “untuk memastikan tingkat keamanan siber yang sesuai dengan risikonya.”
Sebaliknya, pemerintah sendiri dapat menyiapkan model MUL sebagai bagian dari Infrastruktur Publik Digitalnya untuk penelaahan data fidusia guna menerapkannya di seluruh platform secara seragam. Hal ini khususnya berguna di negara-negara berkembang di mana negara memiliki kepentingan substantif dalam DPI untuk pembangunan negara secara keseluruhan. Selain itu, hal ini mengatasi masalah keterjangkauan dan keahlian bagi perusahaan-perusahaan yang lebih kecil.
Pendekatan internasional menekankan peran negara-negara dalam bersatu dan menyiapkan kerangka kerja yang akan diadopsi secara seragam di tingkat domestik. Dasar pemikirannya mengalir dari gagasan bahwa setiap inovasi dalam AI memiliki implikasi lintas batas, dan lebih baik untuk mengikuti standar yang seragam di seluruh yurisdiksi sebagai langkah maju menuju tata kelola AI global. Karena kemanjuran pendekatan ini tidak jelas di tengah gesekan geopolitik, tanggung jawab secara efektif beralih ke peran organisasi penetapan standar internasional seperti Komisi Elektroteknik Internasional untuk menghasilkan standar MUL yang dapat diterapkan di seluruh yurisdiksi.
Pendekatan ini merupakan cetak biru formal untuk salah satu solusi yang dapat digunakan untuk meredam ancaman AI Generatif dan menjaga hak pengguna untuk dilupakan. MUL masih dalam tahap awal. Oleh karena itu, para pemangku kepentingan harus memperhatikan pertimbangan teknis dan regulasi untuk memastikan penerapannya yang efektif dalam lanskap AI yang terus berkembang ini.