Rentan Disalahgunakan, AS Siapkan Teknologi Pendeteksi Risiko Model AI
Pemerintah Amerika Serikat (AS) mengembangkan alat teknologi mendeteksi risiko data berbahaya dalam model artificiaI intelligence (AI) atau kecerdasan buatan. Nantinya teknologi itu mampu meningkatkan kinerja AI dengan menyaring data yang digunakan untuk pelatihan model.
Institut Standar dan Teknologi Nasional (NIST) dari Departemen Perdagangan AS sedang menguji teknologi Dioptra yang dapat mengukur risiko serangan yang “meracuni” data pelatihan AI, yang bisa menurunkan kinerja sistem.
Nantinya, Dioptra akan tersedia untuk pemerintah, perusahaan, dan masyarakat umum. Dioptra bertujuan membantu perusahaan melatih model AI dengan menilai, menganalisis, dan melacak risiko AI, melakukan benchmark, dan meneliti model terhadap ancaman.
“Perangkat lunak ini akan membantu masyarakat, termasuk lembaga pemerintah dan usaha kecil dan menengah, untuk mengevaluasi klaim pengembang AI tentang kinerja sistem mereka,” kata NIST dalam pernyataannya seperti dikutip Reuters dan Tech Crunch.
NIST dan AI Safety Institute berupaya mengurangi bahaya AI, seperti penyalahgunaan untuk menghasilkan pornografi non-konsensual. Ini mengikuti peluncuran Inspect dari AI Safety Institute Inggris, perangkat serupa yang menilai kemampuan dan keamanan model AI secara keseluruhan.
AS dan Inggris bekerja sama mengembangkan pengujian model AI tingkat lanjut, yang diumumkan pada KTT Keamanan AI Inggris di Bletchley Park pada November 2023. Dioptra juga merupakan hasil dari perintah eksekutif Presiden Joe Biden tentang AI, yang mengamanatkan NIST untuk membantu dalam pengujian sistem AI. Selain AS, Kanada juga fokus pada pengembangan AI.
Siapkan Regulasi
Pemerintah Amerika Serikat (AS) dan China akan mengembangkan regulasi yang mengatur pengembangan teknologi artificial intelligence (AI) atau kecerdasan buatan. Hal itu dikarenakan AI juga menghadirkan sisi negatif yang membahayakan kemaslahatan umat manusia.
Rencana pengembangan regulasi AI itu muncul usai chatbot AI ChatGPT sukses menjadi aplikasi konsumen dengan pertumbuhan tercepat dalam sejarah dengan lebih dari 100 juta pengguna aktif bulanan.
Lembaga Departemen Perdagangan AS Administrasi Telekomunikasi dan Informasi Nasional (NTIA) mendorong pembuatan regulasi yang mengatur mekanisme akuntabilitas AI dan menjamin teknologi AI itu legal, efektif, etis, aman, dan dapat dipercaya.
“Sistem AI yang bertanggung jawab dapat memberikan manfaat yang sangat besar asal kita mampu mengatasi konsekuensi dan kerugiannya. Agar sistem ini mencapai potensi penuhnya, perusahaan dan konsumen harus dapat memercayai mereka,” kata Administrator NTIA Alan Davidson seperti dikutip Reuters.
Presiden AS Joe Biden menegaskan perusahaan dan para pengembang harus memastikan teknologi AI aman dan tidak berbahaya. “Menurut saya, perusahaan teknologi memiliki tanggung jawab untuk memastikan produk mereka aman sebelum dipublikasikan,” ujar dia.
ChatGPT yang telah memukau banyak pengguna dengan tanggapan cepat terhadap pertanyaan, dibuat oleh perusahaan OpenAI yang berbasis di California dan didukung oleh Microsoft Corp. NTIA berencana menyusun laporan karena melihat upaya untuk memastikan sistem AI bekerja seperti yang diklaim dan tanpa menyebabkan bahaya.
Pusat Kecerdasan Buatan dan Kebijakan Digital meminta Komisi Perdagangan Federal untuk menghentikan OpenAI mengeluarkan rilis komersial baru GPT-4. Menurut mereka, teknologi itu bias, menipu, dan berisiko terhadap privasi dan keamanan publik.
Didukung China
Regulator ruang siber China Cyberspace Administration of China (CAC) mengusulkan aturan untuk mengelola artificial intelligence (AI) generatif bagi perusahaan yang memberikan layanan berbasis teknologi tersebut.
CAC mengatakan China mendukung inovasi dan penggunaan AI, mereka juga mendukung penggunaan perangkat lunak, alat dan sumber data yang aman dan dapat dipercaya. Konten yang dibuat oleh AI generatif, menurut CAC, harus sejalan dengan paham yang dianut negara, seperti disiarkan Reuters.
Penyedia layanan bertanggung jawab untuk legitimasi data yang digunakan untuk melatih AI generatif dan mengambil langkah untuk mencegah diskriminasi ketika merancang algoritma dan melatih data.
CAC juga meminta penyedia layanan untuk mewajibkan pengguna memasukkan identitas asli dan informasi yang benar. Aturan tersebut akan memuat sanksi bagi penyedia layanan yang tidak patuh, dapat berupa denda, layanan ditangguhkan atau investigasi kriminal.
Jika terdapat konten yang tidak layak yang dihasilkan oleh AI generatif, CAC meminta penyedia layanan untuk memperbarui teknologi dalam waktu tiga bulan supaya kejadian serupa tidak terulang.
Aturan soal AI generatif di China akan berlaku mulai tahun ini, saat ini CAC membuka konsultasi publik untuk draf aturan tersebut. Sejumlah negara sedang merancang aturan untuk AI generatif demi memitigasi potensi bahaya yang bisa ditimbulkan teknologi yang sedang berkembang itu.
Baca Juga: Bagaimana Data Anda Tidak Dipakai Latih Model AI Grok di X?