Informasi Terpercaya Masa Kini

AI Safety Clock: Risiko Ancaman AI, IMD Serukan Ketatkan Regulasi

0 3

The Institute of Management Development (IMD) dan tim ahli dari TONOMUS Global Center for Digital and AI Transformation membuat “AI Safety Clock” (Jam Keamanan AI). Jam ini menjadi indikator seberapa tinggi risiko perkembangan Kecerdasan Buatan Umum (Artificial General Intelligence/ AGI) hingga menjadi tidak terkendali. AGI merupakan sistem AI yang bisa beroperasi mandiri tanpa bantuan dan pengawasan manusia, sehingga berpotensi membahayakan.

Lalu seberapa berbahaya ancaman AI bagi umat manusia saat ini? Menurut Michael Wade, Director Global Center for Digital Business Transformation IMD, sekaligus Director of the TONOMUS Global Center for Digital and AI Transformation terdapat empat fase risiko AGI yang tidak terkendali, yakni: risiko rendah, sedang, tinggi, dan kritis. Saat ini, dunia mulai memasuki fase risiko tinggi.

“Perkembangan AGI saat ini kita sedang beralih dari fase risiko sedang ke risiko tinggi. Ketika perkembagan AGI menjadi kritis dan tidak terkendali, hal itu akan menjadi petaka bagi umat manusia. Risikonya serius, tetapi belum terlambat untuk bertindak,” jelas Wade.

“Regulasi yang efektif dan terpadu bisa membatasi risiko terburuk perkembangan teknologi ini tanpa mengurangi manfaatnya. Untuk itu, kami menyerukan kepada para pelaku internasional dan perusahaan teknologi raksasa untuk melakukan pencegahan demi kebaikan kita semua,” tegasnya.

Ketika perkembangan AGI menjadi tidak lagi bisa dikendalikan manusia, maka hal ini bisa menjadi musibah bagi dunia, contohnya:

• Ketika AI mengambil alih dan mengendalikan persenjataan konvensional, mulai dari senjata nuklir, biologi, atau kimia. China saat ini sedang mempercepat komersialisasi robot humanoid, termasuk penerapannya di infrastruktur sensitif seperti jaringan listrik dan pembangkit listrik tenaga nuklir;

• AI digunakan untuk memanipulasi atau mengganggu pasar keuangan;

• AI dipakai memanipulasi atau mengganggu infrastruktur penting, seperti energi, transportasi, komunikasi, air, dll;

• Penggunaan AI untuk manipulasi atau mengganggu sistem politik, jaringan sosial, dan ekosistem biologis dan lingkungan;

• Ancaman langsung AI terhadap nyawa manusia.

AI berisiko tinggi

Ada dua perkembangan AI yang mendorong peningkatan risiko dari sedang menjadi tinggi: AI multimoda (AI multimodal) dan AI agen (agentic AI). AI multimoda bisa memproses dan mengintegrasikan beberapa jenis input (seperti teks, gambar, audio) untuk menyelesaikan tugas yang lebih kompleks, contohnya adalah GPT-4o, Gemini Ultra, dan Pixtral 12B.

Sementara AI agen mengacu pada sistem AI yang mampu merencanakan, bertindak, dan membuat keputusan secara otonom. Saat ini AI agen tengah berkembang pesat. Perkembangan AI agen memang mendorong kemajuan AGI, namun berpotensi menjadi bencana ketika sistem ini menjadi tidak terkendali setelah digabungkan dengan teknologi lain.

Contoh lainnya adalah perkembangan robot humanoid yang ditenagai oleh AI generatif. AI generatif digunakan agar robot humanoid ini bisa beroperasi dan mengambil keputusan secara mandiri. NVIDIA tengah bermitra dengan perusahaan robotika untuk mengembangkan model dasar untuk robot humanoid semacam ini.

Kemajuan teknologi ini memang menarik, namun bisa menjadi ancaman tersembunyi bagi manusia. Pengawasan yang cermat dan manajemen yang bertanggung jawab penting agar penerapan AI lebih aman dan tidak menjadi ‘senjata makan tuan’.

Pentingnya regulasi

Dalam sejarah, regulasi sering kali keluar lebih lambat dari perkembangan teknologi dan inovasi. Saat ini, terdapat sejumlah inisiatif seperti EU AI Act, California’s SB 1047, dan Council of Europe’s Framework Convention on AI yang bisa menjadi acuan aturan AI. Selain aturan dan kebijakan pemerintah, semua pemangku kepentingan, terutama perusahaan yang mengembangkan model AI seperti OpenAI, Meta, dan Alphabet, memainkan peran yang sama besar untuk mengurangi risiko AI.

Untuk praktik keselamatan AI, sejumlah perusahaan teknologi pengembang AI telah mencoba menerapkan regulasi pengamanan. OpenAI telah menyediakan Preparedness Framework, Alphabet memiliki Google DeepMind Frontier Safety Framework, dan Anthropic menyiapkan Responsible Scaling Policy (RSP). Berbagai kerangka kerja ini merupakan langkah penting menjaga keselamatan AI, namun masih diperlukan transparansi dan penegakan langkah praktis yang lebih baik.

AI Safety Clock (Jam Keamanan AI) ini dibuat untuk meningkatkan kesadaran dan diskusi konstruktif bagi publik, pembuat kebijakan, dan pemimpin bisnis tentang keamanan AI. Jam Keamanan AI dibuat dengan membuat analisis terhadap teknologi dan pengumuman dari lebih dari 3.500 perusahaan dan pemerintah di seluruh dunia.

Leave a comment