Informasi Terpercaya Masa Kini

Mengelola Artificial Intelligence Melalui AI Governance dan Management System (Bagian I)

0 16

BARU-baru ini, pada awal Oktober 2024, John J. Hopfield dan Geoffrey E. Hinton dinyatakan sebegai Pemenang Nobel Fisika 2024.

John J. Hopfield dan Geoffrey E. Hinton dianugerahi penghargaan atas penemuan dan inovasi mendasar yang memungkinkan machine learning menggunakan artificial neural network, sebuah dasar penting bagi perkembangan AI saat ini.

Hopfield dikenal dengan “Hopfield Networks”, salah satu jaringan saraf pertama yang menunjukkan bagaimana sistem memori dapat direpresentasikan dalam struktur matematika.

Sementara Hinton, dikenal sebagai “Godfather of AI”. Dia dan rekan-rekannya membantu mengembangkan artificial neural network, teknologi inti dari machine learning. Karya dasarnya membantu mendorong perkembangan AI yang pesat.

Selain itu, pemenang Nobel Kimia 2024, Demis Hassabis dan John Jumper dianugerahi perhargaan karena telah mengembangkan model AI untuk memecahkan masalah yang sudah berusia 50 tahun, yaitu memprediksi struktur kompleks protein.

Dua penghargaan Nobel ini menunjukkan kepada kita bagaimana AI menjadi kilasan masa depan sains.

Sementara itu, Brooking Institution menyatakan bahwa siapa yang memimpin bidang AI pada tahun 2030, akan memimpin dunia hingga 2100.

Pun, tingkat investasi pribadi di bidang Generative AI terus meningkat. Bahkan investasi ini pada 2023 mencapai 5 kali lipat daripada tahun sebelumnya.

Bahkan, menurut survey dari McKinsey, sebagian organisasi sudah menggunakan lebih dari 20 persen dari anggaran digital mereka dalam AI generatif dan AI analitis. Apakah hal ini hanya sekedar hype atau realitas? No one knows.

Di sisi lain, dengan berbagai hype perkembangan AI yang ada, Geoffrey E. Hinton yang dikenal sebagai ”Godfather of AI”, keluar dari Google, mundur dari jabatannya sebagai pemimpin Google AI pada 2023.

Hal ini dilakukannya agar bisa lebih bebas dalam menyatakan pendapat mengenai bahaya AI. Hinton merasa khawatir terhadap perkembangan AI yang begitu cepat berisiko bagi manusia.

“Namun, kita juga harus mengkhawatirkan sejumlah kemungkinan konsekuensi buruk. Terutama ancaman hal-hal ini menjadi tidak terkendali,” katanya dilansir Reuters, Rabu (9/10/2024).

Menurut Hinton, potensi dan batasan AI sulit untuk diketahui. Ini menjadi keresahan sendiri baginya, terutama dalam melihat sisi buruk AI. Dia bahkan mengaku menyesal atas gagasannya yang dibuat saat bekerja di Google.

Konsekuensi AI

Salah satu potensi konsekuensi buruknya AI dikhawatirkan dapat menggantikan manusia di beberapa pekerjaan.

Pada awal tahun lalu, Google dikabarkan mengumumkan melakukan pemutusan hubungan kerja (PHK) terhadap ratusan karyawan di berbagai divisi seperti hardware, voice assistant dan tim teknik sebagai bagian dari langkah pemangkasan biaya. PHK karyawan Google dipicu pergeseran fokus ke arah kecerdasan buatan (AI).

Begitu pula dengan beberapa perusahaan lain, seperti pada awal 2023, IBM memperlambat atau menangguhkan perekrutan untuk pekerjaan apa pun yang dapat dilakukan oleh AI. Secara total AI dapat menggantikan hingga 7.800 pekerjaan.

Belum lagi berita maraknya penggunaan driverless taxi. Di China, penggunaan robotaxi/ robobus – taksi/kendaraan tanpa driver – telah diuji coba di 19 kota.

Bahkan di 7 kota di antaranya sudah diizinkan untuk mengoperasikan robotaxi tanpa human-driver monitor, termasuk di antaranya di Beijing, Shanghai, Wuhan, Chongqing.

Ditambah lagi, adopsi Robotaxi ini didukung oleh pemerintah dengan kemudahan izin demi mendukung tujuan ekonomi.

Adopsi yang cepat dari taksi tanpa pengemudi/robotaxi dan robobus ini tentu saja telah mengguncang tenaga kerja level bawah di China, yang telah menderita sebelumnya akibat upah yang stagnan karena deflasi yang mengintai ekonomi setelah pandemi virus corona.

Gelombang kekhawatiran pada AI dilengkapi oleh kekhawatiran Daron Acemoglu, pemenang Nobel Ekonomi 2024.

Acemoglu mengkhawatirkan AI menambah disparitas, yang menambah gap hingga benar-benar membelah umat manusia menjadi klaster sangat kaya dan klaser sangat miskin.

Hal ini sudah dan sedang terjadi bila tidak ada intervensi yang tepat. Dan ini lebih mengkhawatirkan bagi Acemoglu ketimbang isu Singularitas.

“Data baru menunjukkan sebagian besar pertumbuhan kesenjangan upah sejak 1980 berasal dari otomatisasi yang menggantikan pekerja berpendidikan rendah,” ujar Peter Dizikes dalam MIT News.

Tiago C. Peixoto, Otaviano Canuto, and Luke Jordan menuliskan dalam “AI and the Future of Government: Unexpected Effects and Critical Challenges”, berdasarkan fakta yang dapat diamati, makalah kebijakan ini mengeksplorasi beberapa cara yang kurang diakui namun sangat penting di mana kecerdasan buatan (AI) dapat memengaruhi sektor publik dan perannya.

Fokusnya adalah pada area-area di mana pengaruh AI mungkin diremehkan saat ini, tetapi memiliki implikasi substansial bagi kebijakan dan tindakan pemerintah di masa mendatang.

“Kami mengidentifikasi empat area dampak utama yang dapat mendefinisikan ulang peran sektor publik, memerlukan jawaban baru darinya, atau keduanya. Area-area ini adalah munculnya kesenjangan digital berbasis bahasa baru, pemindahan pekerjaan dalam administrasi publik, gangguan dalam mobilisasi pendapatan, dan menurunnya respons pemerintah,” tulis mereka.

Kembali mengambil inspirasi dari gagasan Acemoglu, seharusnya AI dikawal ketat dengan komitmen dan integritas serta efektifitas institusi politik yang visioner serta lembaga-lembaga di bawahnya memastikan AI di Indonesia benar-benar memihak wong cilik dan meningkatkan kualitas kehidupan manusia Indonesia keseluruhan.

Selain potensi dampak penggantian pekerja oleh AI secara masal, tentu kita dapat melihat berbagai kegagalan dan risiko AI lain.

Contoh fenomenalnya adalah AI Google Flu Failure, yakni laporan Google Flu berlebih memperkirakan angka jumlah kasus flu hampir 100 persen (100 dari 108 minggu).

Google Flu kala itu jauh lebih tidak teliti daripada sebuah model sederhana. Mereka memprediksikan jumlah kasus flu di beberapa minggu yang akan datang akan sama jumlah kasus flu minggu lalu, dua minggu lalu, atau tiga minggu yang lalu.

Ada pula Chatbot Microsoft, Tay, bertindak rasis, misoginis, dan anti-Semit sekalipun mereka sangat efektif dengan memproduksi 95.000 tweet dalam 16 jam.

Sementara Amazon juga membatalkan sistem AI rekrutmen pekerja karena hanya merekomendasikan calon pekerja pria.

Hal ini terjadi karena program tersebut di-training menggunakan data riwayat perekrutan Amazon selama 10 tahun, yang didominasi oleh aplikasi dari pria.

Algoritma AI kemudian mempelajari pola ini dan secara tidak sadar memberikan preferensi kepada kandidat laki-laki, dan mengabaikan bahkan memberi peringkat lebih rendah pada kandidat perempuan.

Bahkan diberitakan Chatbot AI diduga mendorong pria Belgia untuk bunuh diri. Awalnya seorang pria di Belgia yang cemas dengan lingkungan mengobrol dengan Chatbot AI bernama Eliza selama 6 minggu.

Berdasarkan tangkapan hasil percakapan, Eliza mendorong pria tersebut untuk melakukan bunuh diri.

Pria tersebut membagikan pemikiran bunuh dirinya kepada chatbot tersebut, di mana chatbot tersebut tidak berusaha mencegahnya untuk menindaklanjuti pemikiran tersebut, malah mendorong untuk melakukannya dengan segera.

Bila internet dibanjiri dengan laman yang membenarkan Teori Bumi Datar, maka bisa jadi AI yang memang berdasarkan Statistical Machine Learning, akan mendorong masyarakat dunia lebih percaya pada Teori Bumi Datar.

Baru-baru ini, terdapat prediksi dimana krisis keuangan berikutnya bisa disebabkan oleh AI. AI diprediksi menyebabkan krisis keuangan paling cepat akhir tahun 2020-an atau awal tahun 2030-an karena ketergantungan model yang dikembangkan dapat menyebabkan kekacauan ekonomi.

Resesi dapat terjadi di pasar perumahan atau ekuitas karena segelintir bank yang kuat mengandalkan beberapa algoritma yang bias. Kekhawatiran utama AI dalam industri jasa keuangan adalah kompleksitas algoritma, kurangnya transparansi, dan informasi yang bias.

Bias bahaya AI

Bagaimana Bias AI berbahaya? Pada dasarnya terdapat tiga kategori bias AI yang perlu kita pahami sehingga kita dapat membangun pendekatan baru untuk menganalisis, mengelola, dan mengurangi bias, serta mulai memahami bagaimana bias-bias ini saling berinteraksi.

Pertama, bias sistemik. Bias sistemik dihasilkan dari prosedur dan praktik institusi tertentu yang beroperasi dengan cara yang mengakibatkan kelompok sosial tertentu diuntungkan atau disukai dan yang lain tidak diuntungkan atau direndahkan.

Hal ini tidak harus merupakan akibat dari prasangka atau diskriminasi yang disadari, melainkan dari mayoritas yang mengikuti aturan atau norma yang ada. Rasisme institusional dan seksisme adalah contoh paling umum.

Berikutnya bias statistik dan komputasi yang berasal dari kesalahan yang dihasilkan ketika sampel tidak mewakili populasi.

Bias ini muncul dari kesalahan sistematis yang bertentangan dengan kesalahan acak dan dapat terjadi tanpa adanya prasangka, keberpihakan, atau niat diskriminatif.

Terakhir, bias manusia, yakni representasi kesalahan sistematis dalam pemikiran manusia berdasarkan sejumlah prinsip heuristik dan memprediksi nilai untuk operasi penilaian yang lebih sederhana.

Pengkategorian bias AI ini mewakili risiko dan kerentanan utama yang perlu diperhatikan dalam merancang, mengembangkan, menerapkan, mengevaluasi, menggunakan, atau mengaudit aplikasi AI.

Sementara itu, menurut AI Act – regulasi tentang AI di Uni Eropa yang mulai berlaku pada 1 Agustus 2024 yang lalu – AI diklasifikasikan berdasarkan tingkat risikonya.

AI tingkat unacceptable risk (risiko tidak dapat diterima) harus dilarang (contohnya: sistem pemeringkatan sosial dan AI manipulatif). AI dengan high-risk akan diatur secara ketat, di mana sebagian besar isi regulasi berfokus pada sistem AI berisiko tinggi.

AI dengan limited risk (risiko terbatas) harus tunduk pada kewajiban transparansi yang lebih ringan di mana pengembang dan pengguna harus memastikan bahwa pengguna akhir (end user) sadar sedang berinteraksi dengan AI (seperti chatbot dan deepfake).

Sedangkan penggunaan AI dengan minimal risk tidak diatur. Yaitu mencakup sebagian besar aplikasi AI yang tersedia di pasar tunggal Uni Eropa saat ini, seperti video game berbasis AI dan filter spam (setidaknya hingga tahun 2021; walaupun situasi ini berubah seiring dengan hadirnya generative AI).

Selain berbagai risiko yang telah dijelaskan, terdapat berbagai tantangan lainnya dalam pengembangan AI ke depannya. Salah satu yang cukup penting, yaitu terkait AI Ethical Issue.

Pengembangan AI menimbulkan kekhawatiran terkait pelanggaran privasi, dan dampak sosial, sehingga perlu keseimbangan antara inovasi teknologi dan penggunaan yang transparan dan menghormati HAM.

Sistem AI yang bergantung data jumlah besar, akan sangat penting dalam menjaga privasi dan keamanan melalui enkripsi yang kuat, data anonymization, dan kepatuhan pada regulasi agar tetap menjaga kepercayaan pengguna.

Menata Sistem AI

Karena itu, transparansi AI penting dalam membangun kepercayaan dan akuntabilitas, yang dapat dicapai melalui praktik AI yang etis, mengatasi bias, dan memungkinkan pengambilan keputusan yang tepat.

Sistem AI bahkan dapat secara tidak sengaja memperkuat bias sosial dan menyebabkan perlakuan diskriminatif terhadap individu/kelompok, sehingga diperlukan pendekatan seperti fairness-aware machine learning dan sistem AI yang adil serta transparan.

Kerahasiaan data penting untuk memastikan informasi pribadi tidak diakses oleh pihak tidak berwenang, sehingga organisasi perlu menerapkan mekanisme keamanan ketat dan mematuhi UU kerahasiaan data untuk membangun kepercayaan user.

Dengan sendirinya, masalah hukum dalam AI mencakup tanggung jawab, hak kekayaan intelektual, dan kepatuhan regulasi, sehingga diperlukan peraturan yang jelas untuk menyeimbangkan inovasi dengan akuntabilitas.

Lalu, integrasi AI ke dalam sistem yang ada memerlukan penyesuaian model AI, kolaborasi ahli, serta pelatihan karyawan, sehingga penting merencanakan secara strategis agar integrasi berjalan lancar dan mendukung efektivitas operasional.

Hal ini implikasi dari kebutuhan daya komputasi yang tinggi dari AI yang menyebabkan peningkatan biaya dan konsumsi energi, sehingga penting untuk mengelola sumber daya dengan efisien melalui inovasi hardware dan cloud service.

Jangan lupakan pula potensi malfungsi software AI yang dapat menimbulkan risiko serius seperti kegagalan sistem atau serangan siber, sehingga penting untuk menerapkan testing dan QA yang ketat, mekanisme error-handling yang kuat, serta budaya transparasi dan akuntabilitas.

Dari sisi wawasan, ada keterbatasan pengetahuan tentang AI di masyarakat yang dapat menghambat pengambilan keputusan tepat, sehingga penting mengembangkan pendidikan dan sumber daya yang dapat diakses untuk meningkatkan pemahaman serta penggunaan AI secara bertanggung jawab.

Kesulitan dalam memahami bagaimana sistem AI mencapai kesimpulannya dapat menyebabkan keraguan dan kurangnya kepercayaan dari pengguna, sehingga diperlukan wawasan tentang logika algoritme AI.

Padahal di sisi lain, ada ekspektasi tinggi dan tidak realistis khalayak terhadap kemampuan AI yang dapat menyebabkan kekecewaan, sehingga penting menyediakan edukasi dan program literasi mengenai penggunaan dan batasan AI bagi para stakeholder.

Terakhir, agar AI dapat digunakan secara efektif diperlukan strategi implementasi yang meliputi pemilihan use case yang sesuai dengan tujuan bisnis, evaluasi kelayakan dan kualitas data, pemilihan algoritme/model yang tepat.

Maka, mengingat berbagai risiko AI yang diuraikan di atas, perlu untuk selalu diingat bahwa AI bukan hanya suatu tongkat simsalabim yang bisa mewujudkan berbagai mimpi dan keajaiban teknologi, tapi juga mengadung risiko bagi institusi yang menggunakan, masyarakat maupun negara.

Penerapannya membutuhkan pengaturan yang wise, tepat sasaran sembari meminimasi risikonya. Maka sebenarnya, bagaimana-kah pengaturan AI yang ideal ? (Bersambung)

Leave a comment