Tinggi Risiko, Tata Kelola AI Perlu Dipertegas
18 May 2024 |
07:30 WIB
Artificial Intelligence (AI) telah menjadi bagian tak terpisahkan dari kehidupan sehari-hari, dengan hampir semua perangkat elektronik dilengkapi dengan kecerdasan buatan. Meskipun pemanfaatannya meluas, risiko terhadap keamanan data pribadi juga signifikan.
Direktur Eksekutif ELSAM Wahyudi Djafar menilai perlunya disiapkan sejumlah langkah mitigasi, termasuk melalui penyiapan beberapa pengaman (safeguard), dengan pengembangan kerangka regulasi. Kebutuhan mengenai regulasi AI tersebut katanya sejalan dengan Resolusi Majelis Umum PBB tentang memanfaatkan peluang sistem kecerdasan artifisial yang aman, terjamin, dan terpercaya untuk pembangunan berkelanjutan yang diadopsi pada 21 Maret 2024.
Baca juga: Pentingnya Keterampilan Terkait AI & Pemrograman di Dunia Kerja Modern
“Resolusi ini menjadi landmark resolution yang merekognisi pentingnya pengembangan AI yang aman, terjamin, dan dapat dipercaya,” ujarnya, dikutip Hypeabis.id, Jumat (17/5/2024).
Sejauh ini, negara-negara di dunia memang merespons secara beragam dalam pengembangan tata kelola AI. Amerika Serikat misalnya, pada Oktober 2023 telah mengeluarkan Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, yang setara dengan Peraturan Presiden. Kemudian Pada 8 Desember 2023, Parlemen Uni Eropa menyetujui AI Act (Undang-Undang AI), yang menekankan pendekatan berbasis risiko dalam tata kelola AI.
Regulasi di Uni Eropa ini membagi AI menjadi unacceptable risks (risiko yang tidak dapat diterima), high-risks (risiko tinggi), limited risks (risiko terbatas) dan minimal risks (risiko minimal). Pendekatan legislasi seperti Uni Eropa akan segera diikuti oleh Korea Selatan, Jepang, dan Taiwan di Asia.
Sementara pada level global, dalam pertemuan di Hiroshima pada Mei 2023, para pemimpin negara-negara G7 juga menyerukan pengembangan dan penerapan standar teknis untuk menjaga AI tetap dapat dipercaya, dan telah diluncurkan sebagai dokumen resmi pada 30 Oktober 2023.
Pun negara-negara Asean pada Februari 2024 telah menyetujui ASEAN Guide on AI Governance and Ethics, yang diharapkan dapat menjadi rujukan bagi negara-negara di kawasan ini dalam pengembangan sistem AI yang bertanggungjawab, termasuk model tata kelolanya.
Wahyudi menerangkan model tata kelola AI sendiri dapat menggunakan beberapa kerangka pendekatan sekaligus baik dari sisi teknologi, etika, dan hukum. Dari pendekatan teknologi, mencoba memahami apakah kecerdasan artifisial menghasilkan masalah yang pantas ditangani oleh hukum dan peraturan atau cukup menggunakan infrastruktur teknologi, misalnya melalui sejumlah skema standarisasi.
Sementara untuk pendekatan etika menekankan pada refleksi moralitas atau kehidupan yang baik. Sebagai contoh mengadopsi sejumlah prinsip seperti privasi, akuntabilitas, security and safety, transparansi, keadilan dan non-diskriminasi, kontrol manusia atas teknologi, hingga promosi nilai-nilai kemanusiaan.
“Pendekatan hukum mencoba memvisualisasikan bagaimana undang-undang yang ada dan berlaku mengikat terhadap kecerdasan artifisial,” terangnya.
Wahyudi menyampaikan Indonesia secara khusus melalui Kementerian Komunikasi dan Informatika (Kominfo) telah mengeluarkan Surat Edaran (SE) Menkominfo No. 9/2023 tentang Etika Kecerdasan Artifisial. Prinsip-prinsip etika dalam SE tersebut mengakomodasi sejumlah elemen, meliputi inklusivitas, kemanusiaan, keamanan, aksesibilitas, transparansi. Kemudian kredibilitas dan akuntabilitas, pelindungan data pribadi, pembangunan dan lingkungan berkelanjutan, serta kekayaan intelektual.
Kendati demikian, dalam perkembangannya, penting bagi Indonesia untuk mulai mengembangkan regulasi tata kelola kecerdasan artifisial yang lebih mengikat (legally binding) mengingat besarnya dampak dari pemanfaatan teknologi kecerdasan artifisial. “Tidak semata-mata menggunakan kerangka etika,” sebutnya.
Direktur Eksekutif ICT Institute Heru Sutadi mengatakan AI dapat menimbulkan dampak negatif seperti deepfake, teknik untuk sintesis citra manusia menggunakan kecerdasan buatan. Dengan demikian, AI dapat menimbulkan penyalahgunaan data, profil, hingga menyalahi etika.
Bicara etika dalam tata kelola AI, Heru menilai tidak cukup dengan surat edaran. Perlu aturan resmi baik dalam bentuk undang-undang atau peraturan menteri. “Idealnya membutuhkan undang-undang baru tentang pemanfaatan kecerdasan buatan. Perlu aturan yang lebih kuat dibandingkan surat edaran,” tegasnya melalui pesan singkat.
Saat ini, pemerintah dan DPR telah mengesahkan Undang-Undang Nomor 27/2022 tentang Perlindungan Data Pribadi (PDP) yang efektif berlaku pada 17 Oktober 2024. UU ini katanya harus menjadi acuan ketika AI dimanfaatkan. Artinya, setiap orang tidak bisa lagi memakai data orang tanpa izin, hingga memanipulasi data.
Tata kelola AI juga harus memperhatikan keamanan siber. Heru menyampaikan Indonesia sangat rentan terhadap serangan siber dan keamanan sibernya terbilang lemah. Ketika masuk ke era AI, eskalasi serangan akan meningkat baik dari segi kuantitas maupun kualitasnya. “Keamanan siber harus diperhatikan sebagai ancaman di era AI,” imbaunya.
Tata kelola AI menurutnya tidak bisa dilakukan hanya Kominfo saja. Pasalnya, Kominfo tidak memiliki domain yang luas untuk mengatur seluruh industri. Perlu kerja sama seluruh sektor, baik dari sisi kesehatan, keuangan/perbankan, hingga perindustrian. Sementara itu, sebagai teknologi baru, Heru berharap Indonesia tidak hanya sebagai konsumen atau target pasar saja. Indonesia harus menjadi kreator atau inovator untuk mendapat keuntungan dari AI.
Bicara soal etika AI, fotografer senior Arbain Rambey menilai etika dalam dunia fotografi merupakan masalah kesepakatan antar komunitas, terutama terkait apakah produk foto yang menggunakan AI memiliki nilai jual. Tidak masalah jika seorang fotografer menjual foto yang sudah melalui pengeditan menggunakan kecerdasan buatan.
“Asalkan pembelinya mau atau tidak. Berbeda jika konteksnya sudah menyangkut hak cipta yang sudah masuk ke ranah hukum. Hak cipta masalah hukum, hukum belum menerima,” tambah Arbain.
(Baca artikel Hypeabis.id lainnya di Google News)
Editor: Nirmala Aninda
Direktur Eksekutif ELSAM Wahyudi Djafar menilai perlunya disiapkan sejumlah langkah mitigasi, termasuk melalui penyiapan beberapa pengaman (safeguard), dengan pengembangan kerangka regulasi. Kebutuhan mengenai regulasi AI tersebut katanya sejalan dengan Resolusi Majelis Umum PBB tentang memanfaatkan peluang sistem kecerdasan artifisial yang aman, terjamin, dan terpercaya untuk pembangunan berkelanjutan yang diadopsi pada 21 Maret 2024.
Baca juga: Pentingnya Keterampilan Terkait AI & Pemrograman di Dunia Kerja Modern
“Resolusi ini menjadi landmark resolution yang merekognisi pentingnya pengembangan AI yang aman, terjamin, dan dapat dipercaya,” ujarnya, dikutip Hypeabis.id, Jumat (17/5/2024).
Sejauh ini, negara-negara di dunia memang merespons secara beragam dalam pengembangan tata kelola AI. Amerika Serikat misalnya, pada Oktober 2023 telah mengeluarkan Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, yang setara dengan Peraturan Presiden. Kemudian Pada 8 Desember 2023, Parlemen Uni Eropa menyetujui AI Act (Undang-Undang AI), yang menekankan pendekatan berbasis risiko dalam tata kelola AI.
Regulasi di Uni Eropa ini membagi AI menjadi unacceptable risks (risiko yang tidak dapat diterima), high-risks (risiko tinggi), limited risks (risiko terbatas) dan minimal risks (risiko minimal). Pendekatan legislasi seperti Uni Eropa akan segera diikuti oleh Korea Selatan, Jepang, dan Taiwan di Asia.
Sementara pada level global, dalam pertemuan di Hiroshima pada Mei 2023, para pemimpin negara-negara G7 juga menyerukan pengembangan dan penerapan standar teknis untuk menjaga AI tetap dapat dipercaya, dan telah diluncurkan sebagai dokumen resmi pada 30 Oktober 2023.
Pun negara-negara Asean pada Februari 2024 telah menyetujui ASEAN Guide on AI Governance and Ethics, yang diharapkan dapat menjadi rujukan bagi negara-negara di kawasan ini dalam pengembangan sistem AI yang bertanggungjawab, termasuk model tata kelolanya.
Wahyudi menerangkan model tata kelola AI sendiri dapat menggunakan beberapa kerangka pendekatan sekaligus baik dari sisi teknologi, etika, dan hukum. Dari pendekatan teknologi, mencoba memahami apakah kecerdasan artifisial menghasilkan masalah yang pantas ditangani oleh hukum dan peraturan atau cukup menggunakan infrastruktur teknologi, misalnya melalui sejumlah skema standarisasi.
Sementara untuk pendekatan etika menekankan pada refleksi moralitas atau kehidupan yang baik. Sebagai contoh mengadopsi sejumlah prinsip seperti privasi, akuntabilitas, security and safety, transparansi, keadilan dan non-diskriminasi, kontrol manusia atas teknologi, hingga promosi nilai-nilai kemanusiaan.
“Pendekatan hukum mencoba memvisualisasikan bagaimana undang-undang yang ada dan berlaku mengikat terhadap kecerdasan artifisial,” terangnya.
Ilustrasi manusia vs AI. (Sumber foto: Pexels/Pavel Danilyuk)
Kendati demikian, dalam perkembangannya, penting bagi Indonesia untuk mulai mengembangkan regulasi tata kelola kecerdasan artifisial yang lebih mengikat (legally binding) mengingat besarnya dampak dari pemanfaatan teknologi kecerdasan artifisial. “Tidak semata-mata menggunakan kerangka etika,” sebutnya.
Direktur Eksekutif ICT Institute Heru Sutadi mengatakan AI dapat menimbulkan dampak negatif seperti deepfake, teknik untuk sintesis citra manusia menggunakan kecerdasan buatan. Dengan demikian, AI dapat menimbulkan penyalahgunaan data, profil, hingga menyalahi etika.
Bicara etika dalam tata kelola AI, Heru menilai tidak cukup dengan surat edaran. Perlu aturan resmi baik dalam bentuk undang-undang atau peraturan menteri. “Idealnya membutuhkan undang-undang baru tentang pemanfaatan kecerdasan buatan. Perlu aturan yang lebih kuat dibandingkan surat edaran,” tegasnya melalui pesan singkat.
Saat ini, pemerintah dan DPR telah mengesahkan Undang-Undang Nomor 27/2022 tentang Perlindungan Data Pribadi (PDP) yang efektif berlaku pada 17 Oktober 2024. UU ini katanya harus menjadi acuan ketika AI dimanfaatkan. Artinya, setiap orang tidak bisa lagi memakai data orang tanpa izin, hingga memanipulasi data.
Tata kelola AI juga harus memperhatikan keamanan siber. Heru menyampaikan Indonesia sangat rentan terhadap serangan siber dan keamanan sibernya terbilang lemah. Ketika masuk ke era AI, eskalasi serangan akan meningkat baik dari segi kuantitas maupun kualitasnya. “Keamanan siber harus diperhatikan sebagai ancaman di era AI,” imbaunya.
Tata kelola AI menurutnya tidak bisa dilakukan hanya Kominfo saja. Pasalnya, Kominfo tidak memiliki domain yang luas untuk mengatur seluruh industri. Perlu kerja sama seluruh sektor, baik dari sisi kesehatan, keuangan/perbankan, hingga perindustrian. Sementara itu, sebagai teknologi baru, Heru berharap Indonesia tidak hanya sebagai konsumen atau target pasar saja. Indonesia harus menjadi kreator atau inovator untuk mendapat keuntungan dari AI.
Bicara soal etika AI, fotografer senior Arbain Rambey menilai etika dalam dunia fotografi merupakan masalah kesepakatan antar komunitas, terutama terkait apakah produk foto yang menggunakan AI memiliki nilai jual. Tidak masalah jika seorang fotografer menjual foto yang sudah melalui pengeditan menggunakan kecerdasan buatan.
“Asalkan pembelinya mau atau tidak. Berbeda jika konteksnya sudah menyangkut hak cipta yang sudah masuk ke ranah hukum. Hak cipta masalah hukum, hukum belum menerima,” tambah Arbain.
(Baca artikel Hypeabis.id lainnya di Google News)
Editor: Nirmala Aninda
Komentar
Silahkan Login terlebih dahulu untuk meninggalkan komentar.