Pakar Peringatkan, Risiko AI Sudah Memasuki Level Tinggi
03 October 2024 |
15:30 WIB
Perkembangan kecerdasan buatan (AI) yang pesat menimbulkan kekhawatiran di berbagai kalangan, terutama terkait dengan pengembangan Artificial General Intelligence (AGI). Jika tidak dikendalikan, teknologi yang diharapkan membantu manusia ini bisa berbalik menjadi ancaman.
AGI adalah cabang penelitian AI yang bertujuan mengembangkan perangkat lunak dengan kecerdasan mirip manusia dan kemampuan untuk belajar mandiri. Perangkat lunak ini diharapkan dapat melakukan tugas-tugas yang belum diprogram secara spesifik.
Baca juga: Artificial Intelligence (AI) Bukan Ancaman buat Pekerja Kreatif, Tetapi Teman
Saat ini, AI hanya berfungsi dalam batasan yang telah ditentukan sebelumnya. Umpamanya, model AI yang dilatih untuk mengenali dan membuat gambar tidak bisa digunakan untuk membangun situs web.
AGI berupaya menciptakan sistem AI dengan otonomi, pemahaman diri, dan kemampuan untuk mempelajari keterampilan baru, yang memungkinkan sistem ini menyelesaikan masalah kompleks yang tidak dipelajari sebelumnya. Namun, AGI dengan kecerdasan setara manusia masih bersifat teoretis dan menjadi fokus penelitian.
Menanggapi hal ini, Institute of Management Development (IMD) bersama TONOMUS Global Center for Digital and AI Transformation mengembangkan "AI Safety Clock" atau Jam Keamanan AI. Jam ini menunjukkan tingkat risiko yang dihasilkan dari pengembangan AGI yang berpotensi tidak terkendali. AGI adalah sistem AI yang dapat beroperasi secara mandiri tanpa campur tangan manusia, sehingga menghadirkan risiko signifikan.
Michael Wade, Direktur Global Center for Digital Business Transformation IMD sekaligus Direktur TONOMUS Global Center for Digital and AI Transformation, menjelaskan bahwa ada empat fase risiko AGI, yaitu rendah, sedang, tinggi, dan kritis. Saat ini, dunia mulai memasuki fase risiko tinggi.
"Perkembangan AGI sedang beralih dari risiko sedang ke tinggi. Jika perkembangan ini menjadi kritis dan tidak terkendali, akan menjadi bencana bagi umat manusia. Risikonya serius, tetapi masih ada waktu untuk bertindak," ungkap Wade dalam keterangan tertulisnya, dikutip Kamis (3/10/2024).
Dia menekankan pentingnya regulasi yang terpadu untuk membatasi risiko tanpa menghalangi manfaat teknologi. Wade mengajak pelaku internasional dan perusahaan teknologi untuk berperan aktif dalam upaya pencegahan demi kebaikan bersama.
AGI yang tidak terkendali dapat menimbulkan bahaya besar, seperti AI yang mengendalikan persenjataan konvensional, termasuk senjata nuklir, biologi, dan kimia. China, misalnya, sedang mempercepat komersialisasi robot humanoid yang diterapkan pada infrastruktur penting, seperti jaringan listrik dan pembangkit tenaga nuklir.
Selain itu, AI bisa digunakan untuk mengganggu pasar keuangan, infrastruktur kritis seperti energi dan transportasi, hingga sistem politik dan sosial. Ancaman langsung terhadap kehidupan manusia juga menjadi perhatian serius.
Saat ini, terdapat dua tren utama yang mendorong peningkatan risiko dari sedang ke tinggi adalah AI multimoda dan agen AI. AI multimoda mampu mengintegrasikan berbagai jenis input seperti teks, gambar, dan audio untuk menyelesaikan tugas kompleks. Contohnya adalah GPT-4o, Gemini Ultra, dan Pixtral 12B. Sementara itu, agen AI merujuk pada sistem yang dapat merencanakan, bertindak, dan membuat keputusan secara otonom, yang saat ini tengah berkembang pesat.
Perkembangan robot humanoid berbasis AI generatif juga menambah kekhawatiran. NVIDIA, misalnya, bermitra dengan perusahaan robotika untuk mengembangkan model dasar robot humanoid yang dapat beroperasi secara mandiri.
Kemajuan ini memang menarik, namun bisa menjadi ancaman tersembunyi jika tidak diawasi dengan cermat dan dikelola secara bertanggung jawab.
Regulasi sering kali tertinggal dibanding perkembangan teknologi. Saat ini, beberapa inisiatif seperti EU AI Act, California’s SB 1047, dan Council of Europe’s Framework Convention on AI menjadi rujukan dalam mengatur AI. Selain itu, perusahaan besar seperti OpenAI, Meta, dan Alphabet turut berperan dalam mengurangi risiko AI.
Sejumlah perusahaan teknologi telah menerapkan kerangka keselamatan AI, seperti Preparedness Framework dari OpenAI, Google DeepMind Frontier Safety Framework dari Alphabet, dan Responsible Scaling Policy dari Anthropic. Meski demikian, masih diperlukan transparansi dan penegakan yang lebih baik.
AI Safety Clock dirancang untuk meningkatkan kesadaran publik dan memfasilitasi diskusi konstruktif tentang keamanan AI. Jam ini dibuat dengan menganalisis lebih dari 3.500 perusahaan dan pemerintah di seluruh dunia.
Indonesia juga tidak ketinggalan dalam menyambut era kecerdasan buatan. Kementerian Komunikasi dan Informatika (Kominfo) telah menerbitkan Surat Edaran Nomor 9 Tahun 2023 tentang Etika Kecerdasan Artifisial. Wamenkominfo Nezar Patria menyatakan bahwa pemerintah mendukung pengembangan AI dengan menyediakan panduan etika.
"Regulasi ini mengedepankan prinsip inovasi. Kami tidak ingin menghambat inovasi yang muncul," kata Nezar dikutip dari laman resmi Kemenkominfo.
Menurutnya, pemerintah terus memantau perkembangan adopsi AI di Indonesia dan di tingkat global. Misalnya, dalam forum UNESCO di Slovenia, etika AI menjadi topik penting yang dibahas.
Saat ini, penggunaan AI di berbagai sektor di Indonesia, seperti kesehatan, transportasi, dan layanan keuangan, semakin meluas. Pemerintah berupaya menyusun panduan bagi pengembang dan pengguna AI agar manfaatnya bisa dioptimalkan tanpa mengabaikan risikonya. Panduan ini menekankan inklusivitas, keamanan, perlindungan data, dan keberlanjutan lingkungan, serta hak kekayaan intelektual.
Nezar menambahkan bahwa Indonesia memiliki sejumlah regulasi yang bisa meminimalkan risiko penggunaan AI, seperti Undang-Undang Perlindungan Data Pribadi dan peraturan terkait sistem elektronik. Meskipun regulasi ini tidak secara spesifik mengatur AI, mereka dapat membantu menekan dampak negatif yang dihasilkan dari pengembangan teknologi ini.
Baca juga: Pentingnya Perlindungan Data Pribadi pada Era Artificial Intelligence
Editor: M. Taufikul Basari
AGI adalah cabang penelitian AI yang bertujuan mengembangkan perangkat lunak dengan kecerdasan mirip manusia dan kemampuan untuk belajar mandiri. Perangkat lunak ini diharapkan dapat melakukan tugas-tugas yang belum diprogram secara spesifik.
Baca juga: Artificial Intelligence (AI) Bukan Ancaman buat Pekerja Kreatif, Tetapi Teman
Saat ini, AI hanya berfungsi dalam batasan yang telah ditentukan sebelumnya. Umpamanya, model AI yang dilatih untuk mengenali dan membuat gambar tidak bisa digunakan untuk membangun situs web.
AGI berupaya menciptakan sistem AI dengan otonomi, pemahaman diri, dan kemampuan untuk mempelajari keterampilan baru, yang memungkinkan sistem ini menyelesaikan masalah kompleks yang tidak dipelajari sebelumnya. Namun, AGI dengan kecerdasan setara manusia masih bersifat teoretis dan menjadi fokus penelitian.
Menanggapi hal ini, Institute of Management Development (IMD) bersama TONOMUS Global Center for Digital and AI Transformation mengembangkan "AI Safety Clock" atau Jam Keamanan AI. Jam ini menunjukkan tingkat risiko yang dihasilkan dari pengembangan AGI yang berpotensi tidak terkendali. AGI adalah sistem AI yang dapat beroperasi secara mandiri tanpa campur tangan manusia, sehingga menghadirkan risiko signifikan.
Michael Wade, Direktur Global Center for Digital Business Transformation IMD sekaligus Direktur TONOMUS Global Center for Digital and AI Transformation, menjelaskan bahwa ada empat fase risiko AGI, yaitu rendah, sedang, tinggi, dan kritis. Saat ini, dunia mulai memasuki fase risiko tinggi.
"Perkembangan AGI sedang beralih dari risiko sedang ke tinggi. Jika perkembangan ini menjadi kritis dan tidak terkendali, akan menjadi bencana bagi umat manusia. Risikonya serius, tetapi masih ada waktu untuk bertindak," ungkap Wade dalam keterangan tertulisnya, dikutip Kamis (3/10/2024).
Dia menekankan pentingnya regulasi yang terpadu untuk membatasi risiko tanpa menghalangi manfaat teknologi. Wade mengajak pelaku internasional dan perusahaan teknologi untuk berperan aktif dalam upaya pencegahan demi kebaikan bersama.
AGI yang tidak terkendali dapat menimbulkan bahaya besar, seperti AI yang mengendalikan persenjataan konvensional, termasuk senjata nuklir, biologi, dan kimia. China, misalnya, sedang mempercepat komersialisasi robot humanoid yang diterapkan pada infrastruktur penting, seperti jaringan listrik dan pembangkit tenaga nuklir.
Selain itu, AI bisa digunakan untuk mengganggu pasar keuangan, infrastruktur kritis seperti energi dan transportasi, hingga sistem politik dan sosial. Ancaman langsung terhadap kehidupan manusia juga menjadi perhatian serius.
Saat ini, terdapat dua tren utama yang mendorong peningkatan risiko dari sedang ke tinggi adalah AI multimoda dan agen AI. AI multimoda mampu mengintegrasikan berbagai jenis input seperti teks, gambar, dan audio untuk menyelesaikan tugas kompleks. Contohnya adalah GPT-4o, Gemini Ultra, dan Pixtral 12B. Sementara itu, agen AI merujuk pada sistem yang dapat merencanakan, bertindak, dan membuat keputusan secara otonom, yang saat ini tengah berkembang pesat.
Perkembangan robot humanoid berbasis AI generatif juga menambah kekhawatiran. NVIDIA, misalnya, bermitra dengan perusahaan robotika untuk mengembangkan model dasar robot humanoid yang dapat beroperasi secara mandiri.
Kemajuan ini memang menarik, namun bisa menjadi ancaman tersembunyi jika tidak diawasi dengan cermat dan dikelola secara bertanggung jawab.
Pentingnya Regulasi
Regulasi sering kali tertinggal dibanding perkembangan teknologi. Saat ini, beberapa inisiatif seperti EU AI Act, California’s SB 1047, dan Council of Europe’s Framework Convention on AI menjadi rujukan dalam mengatur AI. Selain itu, perusahaan besar seperti OpenAI, Meta, dan Alphabet turut berperan dalam mengurangi risiko AI.Sejumlah perusahaan teknologi telah menerapkan kerangka keselamatan AI, seperti Preparedness Framework dari OpenAI, Google DeepMind Frontier Safety Framework dari Alphabet, dan Responsible Scaling Policy dari Anthropic. Meski demikian, masih diperlukan transparansi dan penegakan yang lebih baik.
AI Safety Clock dirancang untuk meningkatkan kesadaran publik dan memfasilitasi diskusi konstruktif tentang keamanan AI. Jam ini dibuat dengan menganalisis lebih dari 3.500 perusahaan dan pemerintah di seluruh dunia.
Indonesia juga tidak ketinggalan dalam menyambut era kecerdasan buatan. Kementerian Komunikasi dan Informatika (Kominfo) telah menerbitkan Surat Edaran Nomor 9 Tahun 2023 tentang Etika Kecerdasan Artifisial. Wamenkominfo Nezar Patria menyatakan bahwa pemerintah mendukung pengembangan AI dengan menyediakan panduan etika.
"Regulasi ini mengedepankan prinsip inovasi. Kami tidak ingin menghambat inovasi yang muncul," kata Nezar dikutip dari laman resmi Kemenkominfo.
Menurutnya, pemerintah terus memantau perkembangan adopsi AI di Indonesia dan di tingkat global. Misalnya, dalam forum UNESCO di Slovenia, etika AI menjadi topik penting yang dibahas.
Saat ini, penggunaan AI di berbagai sektor di Indonesia, seperti kesehatan, transportasi, dan layanan keuangan, semakin meluas. Pemerintah berupaya menyusun panduan bagi pengembang dan pengguna AI agar manfaatnya bisa dioptimalkan tanpa mengabaikan risikonya. Panduan ini menekankan inklusivitas, keamanan, perlindungan data, dan keberlanjutan lingkungan, serta hak kekayaan intelektual.
Nezar menambahkan bahwa Indonesia memiliki sejumlah regulasi yang bisa meminimalkan risiko penggunaan AI, seperti Undang-Undang Perlindungan Data Pribadi dan peraturan terkait sistem elektronik. Meskipun regulasi ini tidak secara spesifik mengatur AI, mereka dapat membantu menekan dampak negatif yang dihasilkan dari pengembangan teknologi ini.
Baca juga: Pentingnya Perlindungan Data Pribadi pada Era Artificial Intelligence
Editor: M. Taufikul Basari
Komentar
Silahkan Login terlebih dahulu untuk meninggalkan komentar.