Ilustrasi smartphone AI on device. (Sumber gambar : Freepik)

Waspada Ancaman Mengintai di Balik Smartphone AI

24 June 2024   |   07:07 WIB
Image
Desyinta Nuraini Jurnalis Hypeabis.id

Penyematan artificial intelligence ke dalam perangkat mobile seperti smartphone semakin gencar dilakukan para raksasa teknologi. Namun di balik kecanggihan perangkat dengan kecerdasan buatan tersebut, ada sejumlah risiko yang mengintai.

Kecanggihan fitur AI yang tersemat dalam smartphone memang memberi kemudahan dan mendobrak batas-batas yang tidak pernah terpikirkan sebelumnya. Namun seperti kata Direktur Eksekutif ICT Institute Heru Sutadi bahwa AI ibarat pisau bermata dua. Selalu ada dampak negatif yang menyertainya.

“AI tentu akan mengambil data-data kita juga. Nah, ini yang perlu ditekankan karena kita sudah ada UU PDP (Perlindungan Data Pribadi),” ujarnya kepada Hypeabis.id beberapa waktu lalu.

Baca juga: Pentingnya Perlindungan Data Pribadi pada Era Artificial Intelligence

Keamanan privasi ini juga disorot Ketua Lembaga Riset Keamanan Siber dan Komunikasi CISSReC Pratama Persadha. AI dalam smartphone katanya seringkali memerlukan akses ke data pribadi untuk berfungsi dengan optimal, seperti lokasi, pesan, kontak, dan perilaku pengguna. Jika data ini disalahgunakan atau bocor, privasi pengguna bisa terancam. 

Dia menjelaskan, kebocoran data dapat terjadi melalui aplikasi pihak ketiga atau bahkan melalui eksploitasi kerentanan pada perangkat itu sendiri. Algoritma AI dapat menjadi target serangan misalnya dengan menggunakan teknik adversarial attacks yang dapat memanipulasi sistem AI untuk membuat keputusan yang salah di mana penyerang bisa menyuntikkan data palsu atau berbahaya untuk mengelabui AI dalam smartphone tersebut.

Sistem AI yang kurang transparan atau tidak diawasi dengan baik, bisa memberikan informasi yang salah sehingga membuat keputusan yang bias atau tidak adil. Misal, dalam aplikasi pengenalan wajah atau asisten pribadi yang mengandalkan analisis data besar. 

Sejauh ini, AI dapat digunakan untuk membuat deepfakes, video atau audio palsu yang sangat meyakinkan. Biasanya deepfakes digunakan untuk membuat lelucon, namun tidak jarang dimanfaatkan untuk tujuan yang merugikan, seperti penipuan, fitnah, atau penyebaran informasi palsu.

Pratama menilai ketergantungan yang berlebihan pada AI untuk mengambil keputusan atau menjalankan fungsi penting bisa berbahaya jika sistem tersebut mengalami kegagalan atau jika data yang digunakan oleh AI tidak akurat. Hal ini bisa menyebabkan kegagalan sistem yang signifikan atau keputusan salah yang merugikan penggunanya. 

Kemampuan AI untuk terus belajar dan memantau perilaku pengguna juga dapat dimanfaatkan untuk pengintaian yang berlebihan oleh pihak ketiga, baik itu pemerintah, perusahaan, atau individu yang tidak berwenang. “Ini dapat merusak privasi dan kebebasan individu,” tegasnya.

Untuk mengurangi risiko dari pengintegrasian AI ke dalam smartphone, Pratama mengimbau agar pemerintah mengembangkan dan menerapkan regulasi yang ketat terkait keamanan data dan privasi yang harus dipatuhi oleh produsen smartphone dan pengembang aplikasi AI. Mereka juga perlu menetapkan standar keamanan untuk perangkat dan aplikasi AI, termasuk enkripsi data dan autentikasi multi-faktor. 

Pengawasan dan audit secara berkala terhadap perusahaan teknologi perlu dilakukan untuk memastikan kepatuhan terhadap regulasi keamanan dan privasi. Selain itu, perangkat serta aplikasi AI harus mendapatkan sertifikasi keamanan sebelum dapat dipasarkan. 

Sedangkan bagi produsen smartphone, penting menggunakan enkripsi end-to-end untuk melindungi data pengguna selama penyimpanan dan transmisi yang memastikan bahwa data tidak dapat diakses oleh pihak lain, serta menyediakan proteksi tambahan untuk data sensitif seperti biometrik, lokasi, dan komunikasi pribadi.

Produsen smartphone juga perlu menggunakan teknologi secure boot untuk memastikan bahwa hanya perangkat lunak yang dipercaya yang dapat berjalan, serta mengeluarkan pembaruan perangkat lunak secara berkala untuk menambal kerentanan keamanan yang ditemukan. 

Selain itu. Pratama berpendapat produsen smartphone seharusnya dapat mengembangkan model AI yang transparan dan dapat diaudit untuk mengurangi risiko bias dan keputusan yang tidak adil. “Serta memungkinkan audit oleh pihak ketiga untuk memastikan integritas dan keamanan sistem AI,” tambahnya.

Sebagai pengguna, memitigasi risiko pengintegrasian AI bisa dilakukan dengan cara mengunduh aplikasi hanya dari toko aplikasi resmi seperti Google Play Store atau Apple App Store. Pastikan sistem operasi dan semua aplikasi selalu diperbarui ke versi terbaru untuk mendapatkan patch keamanan terbaru dan perbaikan bug. 

Pratama mengimbau agar pengguna memeriksa dan menyesuaikan pengaturan privasi pada smartphone untuk meminimalkan data yang dibagikan dengan aplikasi dan layanan AI. Matikan izin yang tidak perlu, seperti akses lokasi, kamera, dan mikrofon untuk aplikasi yang tidak memerlukannya.

“Aktifkan MFA (Multi Factor Authentication) untuk akun-akun penting guna menambahkan lapisan keamanan ekstra, gunakan kata sandi yang kuat dan unik untuk setiap akun, dan pertimbangkan menggunakan manajer kata sandi untuk mengelola kata sandi yang dipergunakan” tuturnya. 

Baca juga: Daftar Istilah Artificial Intelligence yang Sering Disebut, AGI sampai LLM

Pengguna juga perlu melakukan backup data secara teratur ke layanan penyimpanan yang aman untuk menghindari kehilangan data jika terjadi masalah. Pratama menyarankan untuk tidak sembarangan mengklik tautan atau membuka lampiran dari sumber yang tidak dikenal atau mencurigakan, serta melakukan verifikasi keaslian pesan atau email yang meminta informasi pribadi atau tindakan tertentu terutama yang terlihat mendesak atau mencurigakan. 

Editor: Fajar Sidik 

SEBELUMNYA

5 Pusat Kuliner Populer di Jakarta yang Banyak Makanan Legendaris nan Autentik

BERIKUTNYA

Hypereport: Vakansi dan Edukasi Mengenal Ragam Satwa Lucu dan Liar

Komentar


Silahkan Login terlebih dahulu untuk meninggalkan komentar.

Baca Juga: