Google Rilis Upaya Perlindungan Pengguna dari AI
- Penggunaan Kecerdasan buatan/ Artificial Intelegence (AI) generatif mewajibkan masyarakat harus lebih peduli dengan keamanan.
Tekno
CALIFORNIA - Penggunaan kecerdasan buatan/ Artificial Intelegence (AI) generatif mewajibkan masyarakat harus lebih peduli dengan keamanan. Berangkat dari hal tersebit, Google merilis Secure AI Framework (SAIF).
SAIF sendiri merupakan sebuah skema berupa peta jalan keamanan menghindari jenis bahaya AI eksistensial yang selalu dibicarakan Elon Musk.
Lebih rinci mengenai SAIF, ada 6 elemen yang dituangkan Google untuk merealisasikan skema keamanan pengguna dari AI.
Elemen 1 dan 2 adalah tentang memperluas kerangka kerja keamanan organisasi yang ada untuk memasukkan ancaman AI sejak awal.
Kemudian Elemen 3 adalah tentang mengintegrasikan AI ke dalam pertahanan Anda melawan ancaman AI, yang agak mengganggu mengingat perlombaan senjata nuklir, apakah itu disengaja atau tidak.
- Emiten Produsen Antimo Phapros (PEHA) Rombak Manajemen dan Tebar Dividen Rp11,2 Miliar
- Jumlah Pengangguran AS Meningkat, Nilai Kurs Rupiah Bisa Menguat Hari Ini
- BI Gandeng Perguruan Tinggi buat Dongkrak Literasi Keuangan UMKM
Adapun Elemen 4 adalah tentang manfaat keamanan keseragaman dalam "kerangka kerja kontrol" terkait AI Anda.
Selanjutnya, Elemen 5 dan 6 adalah tentang terus-menerus memeriksa, mengevaluasi, dan menguji aplikasi AI Anda untuk memastikan mereka dapat bertahan dari serangan, dan tidak membuat Anda menghadapi risiko yang tidak perlu.
Ide Keamanan Siber Dasar untuk AI
Berdasarkan skema kemanan yang telah dirancang oleh Google, tampaknya saat ini Perusahaan hanya ingin membawa ide keamanan siber dasar untuk diterapkan di sekitar AI.
Seperti yang dikatakan kepala keamanan info Google Cloud Phil Venables sebelumnya bahwa saat orang mencari pendekatan yang lebih canggih, orang harus benar-benar ingat bahwa Anda juga harus memiliki dasar yang benar.
Sebagaimana diketahui, sejak kemunculan kecerdasan buatan, ada beberapa masalah keamanan baru dan unik yang muncul di sini-dan-sekarang dengan aplikasi AI generatif seperti ChatGPT.
Sebagai contoh, peneliti keamanan telah mengidentifikasi satu potensi risiko injeksi cepat yang merupakan hal aneh dari eksploitasi AI. Injeksi cepat memungkinkan adanya perintah jahat diarahkan ke plugin AI chatbot yang tidak curiga menunggu di beberapa blok teks.
Saat AI memindai injeksi prompt, itu mengubah sifat perintah yang diberikan kepada AI. Ini seperti menyembunyikan mantra pengontrol pikiran yang menyeramkan dalam teks di teleprompter.
Selain injeksi cepat, ada ancaman lain yang menghantui pengguna AI. Di antara lain Mencuri model, yakni cara yang mungkin untuk mengelabui model terjemahan agar melepaskan rahasianya.
Kemudian ada Peracunan data di mana aktor jahat menyabotase proses pelatihan dengan data yang salah secara sengaja.
Ancaman lain juga dilakukan dengan membuat perintah yang dapat mengekstrak teks verbatim yang berpotensi rahasia atau sensitif yang awalnya digunakan untuk melatih model.