Cegah Penyalahgunaan Teknologi, G7 Setujui Kode Etik Pengembangan Kecerdasan Buatan
- Persetujuan lahirnya kode etik tersebut merupakan salah satu upaya mencegah risiko dan potensi penyalahgunaan teknologi.
Tekno
BRUSSELS - Para negara yang tergabung dalam G7 (Group of Seven) pada Senin, 30 Oktober 2023 dilaporkan akan setujui kode etik pengembangan kecerdasan buatan bagi perusahaan yang mengembangkan sistem tersebut.
Melansir Reuters, persetujuan lahirnya kode etik tersebut merupakan salah satu upaya mencegah risiko dan potensi penyalahgunaan teknologi. Kode etik tersebut juga menjadi tonggak penting dalam regulasi kecerdasan buatan oleh negara-negara besar terutama dalam menghadapi kekhawatiran seputar privasi dan risiko keamanan.
Para negara G7 yang terdiri dari Kanada, Perancis, Jerman, Italia, Jepang, Inggris dan Amerika Serikat, serta Uni Eropa, dilaporkan telah memulai proses penyusunan kode etik tersebut pada Mei lalu di forum tingkat menteri bernama "Hiroshima Artificial Intelligence (AI) process".
- Canggih, Airbnb Gunakan AI untuk Hindari Penyewa Tak Bertanggung Jawab Selama Halloween
- Lagi Ramai di TikTok, Kenali Apa Itu Modus Penipuan Pig Butchering Scam
- Ketahui Apa Itu Nyamuk Wolbachia yang Disebut Mampu Atasi DBD
“(Kode etik tersebut) bertujuan untuk mempromosikan kecerdasan buatan yang aman, terjamin, dan terpercaya. Panduan ini memberikan panduan sukarela bagi organisasi yang mengembangkan kecerdasan buatan tingkat lanjut, termasuk model dasar dan sistem AI generatif,” tulis dokumen G7 yang diakses oleh Reuters.
Dalam dokumen tersebut, kode etik pengembangan kecerdasan buatan tersebut bertujuan untuk mengoptimalkan dalam memanfaatkan kecerdasan buatan sekaligus mengatasi risiko dan tantangan yang muncul akibat kehadiran teknologi tersebut.
Kode etik tersebut menekankan perusahaan untuk harus mengambil tindakan yang tepat sepanjang siklus hidup kecerdasan buatan yang dikembangkan untuk mengidentifikasi, mengevaluasi, dan memitigasi risiko.
Selain itu, kode etik tersebut mendorong upaya perusahaan untuk menangani insiden dan pola penyalahgunaan setelah kecerdasan buatan yang dikembangkan diperkenalkan ke pasar.
Perusahaan pengembang juga didorong untuk secara terbuka mempublikasikan laporan mengenai kemampuan, batasan, pemanfaatan, penyalahgunaan kecerdasan buatan, serta melibatkan investasi dalam sistem keamanan yang kuat.
Uni Eropa menjadi yang terdepan dalam mengembangkan regulasi kecerdasan buatan dengan menerapkan Undang-undang AI yang sangat ketat. Sementara Jepang, Amerika Serikat, dan negara-negara di Asia Tenggara telah mengambil pendekatan yang lebih longgar dibandingkan dengan negara-negara Uni Eropa dalam rangka meningkatkan pertumbuhan ekonomi.
Kepala bidang digital Komisi Eropa, Vera Jourova menyatakan pada forum tata kelola internet di Kyoto, Jepang, awal bulan Oktober lalu dan menyebutkan adanya kode etik tersebut merupakan fondasi yang kuat untuk memastikan keselamatan dan mendorong lahirnya peraturan yang lebih ketat.