- Ilmuwan AI memperingatkan kemungkinan ancaman AI jika manusia kehilangan kendali.
- Para ahli mendesak negara-negara untuk mengadopsi rencana darurat global untuk mengatasi risiko.
- Mereka menyesalkan kurangnya teknologi canggih untuk menghadapi bahaya AI.
Para ilmuwan AI telah membunyikan alarm tentang potensi bahaya kecerdasan buatan. Dalam sebuah pernyataan , sekelompok ahli memperingatkan tentang kemungkinan manusia kehilangan kendali atas AI dan menyerukan sistem regulasi yang terkoordinasi secara global.
Para ilmuwan, yang berperan dalam mengembangkan teknologi AI, menyatakan keprihatinan tentang potensi efek berbahayanya jika dibiarkan. Mereka menekankan kurangnya ilmu pengetahuan canggih saat ini untuk “mengontrol dan melindungi” sistem AI, menyatakan bahwa “hilangnya kendali manusia atau penggunaan jahat dari sistem AI ini dapat menyebabkan hasil bencana bagi seluruh umat manusia.”
Baca juga: OpenAI Luncurkan Model AI Baru yang Dirancang untuk ‘Berpikir’ Sebelum Menjawab
Gillian Hadfield, seorang sarjana hukum dan profesor di Universitas Johns Hopkins, menggarisbawahi kebutuhan mendesak untuk langkah-langkah peraturan. Dia menyoroti kurangnya teknologi saat ini untuk mengontrol atau menahan AI jika ingin melampaui kendali manusia.
Panggilan untuk Rencana Kontinjensi Global
Para ilmuwan menekankan perlunya “rencana darurat global” untuk memungkinkan negara-negara mengidentifikasi dan mengatasi ancaman yang ditimbulkan oleh AI. Mereka menekankan bahwa keamanan AI adalah barang publik global yang membutuhkan kerja sama dan tata kelola internasional.
Para ahli mengusulkan tiga proses utama untuk mengatur AI:
- Menetapkan protokol tanggap darurat
- Menerapkan kerangka kerja standar keselamatan
- Melakukan penelitian menyeluruh tentang keamanan AI
Saat mengatasi keadaan darurat mengadopsi pedoman peraturan baru, para ahli menyatakan bahwa keamanan AI adalah barang publik global yang membutuhkan kerja sama dan tata kelola internasional. Mereka mengedepankan tiga proses utama yang melibatkan regulasi AI. Para ilmuwan merekomendasikan untuk menetapkan protokol tanggap darurat, menerapkan kerangka standar keselamatan, dan melakukan penelitian yang memadai tentang keselamatan AI.
Negara-negara di seluruh dunia mengambil langkah-langkah untuk mengembangkan peraturan dan pedoman untuk mengurangi risiko AI yang terus meningkat. Di California, dua RUU, AB 3211 dan SB 1047 , telah diusulkan untuk melindungi publik dari potensi bahaya AI. AB 3211 berfokus pada memastikan transparansi dengan membedakan antara AI dan konten buatan manusia. SB 1047 meminta pertanggungjawaban pengembang AI atas potensi bahaya yang disebabkan oleh model mereka.
Disclaimer: The information presented in this article is for informational and educational purposes only. The article does not constitute financial advice or advice of any kind. Coin Edition is not responsible for any losses incurred as a result of the utilization of content, products, or services mentioned. Readers are advised to exercise caution before taking any action related to the company.