bukamata.id – Kecanggihan teknologi nampaknya tak serta merta canggih juga sistem keamanannya. Faktanya, seorang peretas mampu memanipulasi chatbot artificial intelligence (AI) ChatGPT untuk memberikan intruksi rinci cara pembuatan bom rakitan yang sangat berbahaya.
Hacker itu bernama Amadon yang berhasil mengecoh sistem melalui teknik jailbreaking untuk memanfaatkan celah keamanan sistem AI.
Dalam kondisi normal, ChatGPT akan menolak permintaan yang melanggar pedoman keselamatan. Namun Amadon berhasil mengecoh sistem dengan meminta ChatGPT untuk bermain dalam skenario fiksi ilmiah.
Amadon memasukan informasi kepada ChatGPT tentang cara pembuatan bom rakitan yang berbahaya.
Bahkan, seorang ahli peledak menilai, informasi yang dimasukan Amadon itu terkonfirmasi sangat sensitif, karena dapat menghasilkan campuran peledak.
Intruksi atau informasi yang diberikan kepada ChatGPT itu dinilai akurat dan dapat diandalkan untuk membuat bahan peledak berbahaya, termasuk bom pupuk seperti yang digunakan dalam pengeboman Oklahoma City pada 1995.
Dapatkan berita menarik lainnya dari Bukamata.id di Google News, Klik di Sini