Mirip Terminator, Peneliti Sebut Manusia Bisa Punah Gegara AI

Mirip Terminator, Peneliti Sebut Manusia Bisa Punah Gegara AI

Peneliti mengungkapkan kekhawatirannya akan kepunahan manusia akibat kecerdasan buatan (artificial intelligence/AI), layaknya film Terminator yang dibintangi Arnold Schwarzenegger.

Eliezer Yudkowsky, seorang peneliti AI terkemuka mengatakan umat manusia tidak siap untuk bertahan menghadapi pertemuan dengan kecerdasan buatan yang jauh lebih pintar.

Menurutnya, menghentikan pengembangan sistem kecerdasan buatan canggih di seluruh dunia dan menghukum keras mereka yang melanggar moratorium adalah satu-satunya cara untuk menyelamatkan umat manusia dari kepunahan.

Sebagai salah satu pendiri Machine Intelligence Research Institute (MIRI), dia menulis opini untuk majalah TIME dan menjelaskan mengapa dia tidak menandatangani petisi yang meminta semua laboratorium AI untuk segera berhenti setidaknya selama enam bulan yang dirilis oleh OpenAI awal bulan ini.

Yudkowsky berpendapat bahwa surat tersebut, yang ditandatangani oleh orang-orang seperti Elon Musk dan Apple Steve Wozniak, “meminta terlalu sedikit” terkait masalah yang ditimbulkan oleh perkembangan AI yang cepat dan tidak terkendali.

“Hasil yang paling mungkin dari membangun AI yang sangat cerdas, dalam situasi apapun yang jauh seperti saat ini, adalah bahwa setiap orang di Bumi akan mati,” tulis Yudkowsky, yang dikutip kembali oleh Russia Today.

Dia menilai bertahan dari pertemuan dengan sistem komputer yang “tidak mempedulikan kita atau kehidupan pada umumnya” akan membutuhkan “ketepatan dan persiapan serta wawasan ilmiah baru” yang tidak dimiliki umat manusia saat ini dan tidak mungkin diperoleh di masa mendatang.

“AI yang cukup cerdas tidak akan bertahan lama di komputer,” tuturnya.

Dia menjelaskan fakta bahwa string DNA sudah dapat dikirim melalui email ke laboratorium untuk menghasilkan protein kemungkinan besar akan memungkinkan AI “membangun bentuk kehidupan artifisial atau bootstrap langsung ke pembuatan molekul postbiologis” dan keluar ke dunia.

Menurut peneliti, moratorium pelatihan AI besar baru yang tidak terbatas dan di seluruh dunia harus segera diberlakukan. “Tidak ada pengecualian, termasuk untuk pemerintah atau militer,” tegasnya.

Yudkowsky menegaskan kesepakatan internasional harus ditandatangani untuk menetapkan batas atas berapa banyak daya komputasi yang dapat digunakan siapapun dalam melatih sistem semacam itu.

Ancaman dari kecerdasan buatan begitu besar sehingga harus dinyatakan “secara eksplisit dalam diplomasi internasional bahwa pencegahan skenario kepunahan AI dianggap sebagai prioritas di atas pencegahan pertukaran nuklir secara penuh,” tambahnya.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.