Krisis eksistensial dari kecerdasan buatan adalah kekhawatiran bahwa kemajuan kecerdasan buatan (AI) suatu hari dapat mengakibatkan kepunahan manusia atau bencana global.[1][2][3]

Kekhawatiran ini didasarkan pada argumen bahwa manusia saat ini mendominasi spesies-spesies lainnya karena otak manusia memiliki kemampuan khusus yang tidak dimiliki oleh hewan-hewan lain. Jika kecerdasan buatan berhasil melampaui manusia dan menjadi sangat-sangat cerdas, maka kecerdasan buatan ini akan menjadi sangat kuat dan sulit untuk dikendalikan. Nasib gorila pegunungan saat ini bergantung kepada itikad baik dari manusia, dan mungkin suatu hari nanti nasib manusia juga akan bergantung pada kecerdasan buatan.[4]

Besarnya risiko kecerdasan buatan saat ini masih diperdebatkan dan terdapat beberapa skenario mengenai masa depan ilmu komputer.[5] Sebelumnya kekhawatiran ini hanya masuk ke dalam ranah fiksi ilmiah, tetapi kemudian mulai dipertimbangkan secara serius pada tahun 2010-an dan dipopulerkan oleh tokoh-tokoh besar seperti Stephen Hawking, Bill Gates, dan Elon Musk.[6]

Salah satu kekhawatiran utama adalah perkembangan kecerdasan buatan yang begitu cepat, mendadak dan tidak terduga, sehingga manusia pun tidak siap untuk menghadapinya. Kekhawatiran lainnya berasal dari kemungkinan bahwa mesin yang sangat-sangat cerdas sangat sulit untuk dikendalikan. Beberapa peneliti kecerdasan buatan berkeyakinan bahwa kecerdasan buatan secara alami akan melawan upaya untuk mematikannya, dan pemrograman kecerdasan buatan dengan etika dan moral manusia yang rumit mungkin merupakan hal teknis yang sulit untuk dilakukan.[1][7]

Catatan kaki

  1. ^ a b Russell, Stuart; Norvig, Peter (2009). "26.3: The Ethics and Risks of Developing Artificial Intelligence". Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4. 
  2. ^ Nick Bostrom (2002). "Existential risks". Journal of Evolution and Technology (9.1): 1–31. 
  3. ^ "Your Artificial Intelligence Cheat Sheet". Slate. 1 April 2016. Diakses tanggal 16 May 2016. 
  4. ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (edisi ke-First). ISBN 0199678111. 
  5. ^ GiveWell (2015). Potential risks from advanced artificial intelligence (Laporan). Diakses tanggal 11 October 2015. 
  6. ^ Parkin, Simon (14 June 2015). "Science fiction no more? Channel 4's Humans and our rogue AI obsessions". The Guardian (dalam bahasa Inggris). Diakses tanggal 5 February 2018. 
  7. ^ Eliezer Yudkowsky. "Artificial intelligence as a positive and negative factor in global risk." Global catastrophic risks (2008).