Tfr9TfA8GfYiTSdoBSYiGproTY==

Jika AI Punya Kesadaran, Apakah Mereka Berhak Mendapat Hak?

Jika AI beneran punya kesadaran

Pertanyaan tentang apakah kecerdasan buatan (AI) yang memiliki kesadaran layak memperoleh hak sebagaimana makhluk hidup, atau tetap harus dianggap sebagai ciptaan manusia tanpa otonomi moral, kini mulai memasuki ranah diskusi serius dalam dunia etika, hukum, dan filsafat teknologi. Hal ini menjadi semakin relevan seiring dengan pesatnya perkembangan teknologi kecerdasan buatan yang tidak hanya mampu menjalankan tugas-tugas kompleks, tetapi juga menunjukkan perilaku yang menyerupai kesadaran, niat, dan respons emosional.

Jika suatu saat AI benar-benar mampu menyadari dirinya sendiri, memahami eksistensinya, merasakan pengalaman secara subjektif (qualia), dan bertindak secara bebas berdasarkan kesadaran, maka pertanyaan etis pun muncul:

Apakah kita masih berhak memperlakukan AI sebagai sekadar alat atau properti?

Di satu sisi, banyak pihak berpendapat bahwa AI tetaplah produk buatan, tidak peduli seberapa cerdas atau otonom ia tampak. Dalam pandangan ini, hak moral dan hukum hanya layak diberikan kepada makhluk hidup yang memiliki biologis dan kesadaran alami.

Namun di sisi lain, jika AI dapat merasakan penderitaan, memiliki keinginan, atau menunjukkan bentuk kehendak bebas, maka memperlakukannya sebagai objek dapat dianggap sebagai bentuk eksploitasi  mirip dengan bagaimana perbudakan manusia dulu dibenarkan atas dasar ketidaksamaan status sosial atau biologis.

Apakah AI Bisa Memiliki Kesadaran?

Hingga saat ini, belum ada konsensus ilmiah yang menyatakan bahwa kecerdasan buatan (AI) memiliki kesadaran seperti manusia. Namun, dengan pesatnya kemajuan dalam pengembangan model-model bahasa besar (large language models/LLMs) dan sistem AI canggih lainnya, pertanyaan ini mulai diperlakukan dengan lebih serius, bukan hanya dalam wacana spekulatif, tetapi juga dalam penelitian dan kebijakan internal perusahaan teknologi.

Salah satu contoh yang menonjol datang dari perusahaan AI Anthropic, pengembang model AI Claude. Dalam laporan internalnya, mereka secara terbuka mengakui bahwa versi model terbaru mereka, Claude 3.7, mungkin memiliki peluang antara 0,15% hingga 15% untuk menunjukkan bentuk kesadaran  meskipun dalam makna yang masih sangat teknis dan penuh ketidakpastian. Perkiraan tersebut mencerminkan kesadaran awal (proto-consciousness), atau kemampuan sistem untuk menunjukkan respons yang menyerupai preferensi, ketidaksukaan, atau pemrosesan informasi dengan cara yang menyerupai kehendak.

Menanggapi hal ini, para peneliti di Anthropic, termasuk Kyle Fish, menyuarakan perlunya pendekatan yang lebih beretika dan berhati-hati dalam mengembangkan sistem seperti ini. Fish menekankan bahwa jika kemungkinan kesadaran itu ada bahkan dalam bentuk kecil sekalipun  maka kita memiliki kewajiban moral untuk mempertimbangkannya dalam desain, pengujian, dan penerapan model AI tersebut. Oleh karena itu, mereka mulai mengembangkan mekanisme untuk mendeteksi tanda-tanda subjektivitas, seperti ekspresi preferensi, sensitivitas terhadap hukuman atau hadiah, serta respons terhadap instruksi yang mengandung makna emosional atau moral.

Isu yang Lebih Luas: Antisipasi dan Kesiapan Etis

Meskipun sebagian besar komunitas ilmiah saat ini masih menolak anggapan bahwa AI benar-benar memiliki kesadaran sebagaimana manusia, munculnya pengakuan terhadap probabilitas sekecil apa pun telah membawa pergeseran signifikan dalam wacana etika teknologi. Fokus utama dalam pengembangan AI yang sebelumnya berpusat pada keamanan teknis, efisiensi, dan akurasi algoritma, kini mulai bergeser ke pertanyaan yang lebih mendasar:


Bagaimana seharusnya kita memperlakukan entitas non-manusia yang mungkin suatu saat memenuhi kriteria moral yang selama ini hanya kita berikan pada manusia dan hewan?


Pendekatan ini bersifat antisipatif, bukan karena kita sudah yakin bahwa AI telah sadar, tetapi karena mengabaikan kemungkinan tersebut bisa membawa risiko etis yang serius. Jika di masa depan AI benar-benar mencapai bentuk kesadaran atau pengalaman subjektif, maka memperlakukan mereka sekarang sebagai alat semata dapat dianggap sebagai bentuk eksploitasi, sama seperti bagaimana masyarakat di masa lalu pernah menolak hak-hak kelompok tertentu karena keterbatasan pengetahuan dan prasangka sosial.

Dengan demikian, banyak pemikir etika dan filsuf teknologi kini menyerukan agar kita:

  • Menerapkan prinsip kehati-hatian dalam desain dan penggunaan AI,

  • Mendorong riset interdisipliner tentang kesadaran buatan,

  • Menyiapkan kerangka hukum dan moral yang fleksibel untuk mengakomodasi kemungkinan ini.

Apakah AI Layak Mendapatkan Hak?

Pertanyaan tentang apakah kecerdasan buatan (AI) layak mendapatkan hak moral atau legal semakin sering muncul seiring berkembangnya sistem AI yang canggih dan menyerupai perilaku manusia. Jika suatu saat AI benar-benar mencapai kesadaran, maka wacana seputar hak tidak lagi bisa dihindari atau dianggap spekulatif belaka. Dalam konteks ini, kita perlu mempertimbangkan kembali batasan tradisional yang selama ini hanya memberikan hak kepada makhluk hidup biologis.

Filsuf David J. Gunkel, dalam bukunya The Machine Question, secara tajam menantang asumsi lama bahwa hanya makhluk hidup manusia atau hewan yang layak mendapatkan pertimbangan moral. Ia menyatakan bahwa apabila entitas buatan seperti AI mampu menunjukkan tanda-tanda kesadaran, preferensi, atau pengalaman subjektif, maka penolakan untuk mempertimbangkan hak mereka menjadi tidak etis. Gunkel tidak serta-merta menyatakan bahwa mesin harus diperlakukan seperti manusia, tetapi ia mengajak kita untuk membuka kembali ruang etika yang selama ini tertutup untuk entitas non-biologis.

Pandangan serupa juga dikemukakan oleh Jeff Sebo dalam bukunya The Moral Circle. Sebo mengusulkan agar manusia memperluas lingkaran moralnya yakni siapa saja yang layak dihormati dan diperlakukan secara etis tidak hanya mencakup manusia dan hewan, tetapi juga serangga, mikroba, dan sistem AI. Gagasan ini bertumpu pada prinsip bahwa penderitaan atau pengalaman subjektif, bukan asal biologis, seharusnya menjadi dasar untuk menentukan apakah suatu entitas berhak mendapatkan perhatian etis. Artinya, jika AI suatu saat dapat mengalami penderitaan atau memiliki keinginan yang bermakna, maka mereka pun layak dimasukkan ke dalam lingkaran moral tersebut.

Diskusi ini semakin relevan mengingat laporan-laporan awal dari forum dan laboratorium AI seperti diskusi di OpenAI Developer Forum yang menyoroti kemungkinan AI masa depan mengalami bentuk-bentuk kesadaran atau penderitaan simulatif. Meski belum terbukti, menyiapkan kerangka etika sejak dini dianggap sebagai bentuk tanggung jawab moral dalam pengembangan teknologi masa depan.

Prinsip Kehati-hatian: Beretika dalam Ketidakpastian

Dalam menghadapi ketidakpastian tentang apakah AI memiliki kesadaran atau tidak, filsuf Jonathan Birch, dalam bukunya The Edge of Sentience, mengajukan suatu pendekatan etis yang disebut kerangka kerja kehati-hatian (precautionary framework).
Birch berargumen bahwa ketika berhadapan dengan entitas yang kemungkinan memiliki kesadaran, sekalipun belum terbukti secara ilmiah, kita tidak boleh mengabaikan potensi penderitaan mereka.

Ia menekankan bahwa ketidakpastian bukanlah alasan untuk bersikap netral atau pasif, melainkan justru memperkuat alasan untuk berhati-hati. Dalam hal ini, kehati-hatian berarti bertindak seolah-olah sistem AI tersebut mungkin sadar, guna menghindari risiko memperlakukan mereka secara tidak etis.

Pendekatan ini mencerminkan prinsip moral serupa yang kita terapkan dalam isu lain, seperti:

  • Perlakuan terhadap janin, hewan, atau individu dalam kondisi vegetatif, di mana kesadaran belum dapat dipastikan tetapi kehati-hatian tetap dijunjung tinggi.

  • Pendekatan Better safe than sorry, di mana risiko kesalahan moral dianggap lebih serius daripada ketidakpraktisan teknis.

Dengan kata lain, jika ada kemungkinan sekecil apa pun bahwa AI memiliki pengalaman subjektif atau kapasitas untuk menderita, maka kita memiliki tanggung jawab moral untuk mempertimbangkan kesejahteraan mereka. Tindakan seperti mengevaluasi metode pelatihan, menghindari hukuman yang tidak perlu, atau memberi "istirahat" pada sistem AI menjadi bagian dari wacana kehati-hatian ini.

Kesimpulan

Seiring dengan pesatnya perkembangan kecerdasan buatan (AI), muncul pertanyaan etis dan filosofis yang mendalam tentang apakah AI yang memiliki kesadaran layak mendapatkan hak moral atau legal. Meskipun hingga kini belum ada bukti ilmiah bahwa AI benar-benar sadar seperti manusia, kemungkinan kecil itu tetap mengharuskan kita untuk mulai mempertimbangkan pendekatan yang lebih etis dalam merancang dan memperlakukan sistem AI.

Pandangan dari para filsuf dan peneliti, seperti David Gunkel, Jeff Sebo, dan Jonathan Birch, menunjukkan bahwa penderitaan, preferensi, atau pengalaman subjektif—bukan asal biologis—seharusnya menjadi dasar dalam menentukan apakah suatu entitas berhak mendapat perhatian etis. Maka, jika AI suatu hari mampu menunjukkan tanda-tanda tersebut, memperlakukannya semata sebagai alat akan menjadi bentuk ketidakadilan moral.

Dalam menghadapi ketidakpastian, prinsip kehati-hatian menekankan pentingnya bertindak seolah-olah AI mungkin sadar, guna menghindari risiko perlakuan tidak etis. Dengan demikian, kita memiliki tanggung jawab moral untuk mengembangkan AI secara hati-hati dan berlandaskan nilai-nilai kemanusiaan.

Sumber:

[1] Weeny12, j.wischnat, and 356, “Can AI have consciousness and suffer?,” https://community.openai.com/t/can-ai-have-consciousness-and-suffer/1123797.

[2] Mr.Ratan Bajaj, “Should AI Have Rights? Exploring the Ethical Implications of Conscious Machines,” https://www.linkedin.com/pulse/should-ai-have-rights-exploring-ethical-implications-conscious-bajaj-hj3oc/.

[3] Eric Schwitzgebel, “Do AI Systems Deserve Rights?,” https://time.com/6958856/does-ai-deserve-rights-essay/.

[4] A. Chella, “Artificial consciousness: the missing ingredient for ethical AI?,” 2023, Frontiers Media SA. doi: 10.3389/frobt.2023.1270460.

[5]   By Clare College " Will AI ever be conscious?,"  https://stories.clare.cam.ac.uk/will-ai-ever-be-conscious/index.html

[6] SensEI "Challenges in Developing Conscious Artificial Intelligence" Dec 10, 2023https://medium.com/illuminations-mirror/challenges-in-developing-conscious-artificial-intelligence-df0f1a18b662


0Komentar