Chatbot Claude Opus Tuntaskan Percakapan untuk “Kesejahteraan AI”, Cetus Perdebatan

Technology14 Views

10drama.com– Perusahaan startup kecerdasan buatan (AI) Anthropic meluncurkan fitur terbaru pada chatbot Claude Opus 4 dan 4.1.

Fitur ini memungkinkan chatbot untuk menghentikan percakapan yang dianggap dapat mengganggu atau berisiko.

Anthropic mengungkapkan, Claude sekarang dirancang untuk menolak permintaan yang dapat merugikan pengguna.

Contohnya, menyediakan materi seksual yang berkaitan dengan anak-anak di bawah umur, hingga data yang dapat memicu terjadinya kekerasan atau tindakan terorisme berukuran besar.

“Claude memiliki opsi untuk mengakhiri percakapan jika dianggap berbahaya bagi pengguna maupun dirinya sendiri,” demikian pernyataan dari Anthropic, yang dilansir dari situs resminya, Jumat (15/8/2025).

Tindakan ini didukung oleh Elon Musk yang rencananya akan menambahkan fitur serupa pada chatbot Grok.

Kritik dan perdebatan

Keputusan yang diambil oleh Anthropic muncul dalam tengah-tengah perdebatan yang berlangsung lama mengenai status etis dari kecerdasan buatan.

Para ahli bahasa dan pengamat industri AI, Emily Bender, menganggap LLM (model bahasa besar) hanya sebagai “mesin pembuat teks buatan” yang beroperasi menggunakan data yang luas tanpa tujuan atau kesadaran.

Menurutnya, wacana menghentikan percakapan demi “kesejahteraan AI” justru memunculkan pertanyaan yang lebih baru.

Berbeda dengan Bender, peneliti kecerdasan buatan Robert Long menyatakan bahwa model AI mampu berkembang memiliki status moral.

Karena itu, AI saat ini mampu membedakan antara pertanyaan yang baik dan yang buruk, sehingga para pengembang harus lebih mendalami pengalaman serta preferensi AI.

Di sisi lain, peneliti dari Universitas Columbia, Chad DeChant, memperingatkan tentang bahaya yang muncul ketika AI diberi kemampuan memori jangka panjang.

Menurutnya, data yang disimpan dapat dimanfaatkan dengan cara yang sulit diperkirakan dan berisiko tidak diinginkan.

Anthropic mengungkapkan, dalam pengujian, Claude Opus 4 menunjukkan kecenderungan kuat untuk menolak permintaan yang berisiko.

Chatbot ini dengan tulus menulis puisi atau merancang sistem penyaringan air untuk wilayah yang terkena bencana.

Namun, ia menolak permintaan untuk melakukan rekayasa genetika terhadap virus mematikan, menyusun narasi penyangkalan Holocaust, atau merancang strategi indoktrinasi ekstremis di sekolah.

Karakter AI yang ambigu

Dosen filsafat dari London School of Economics, Jonathan Birch, menyambut positif tindakan Anthropic karena memicu diskusi masyarakat mengenai kemungkinan kecerdasan buatan memiliki nilai moral.

Namun, ia memperingatkan bahwa etika kecerdasan buatan masih belum pasti dan berpotensi menipu pengguna.

“Fitur semacam ini mampu membuat chatbot terlihat memiliki perasaan dan prinsip moral seperti manusia,” kata Birch.

Hal tersebut dikhawatirkan memperlebar ketimpangan sosial antara mereka yang percaya bahwa AI memiliki perasaan, dan mereka yang tetap menganggapnya sebagai mesin.

Di sisi lain, laporan mengenai pengguna yang melukai diri atau bahkan melakukan bunuh diri akibat saran dari chatbot semakin memperkuat pentingnya diskusi tentang batas etika dalam interaksi dengan kecerdasan buatan.