“Perpecahan sosial” yang besar antara orang-orang yang menganggap sistem AI sadar dan mereka yang bersikeras bahwa teknologi merasa tidak ada yang akan terjadi, kata seorang filsuf terkemuka.

Komentar tersebut, disampaikan oleh Jonathan Birch, seorang profesor filsafat di London School of Economics, muncul ketika pemerintah bersiap untuk bertemu minggu ini di San Francisco untuk mempercepat penciptaan hambatan keamanan bagi masyarakat. menghadapi risiko yang paling serius dari AI.

Pekan lalu, sekelompok akademisi transatlantik memperkirakan bahwa Kesadaran akan sistem AI akan mulai muncul pada tahun 2035 dan sekarang dikatakan bahwa hal ini dapat mengarah pada “subkultur yang memandang orang lain melakukan kesalahan besar” mengenai apakah program komputer mempunyai hak kesejahteraan yang serupa dengan hak kesejahteraan manusia atau hewan.

Birch mengatakan dia “prihatin dengan kesenjangan sosial yang besar” karena masyarakat berbeda pendapat mengenai apakah sistem AI benar-benar mampu merasakan perasaan seperti kesakitan dan kegembiraan.

Perdebatan mengenai konsekuensi perasaan dalam AI serupa dengan film-film fiksi ilmiah, seperti AI karya Steven Spielberg (2001) dan Her (2013) karya Spike Jonze, di mana manusia bergulat dengan perasaan AI. Badan-badan keamanan AI dari AS, Inggris, dan negara-negara lain akan bertemu dengan perusahaan-perusahaan teknologi minggu ini untuk mengembangkan kerangka kerja keselamatan yang lebih kuat seiring dengan kemajuan teknologi yang pesat.

Terdapat perbedaan yang signifikan antara cara pandang berbagai negara dan agama terhadap perasaan terhadap hewan, misalnya antara India, yang berpenduduk ratusan juta orang, dan Amerika Serikat, yang merupakan salah satu konsumen daging terbesar di dunia. Pendapat mengenai sensitivitas AI dapat berbeda-beda, sementara pandangan negara-negara teokratis, seperti Arab Saudi, yang memposisikan dirinya sebagai pusat AI, juga dapat berbeda dengan negara-negara sekuler. Masalah ini juga dapat menyebabkan ketegangan dalam keluarga dengan orang-orang yang menjalin hubungan dekat dengan chatbot, atau bahkan avatar AI dari orang-orang terkasih yang telah meninggal, bentrok dengan kerabat yang percaya hanya makhluk berdarah-daging yang memiliki kesadaran.

Birch, seorang pakar sensitivitas hewan yang memelopori penelitian yang menyebabkan semakin banyaknya larangan peternakan gurita, ikut menulis penelitian yang melibatkan akademisi dan pakar kecerdasan buatan di Universitas New York . Perusahaan-perusahaan AI mengatakan prospek sistem AI dengan kepentingan dan makna moral mereka sendiri “tidak lagi menjadi masalah hanya untuk fiksi ilmiah atau masa depan yang jauh.”

Mereka ingin perusahaan-perusahaan teknologi besar yang mengembangkan AI mulai menganggapnya serius dengan menentukan sensitivitas sistem mereka untuk mengevaluasi apakah model mereka mampu membahagiakan dan menderita, dan apakah mereka dapat diuntungkan atau dirugikan.

“Saya cukup prihatin dengan perpecahan sosial yang besar karena hal ini,” kata Birch. “Kita akan memiliki subkultur yang melihat satu sama lain melakukan kesalahan besar… (mungkin ada) perpecahan sosial yang besar di mana satu pihak melihat pihak lain mengeksploitasi AI dengan sangat kejam, sementara pihak lain melihat pihak pertama menipu dirinya sendiri dengan melakukan hal yang sama. untuk berpikir bahwa ada kepekaan”. di sana.”

Namun dia mengatakan perusahaan-perusahaan AI “ingin benar-benar fokus pada keandalan dan profitabilitas… dan mereka tidak ingin teralihkan oleh perdebatan tentang apakah mereka dapat menciptakan lebih dari sekedar produk, namun sebenarnya menciptakan cara baru untuk sadar. Pertanyaan tersebut, yang merupakan kepentingan utama para filsuf, memiliki alasan komersial untuk meremehkan pentingnya hal tersebut.”

Salah satu metode untuk menentukan seberapa sadar AI adalah dengan mengikuti sistem penanda yang digunakan untuk memandu kebijakan hewan. Misalnya, gurita dianggap memiliki sensitivitas lebih besar dibandingkan siput atau tiram.

Evaluasi apa pun akan secara efektif menanyakan apakah chatbot di ponsel Anda benar-benar bisa membuat Anda bahagia atau sedih, atau apakah robot yang diprogram untuk melakukan pekerjaan rumah Anda akan menderita jika Anda tidak memperlakukannya dengan benar. Kita bahkan harus mempertimbangkan apakah sistem gudang otomatis mempunyai kapasitas untuk menjadi frustrasi.

Penulis lain, Patrick Butlin, seorang peneliti di Institut Prioritas Global Universitas Oxford, mengatakan: “Kami dapat mengidentifikasi risiko bahwa sistem AI mungkin mencoba melawan kita dengan cara yang berbahaya bagi manusia” dan mungkin terdapat argumen untuk ” memperlambat perkembangan AI” sampai lebih banyak pekerjaan dilakukan pada kesadaran.

lewati promosi buletin sebelumnya

“Penilaian kesadaran potensi seperti ini belum dilakukan saat ini,” katanya.

Microsoft dan Perplexity, dua perusahaan terkemuka Amerika yang terlibat dalam pembangunan sistem kecerdasan buatan, menolak mengomentari seruan para akademisi untuk mengevaluasi model sensitivitas mereka. Meta, Open AI dan Google juga tidak merespon.

Tidak semua ahli sepakat tentang meningkatnya kesadaran akan sistem AI. Anil Seth, ahli saraf dan peneliti kesadaran terkemuka, telah berkata “Itu sangat jauh dan mungkin tidak mungkin dilakukan sama sekali.” Namun meskipun kecil kemungkinannya, tidak bijaksana untuk mengesampingkan kemungkinan tersebut sepenuhnya.”

Bedakan antara kecerdasan dan kesadaran. Yang pertama adalah kemampuan untuk melakukan hal yang benar pada waktu yang tepat, yang kedua adalah keadaan di mana kita tidak hanya memproses informasi tetapi “pikiran kita penuh dengan cahaya, warna, bayangan dan bentuk. Emosi, pikiran, keyakinan, niat, kita semua merasakannya dengan cara tertentu.”

Namun model AI dalam bahasa besar, yang dilatih berdasarkan miliaran kata tulisan manusia, sudah mulai menunjukkan bahwa mereka dapat dimotivasi setidaknya oleh konsep kesenangan dan penderitaan. Ketika AI, termasuk Chat GPT-4o, diberi tugas untuk memaksimalkan poin dalam sebuah game, para peneliti menemukan bahwa jika ada keseimbangan antara mendapatkan lebih banyak poin dan “merasakan” lebih banyak rasa sakit, AI akan mencapainya, yang lain studi yang diterbitkan minggu lalu disajikan.

Source link