Surat terbuka baru -baru ini tentang AI di mana ia menginformasikan (Sistem AI bisa “disebabkan” jika kesadaran mencapai, “kata penelitian, pada 3 Februari) Masalah moral yang tulus menonjol: Jika kita membuat AI sadar (baik dengan sengaja atau tidak sengaja), maka kita akan memiliki tugas untuk tidak membuatnya menderita. Namun, apa yang tidak dilakukan surat itu adalah menangkap apa yang hebat “ya.”

Beberapa teori kesadaran yang menjanjikan membuka pintu bagi hati nurani AI. Tetapi teori -teori lain yang sama -sama menjanjikan menunjukkan bahwa sadar perlu menjadi organisme. Meskipun kita dapat mencari indikator hati nurani dalam AI, sangat sulit, mungkin tidak mungkin, untuk mengetahui apakah AI benar -benar sadar atau hanya menyajikan tanda -tanda kesadaran eksternal. Mengingat seberapa dalam masalah ini, satu -satunya posisi yang masuk akal untuk mengasumsikan kesadaran buatan adalah agnostik.

Apakah itu berarti bahwa kita dapat mengabaikan masalah moral? Tidak ada hal semacam itu. Jika ada probabilitas yang tulus untuk mengembangkan sadar, maka kita harus bertindak bertanggung jawab. Namun, bertindak secara bertanggung jawab di wilayah yang tidak pasti seperti itu lebih mudah dikatakan daripada itu. Dia Surat terbuka Ini merekomendasikan bahwa “organisasi harus memprioritaskan penelitian tentang pemahaman dan evaluasi kesadaran AI.” Tetapi metode yang ada untuk membuktikan kesadaran AI sangat diperdebatkan, sehingga mereka hanya dapat menawarkan hasil yang diperdebatkan.

Meskipun tujuan menghindari penderitaan buatan adalah mulia, perlu dicatat betapa kasualnya kita tentang penderitaan di banyak organisme. Semakin banyak bukti menunjukkan bahwa udang dapat diderita, namun, industri udang membunuh sekitar setengah miliar udang setiap tahun. Menguji kesadaran dalam udang itu sulit, tetapi tidak sesulit yang mencoba kesadaran dalam AI. Jadi, meskipun sudah benar untuk mengambil tugas kita yang mungkin ke masa depan, kita tidak boleh melupakan tugas yang akan kita miliki untuk sepupu biologis kita.
Tom McClelland
Profesor Filsafat Sains, Universitas Cambridge

Tentang editorialnya (The Guardian View on AI dan Hak Cipta: Teknologi Besar Harus Membayar, 31 Januari), Saya setuju bahwa peraturan AI membutuhkan keseimbangan sehingga kita semua menguntungkan kita. Namun, pendekatan ini mungkin terlalu banyak dalam pelatihan model AI dan tidak cukup dalam pemrosesan karya kreatif model AI. Untuk menggunakan metafora: bayangkan fotokopi 100.000 buku, saya membacanya dan kemudian menyatukan kalimat yang masuk akal di buku -buku dalam buku. Jelas, saya seharusnya tidak memotretnya, tetapi saya tidak dapat mereproduksi konten apa pun dari buku apa pun, seperti halnya terlalu banyak untuk diingat. Dalam kasus terbaik, saya dapat secara luas meniru gaya beberapa penulis paling produktif. Ini seperti pelatihan AI.

Kemudian saya menggunakan kemampuan baru saya untuk mengambil artikel, memparafrasekan dan menyajikannya sebagai milik saya. Selain itu, menurut saya saya dapat melakukan ini dengan foto, karena banyak buku diilustrasikan. Beri saya gambar dan saya dapat membuat lima lagi dengan gaya yang sama, meskipun saya belum pernah melihat gambar seperti ini sebelumnya. Saya dapat melakukan ini untuk setiap pekerjaan kreatif yang saya temukan, tidak hanya hal -hal yang melatih saya. Ini seperti pemrosesan AI.

Debat saat ini tampaknya sepenuhnya berfokus pada pelatihan. Ini dapat dimengerti, karena perbedaan antara pelatihan dan pemrosesan dengan model yang sebelumnya dilatih tidak begitu jelas dari perspektif pengguna. Meskipun kita membutuhkan model ekonomi yang adil untuk data pelatihan, dan saya pikir secara moral benar bahwa pencipta dapat memilih jika pekerjaan mereka digunakan dengan cara ini dan mereka dibayar secara adil, kita harus lebih fokus pada pemrosesan daripada pelatihan untuk melindungi kreativitas. Industri
Michael Webb
Direktur AI, JISC

Kami menulis surat ini atas nama sekelompok anggota Badan Penasihat Tingkat Tinggi PBB untuk AI. Peluncuran model Deepseek, sistem AVAN -Garde AI yang dikembangkan di Cina, menyoroti kebutuhan mendesak akan tata kelola global. Meskipun Veteran Ini bukan kemajuan kecerdasan, efisiensinya menekankan bahwa avant -garde AI tidak lagi terbatas pada beberapa perusahaan. Sifat open source, sebagai panggilan meta dan mistral, menimbulkan pertanyaan kompleks: sementara transparansi mendorong inovasi dan pengawasan, itu juga memungkinkan informasi yang salah, serangan cyber dan propaganda defake.

Mekanisme tata kelola yang ada tidak pantas. Kebijakan nasional, seperti hukum UE atau kerangka peraturan Inggris, sangat bervariasi, menciptakan fragmentasi peraturan. Inisiatif unilateral seperti Paris minggu depan KTT Tindakan AI Anda dapat berhenti memberikan aplikasi yang komprehensif, meninggalkan laguna untuk disalahgunakan. Kerangka kerja internasional yang kuat sangat penting untuk memastikan bahwa pengembangan AI selaras dengan stabilitas global dan prinsip -prinsip etika.

PBB baru -baru ini Mengatur AI untuk Kemanusiaan Laporan tersebut menggarisbawahi bahaya ras AI yang tidak diatur: memperdalam ketidaksetaraan, prasangka rooting dan senjata AI. Risiko perbatasan melampaui; Pendekatan yang terfragmentasi hanya memperburuk kerentanan. Kami membutuhkan perjanjian internasional yang mengikat yang mencakup transparansi, tanggung jawab, tanggung jawab, dan aplikasi. Lintasan AI harus dipandu oleh tanggung jawab kolektif, tidak ditentukan oleh kekuatan pasar atau kompetensi geopolitik.

Dunia keuangan sudah bereaksi terhadap evolusi AI yang cepat. Hilangnya pasar NVIDIA sebesar $ 600 miliar setelah rilis Deepseek menunjukkan ketidakpastian yang berkembang. Namun, sejarah menunjukkan bahwa efisiensi mempromosikan permintaan, memperkuat kebutuhan untuk pengawasan. Tanpa kerangka peraturan global, evolusi AI dapat didominasi oleh aktor yang lebih cepat alih -alih aktor yang paling bertanggung jawab.

Waktu untuk tata kelola global yang menentukan dan terkoordinasi adalah sekarang, sebelum efisiensi spiral tanpa kendali dalam kekacauan. Kami percaya bahwa PBB tetap menjadi harapan terbaik untuk membangun kerangka kerja terpadu yang memastikan bahwa AI melayani umat manusia, melindungi hak -hak dan menghindari ketidakstabilan sebelum kemajuan tanpa kontrol mengarah pada konsekuensi yang tidak dapat diubah.
Virginia
Profesor Wellenberg dari yang bertanggung jawab, Universitas Umeå
Wendy Hall
Profesor Ilmu Komputer Regius, Universitas Southampton

Apakah Anda memiliki pendapat tentang sesuatu yang telah Anda baca di The Guardian hari ini? Silakan e-mail Kami akan dipertimbangkan untuk publikasi di kami surat bagian.

Sumber