Mengenai kekhawatiran Geoffrey Hinton tentang bahaya kecerdasan buatan (‘Ayah baptis AI’ mengurangi kemungkinan teknologi akan memusnahkan umat manusia dalam 30 tahun ke depan, 27 Desember), Saya yakin cara terbaik untuk memitigasi kekhawatiran ini adalah melalui penelitian kolaboratif tentang keamanan AI, dengan peran regulator sebagai pihak yang terlibat.
Saat ini, Perbatasan AI Ini diuji setelah pengembangan menggunakan “tim merah” yang melakukan segala kemungkinan untuk mendapatkan hasil negatif. Pendekatan ini tidak akan pernah cukup; AI harus dirancang untuk keamanan dan penilaian, sesuatu yang dapat dilakukan dengan memanfaatkan pengetahuan dan pengalaman industri terkait keamanan yang sudah mapan.
Hinton tampaknya tidak percaya bahwa ancaman nyata dari AI sengaja diberi kode; jadi mengapa tidak menghindari skenario ini dengan sengaja? Meskipun saya tidak sependapat dengan Anda mengenai tingkat risiko yang dihadapi umat manusia, prinsip kehati-hatian menyarankan bahwa kita harus bertindak sekarang.
Dalam bidang-bidang tradisional yang kritis terhadap keselamatan, kebutuhan untuk membangun sistem fisik, seperti pesawat terbang, membatasi tingkat dampak terhadap keselamatan. Frontier AI tidak memiliki “pembatas kecepatan” fisik dalam penerapannya, dan di sinilah regulasi harus berperan. Idealnya, harus ada penilaian risiko sebelum implementasi, namun metrik risiko yang ada saat ini tidak memadai; Misalnya, mereka tidak mempertimbangkan sektor penerapan atau skala penerapannya.
Para pembuat kebijakan memerlukan kewenangan untuk “menghentikan” model-model yang telah diterapkan (dan perusahaan-perusahaan besar yang mengembangkan model-model tersebut perlu memasukkan mekanisme untuk menghentikan penggunaan-penggunaan tertentu), serta mendukung upaya penilaian risiko, yang akan memberikan indikator-indikator risiko terdepan, bukan hanya indikator-indikator yang tertinggal. Dengan kata lain, pemerintah harus fokus pada pengendalian peraturan pasca-pemasaran sambil mendukung penelitian yang memungkinkan regulator memiliki pengetahuan untuk menegakkan pengendalian pra-pemasaran. Hal ini menantang, namun penting jika Hinton benar mengenai tingkat risiko yang dihadapi umat manusia.
Profesor John McDermid
Institut Otonomi Aman, Universitas York