Mittelsteadt menambahkan bahwa Trump dapat menghukum perusahaan dengan berbagai cara. Dia mengutip, misalnya, cara pemerintahan Trump membatalkan kontrak federal yang besar dengan Amazon Web Services, sebuah keputusan yang kemungkinan besar dipengaruhi oleh pandangan mantan presiden terhadap Washington Post dan pemiliknya, Jeff Bezos.
Tidak akan sulit bagi pembuat kebijakan untuk menunjukkan bukti adanya bias politik dalam model AI, meskipun model tersebut mengambil dua arah.
A studi tahun 2023 oleh para peneliti di Universitas Washington, Universitas Carnegie Mellon, dan Universitas Xi’an Jiaotong menemukan serangkaian kecenderungan politik dalam model bahasa besar yang berbeda. Laporan ini juga menunjukkan bagaimana bias ini dapat memengaruhi kinerja sistem deteksi ujaran kebencian atau misinformasi.
Studi lainyang dilakukan oleh para peneliti di Universitas Sains dan Teknologi Hong Kong, menemukan bias dalam beberapa model AI open source mengenai isu-isu polarisasi seperti imigrasi, hak reproduksi, dan perubahan iklim. Yejin Bang, seorang kandidat PhD yang terlibat dalam penelitian ini, mengatakan bahwa sebagian besar model cenderung liberal dan berpusat pada AS, namun model yang sama dapat mengekspresikan berbagai bias liberal atau konservatif tergantung pada topiknya.
Model AI menangkap bias politik karena model tersebut dilatih berdasarkan data internet yang pasti mencakup segala macam perspektif. Sebagian besar pengguna mungkin tidak menyadari adanya bias dalam alat yang mereka gunakan karena model menyertakan batasan yang membatasi mereka dalam menghasilkan konten tertentu yang berbahaya atau bias. Namun, bias ini bisa bocor secara halus, dan pelatihan tambahan yang diterima model untuk membatasi keluarannya dapat menimbulkan sikap keberpihakan lebih lanjut. “Pengembang dapat memastikan bahwa model dihadapkan pada berbagai perspektif mengenai topik yang memecah belah, sehingga memungkinkan mereka merespons dengan sudut pandang yang seimbang,” kata Bang.
Masalahnya mungkin menjadi lebih buruk ketika sistem AI menjadi lebih luas, kata Ashique Khuda Bukhshseorang ilmuwan komputer di Institut Teknologi Rochester yang mengembangkan alat yang disebut Toxicity Rabbit Hole Framework, yang mengungkap berbagai bias sosial dari model bahasa besar. “Kami khawatir lingkaran setan akan segera dimulai karena generasi baru LLM akan semakin dilatih mengenai data yang terkontaminasi oleh konten yang dihasilkan AI,” katanya.
“Saya yakin bahwa bias dalam LLM sudah menjadi masalah dan kemungkinan besar akan menjadi masalah yang lebih besar di masa depan,” kata Luca Rettenberger, peneliti pascadoktoral di Institut Teknologi Karlsruhe yang melakukan analisis LLM untuk mengetahui bias terkait terhadap politik Jerman.
Rettenberger berpendapat bahwa kelompok politik mungkin juga berupaya mempengaruhi LLM untuk mempromosikan pandangan mereka sendiri di atas pandangan orang lain. “Jika seseorang sangat ambisius dan mempunyai niat jahat, ada kemungkinan untuk memanipulasi LLM ke arah tertentu,” katanya. “Saya melihat manipulasi data pelatihan sebagai bahaya nyata.”
Telah ada beberapa upaya untuk mengubah keseimbangan bias dalam model AI. Maret lalu, satu programmer mengembangkan chatbot yang lebih condong ke kanan dalam upaya menyoroti bias halus yang dia lihat pada alat seperti ChatGPT. Musk sendiri telah berjanji untuk menjadikan Grok, chatbot AI yang dibuat oleh xAI, “pencarian kebenaran secara maksimal” dan tidak terlalu bias dibandingkan alat AI lainnya, meskipun dalam praktiknya itu juga melakukan lindung nilai ketika menyangkut pertanyaan-pertanyaan politik yang rumit. (Sebagai pendukung setia Trump dan elang imigrasi, pandangan Musk tentang “kurang bias” juga dapat diterjemahkan ke dalam hasil yang lebih berhaluan kanan.)
Pemilu AS minggu depan kemungkinan besar tidak akan menyelesaikan perselisihan antara Partai Demokrat dan Republik, namun jika Trump menang, pembicaraan mengenai anti-kebangkitan AI akan menjadi lebih keras.
Musk menawarkan pandangan apokaliptik mengenai masalah ini pada acara minggu ini, merujuk pada sebuah insiden ketika Gemini dari Google mengatakan bahwa perang nuklir lebih baik daripada menyalahkan Caitlyn Jenner. “Jika Anda memiliki AI yang diprogram untuk hal-hal seperti itu, maka dapat disimpulkan bahwa cara terbaik untuk memastikan tidak ada orang yang melakukan kesalahan adalah dengan memusnahkan semua manusia, sehingga kemungkinan terjadinya kesalahan di masa depan menjadi nol,” katanya.