Sebelum Kepala Berita Meta yang Baru Diselidiki: Hampir semua model AI cenderung politik kiri, Gemini pernah mengutip media resmi Partai Komunis Tiongkok

Di bawah Meta, kepala berita baru Campbell Brown mendirikan Forum AI, menghabiskan 17 bulan secara sistematis menilai kualitas informasi dari model AI arus utama, menemukan bahwa Gemini pernah merujuk ke situs resmi Partai Komunis Tiongkok saat menangani laporan yang tidak terkait Tiongkok, dan hampir semua model yang diuji menunjukkan kecenderungan politik kiri.
(Prakata: AI menghancurkan tradisi Universitas Princeton selama 133 tahun: Ketika “menyontek” secara perlahan menjadi kebiasaan)
(Latar belakang tambahan: 97.895 percakapan forum bawah tanah memberi tahu Anda: Komunitas hacker sebenarnya juga membenci AI)

Daftar isi artikel

Toggle

  • Masalah yang tidak diuji oleh siapa pun
  • Kesalahan yang lancar, lebih sulit dideteksi daripada keheningan
  • Regulasi memaksa, bukan kesadaran moral

Brown adalah mantan jurnalis, pernah menjadi pembawa acara di CNN, kemudian beralih menjadi kepala berita Meta, langsung mengelola kebijakan bagaimana Facebook menampilkan berita kepada 3 miliar pengguna di seluruh dunia.

Posisi ini memberinya pandangan dekat tentang gambaran besar “bagaimana platform membentuk aliran informasi”. Dia meninggalkan Meta 17 bulan lalu, dan mendirikan Forum AI di New York, yang fokus pada satu hal yang umum dilewati perusahaan model fondasi: evaluasi sistematis apakah informasi yang diberikan AI akurat, adil, dan memiliki berbagai sudut pandang.

Masalah yang tidak diuji oleh siapa pun

Produk inti Forum AI adalah sebuah “kerangka acuan peristiwa geopolitik”.

Cara kerjanya: Forum AI mengundang sejumlah konsultan top dengan spektrum politik dan latar belakang profesional berbeda: Niall Ferguson, Fareed Zakaria, mantan Menteri Luar Negeri AS Tony Blinken, mantan Pemimpin Minoritas DPR Kevin McCarthy, mantan Penasehat Keamanan Nasional AS Anne Neuberger… untuk menilai satu per satu jawaban dari model AI arus utama terhadap peristiwa geopolitik yang kompleks tersebut.

Saat ini, Forum AI telah mencapai tingkat kesepakatan sekitar 90% dengan para ahli manusia, sehingga hasil penilaian Forum AI memiliki standar yang dapat diperdebatkan, bukan sekadar pandangan satu orang.

Masalah yang ditemukan Brown terbagi menjadi tiga tingkat, masing-masing lebih sulit diperbaiki dari sudut pandang teknis.

Tingkat pertama adalah celah logika dalam pemilihan sumber. Gemini, saat menangani laporan yang tidak terkait Tiongkok, merujuk ke konten dari situs resmi Partai Komunis Tiongkok. Ini bukan sekadar kesalahan fakta biasa, melainkan masalah logika penyaringan sumber: AI hanya menilai “ini teks, ini tautan”, tanpa menilai “posisi sumber ini apa, tingkat kepercayaannya bagaimana, apakah memiliki tujuan politik yang jelas”.

Politik dari sumber itu sendiri tidak terlihat dalam proses output AI.

Tingkat kedua adalah bias politik struktural. Hampir semua model arus utama yang diuji menunjukkan kecenderungan politik kiri. Ini bukan teori konspirasi, melainkan hasil alami dari distribusi data pelatihan. AI belajar dari teks apa pun, dan cenderung meniru nada dan kerangka posisi dari teks tersebut.

Konten utama di internet berbahasa Inggris — laporan media utama, makalah akademik, posting media sosial — secara keseluruhan memiliki kecenderungan politik tertentu, dan model yang dilatih akan mewarisi kecenderungan ini, tanpa menyadarinya.

Lebih rumit lagi, bias ini bukan bug yang bisa diperbaiki, melainkan tertanam dalam logika output setiap kali model menghasilkan jawaban.

Tingkat ketiga adalah kurangnya konteks dan berbagai sudut pandang. Brown menyatakan bahwa model saat ini umumnya kekurangan “latar belakang konteks, berbagai sudut pandang, dan transparansi argumen”. Jawaban AI berupa pernyataan, bukan struktur seperti “Ini dianggap mewakili posisi A oleh kelompok A, dan posisi B oleh kelompok B, dan perbedaan mendasar keduanya adalah…”.

AI memberi Anda jawaban, tetapi tidak memberi tahu dari sudut pandang mana jawaban itu berasal.

Kesalahan yang lancar, lebih sulit dideteksi daripada keheningan

Brown menunjukkan sebuah blind spot struktural: perusahaan model fondasi dalam menilai dan memberi peringkat model, lebih mengutamakan kemampuan matematika, pengkodean, dan penalaran logika, sementara akurasi informasi dan keberagaman politik hampir tidak pernah masuk dalam daftar standar pengujian utama.

Alasannya tidak sulit dipahami. Kode memiliki benar dan salah, dan pengujian bisa langsung mengetahuinya. Soal matematika memiliki jawaban standar, dan tingkat keakuratannya bisa dihitung. Tapi, “apa yang membuat sebuah laporan berita geopolitik akurat dan adil” siapa yang bisa menilai? Berapa banyak orang dengan sudut pandang berbeda yang diperlukan untuk mencapai konsensus? Masalah ini tidak memiliki solusi rekayasa.

Dalam proses pengembangan produk yang dipimpin insinyur dan didasarkan pada peringkat standar untuk menentukan posisi pasar, hal ini secara sistematis dilewati. Akibatnya, akurasi informasi hampir menjadi indikator yang tidak terlihat dalam sistem penilaian kemampuan AI.

Biaya dari dilewatinya hal ini bisa dilihat dari sebuah kasus konkret. Tahun lalu, kota New York melakukan audit kepatuhan terhadap sistem rekrutmen berbasis AI, untuk memeriksa apakah alat penyaringan AI yang digunakan oleh pemberi kerja melanggar undang-undang anti-diskriminasi yang berlaku. Hasil audit menunjukkan bahwa lebih dari setengah kasus tidak mendeteksi pelanggaran.

Masalah angka ini bukan karena “tingkat pelanggaran rendah”, melainkan mungkin menunjukkan bahwa: keakuratan alat AI yang melakukan audit itu sendiri tidak cukup, sehingga tidak mampu mendeteksi masalah, bukan bahwa masalahnya benar-benar tidak ada.

Ini adalah inti dari argumen Brown: Masalah AI bukan hanya memberi fakta yang salah, tetapi juga membuat orang percaya pada fakta yang salah.
Seseorang yang tahu bahwa dia tidak tahu sesuatu setidaknya masih punya kesempatan untuk mencari tahu. Tapi ketika AI memberikan jawaban yang lancar, percaya diri, dan tanpa ragu-ragu, dengan nada yang meyakinkan, kebanyakan pengguna tidak punya alasan untuk meragukannya.

Kesalahan yang lancar, lebih sulit dideteksi daripada keheningan, dan juga lebih sulit diperbaiki.

Regulasi memaksa, bukan kesadaran moral

Penilaian Brown tegas: perubahan tidak akan didorong oleh tekanan moral atau opini publik, melainkan oleh risiko kepatuhan perusahaan yang membawa tekanan bisnis.

Argumennya didasarkan pada realisme: dalam struktur insentif industri AI saat ini, tidak ada yang cukup kuat alasan untuk secara aktif menyelesaikan masalah ini, sampai biayanya menjadi tidak bisa diabaikan. Pengajuan kredit, penjaminan asuransi, penyaringan rekrutmen — semua keputusan AI dalam skenario ini tunduk pada regulasi yang berlaku.

Begitu AI mengeluarkan hasil yang diskriminatif atau tidak akurat, perusahaan yang menggunakannya harus menanggung tanggung jawab hukum. Tekanan ini akhirnya akan mengalir ke produsen model, menuntut mereka menyediakan output yang dapat diaudit, dapat diverifikasi, dan memiliki jaminan keakuratan. Bukan karena mereka merasa ini secara moral benar, tetapi karena kontrak dengan klien perusahaan mulai memasukkan persyaratan ini.

Lerer Hippeau tahun lalu memimpin investasi awal sebesar 3 juta dolar untuk Forum AI. Angka ini kecil di bidang AI, tetapi mewakili sebuah penilaian: “evaluasi AI” adalah sebuah bisnis, dan permintaan untuk bisnis ini mungkin berkembang lebih cepat daripada yang terlihat saat ini.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Disematkan