Bias dan Eror
Ketika AI Terimbas Bias
Waktu yang kita habiskan di dunia maya kian bertambah dalam sepuluh tahun terakhir. Dunia ini pun makin lama makin dikendalikan oleh segelintir korporasi yang memegang kendali signifikan atas hal-hal yang dapat kita lihat dan katakan, serta perangkat yang dapat kita akses. Bagi banyak orang, kendali ini tidak terhindarkan.
Bicara tentang citra yang kita dapatkan di internet, kendali tersebut diwujudkan dalam beberapa cara: Pertama, dalam menentukan apa yang dapat dan tidak dapat dilihat oleh pengguna platform. Terdapat berbagai macam konten yang dibatasi aksesnya oleh perusahaan pemilik platform – dan pemerintah – mulai dari bagian tubuh yang telanjang hingga gambar atau video yang mengandung informasi pribadi. Instagram, misalnya, melarang konten bermuatan seksual yang eksplisit, sementara Twitter baru-baru ini mengeluarkan peraturan bahwa video yang bersifat privat tidak dapat dibagikan. Pembatasan ini dapat dibenarkan, namun sekaligus dapat berdampak negatif terhadap para pengguna platform, khususnya yang mungkin punya alasan kuat saat mengunggah konten tertentu.
Kedua, melalui fitur filter di platform populer seperti Snapchat, Instagram, dan TikTok yang dapat mendistorsi citra dan, tak jarang, termasuk citra diri. Kritik pun berdatangan dari pembuat kebijakan, psikolog, dan masyarakat biasa, mengingat filter foto dan video berdampak nyata terhadap citra tubuh; filter menggiring pengguna internet untuk memiliki persepsi yang seragam mengenai penampilan yang “ideal”. Makin luas persepsi ini diterima, makin terbangun pula ekspektasi seseorang tentang penampilan orang lain. Akibatnya, orang-orang yang tampil berbeda berpotensi mengalami diskriminasi atau menjadi sasaran bias.
Ketiga, dan mungkin yang paling mengkhawatirkan, adalah penggunaan algoritma untuk menyajikan konten berdasarkan pencarian pengguna, atau konten yang muncul dalam feed pengguna. Dampak algoritma, khususnya terhadap klasifikasi dan penyajian gambar, keji dan terjadi secara perlahan: secara teratur, algoritma mengelompokkan gambar-gambar yang diskriminatif, bias, atau terang-terangan keliru, dengan konsekuensi yang amat serius terhadap pengguna plaform.
Secara teratur, algoritma mengelompokkan gambar-gambar yang diskriminatif, bias, atau terang-terangan keliru.
Tengoklah kejadian tahun 2015, ketika teknologi pengenal gambar dari Google keliru menglasifikasi orang kulit hitam sebagai gorila. Meski diklaim tak disengaja, kesalahan ini menunjukkan bahwa algoritma dapat diberikan asupan data yang pada akhirnya bermasalah. Algoritma itu sendiri boleh jadi murni perkara matematika, akan tetapi data yang menjadi asupannya adalah buatan manusia, dan manusia punya bias dan keterbatasan pengetahuan. Tidak hanya itu, algoritma sebagai mesin yang dapat belajar umumnya beroperasi seperti kotak hitam. Algoritma tidak dapat menjelaskan proses kerjanya hingga ia mencapai suatu keputusan; dengan begitu, penggunanya pun tak tahu pasti apakah kejadian tahun 2015 disebabkan oleh rasisme yang dengan sengaja diprogram/dibangun ke dalam kode atau sekadar kelalaian dalam penggunaan set data. Lebih jauh, perusahaan-perusahaan umumnya tidak mengungkap asumsi di balik teknologi dan set datanya, sehingga para pihak ketiga tidak dapat mencegah kesalahan tersebut.
Cerita seperti di atas mudah diungkap. Yang lebih sulit adalah mengungkap efek dari penggunaan perangkat berbasis kecerdasan buatan (AI) untuk memoderasi konten yang dihasilkan pengguna platform. Sebab, dalam konteks ini, sebagian besar kesalahan yang dibuat oleh perangkat teknologi tidak akan kasatmata, terlebih asupan data yang menyebabkan kesalahan itu.
Andrew Strait, mantan moderator konten, dalam terbitan Fake AI baru-baru ini menulis, “Sistem ini terkenal payah dalam membaca nuansa dan konteks ujaran di internet, sehingga berkali-kali juga gagal membedakan video ilegal yang melanggar hak cipta dengan video parodi yang sah-sah saja, atau membedakan pernyataan rasis yang ditulis oleh korban rasisme dengan yang ditulis oleh pelakunya.”
AI, Mata yang Tidak Melihat
Salah satu contoh kerugian akibat AI adalah AI yang digunakan untuk mengenali dan menghapus konten, dan khususnya citra, dari kelompok ekstremis dan teroris. Bukti-bukti tentang kerugian ini pun telah diteliti. Dalam beberapa tahun terakhir, platform-platform digital makin mengandalkan AI untuk mendeteksi dan menghapus konten yang dianggap sesuai dengan definisi ekstremis dan teroris. Hal ini dilakukan dengan didukung oleh pemerintah di seluruh dunia yang ingin menghapus konten bermuatan ekstremisme dan terorisme. Namun, kriteria klasifikasi yang digunakan sering kali bersifat biner, sehingga tidak menyisakan ruang bagi konteks. Gambar yang meliputi simbol-simbol kelompok teroris, misalnya, otomatis diklasifikasikan sebagai konten teroris. Padahal, bisa saja simbol dihadirkan atas alasan artistik atau justru untuk memprotes teroris. Begitu pula dengan konten yang diunggah untuk alasan sejarah, mengarsipkan peristiwa, atau alasan HAM ; konten pasti terdeteksi dan dihapus. Penggunaan teknologi dalam membuat keputusan yang sarat konteks malah menjamin bahwa hasil keputusan itu sangat hitam dan putih, nyaris tak ada ruang bagi ungkapan-ungkapan penting.
Baik AI sebagai alat pencari maupun sebagai alat untuk memoderasi konten secara otomatis, manfaat dan kecerdasan AI ditentukan oleh set datanya – set data yang rentan terhadap eror dan bias manusia. Sebab itu, untuk melawan diskriminasi yang ditimbulkan oleh data, kita harus dapat melihat ke balik layar. Tujuannya, agar kita paham dan dapat melawan asumsi dan bias dari para manusia pencipta set data – asumsi dan bias yang makin menyetir hal-hal yang kita lihat dan bagaimana kita melihatnya.
Namun, transparansi saja tidak cukup. Transparansi memang akan membuat kita lebih paham duduk masalah dan dapat meluruskan kekeliruan yang spesifik, akan tetapi sebagai masyarakat kita harus mulai bertanya tentang peran yang kita inginkan dari teknologi seperti AI dalam memandu cara kita melihat dunia. Untuk itu, kita harus berhenti melihat AI sebagai teknologi yang nihil nilai dan mulai membuka mata terhadap sifat politis yang inheren dalam penggunaan AI.
Baik AI sebagai alat pencari maupun sebagai alat untuk memoderasi konten secara otomatis, manfaat dan kecerdasan AI ditentukan oleh set datanya—set data yang rentan terhadap eror dan bias manusia.
Contoh pengaruh politik dapat dilihat pada penggunaan AI dalam upaya menanggulangi ekstremisme. Kebijakan-kebijakan yang mendasari penggunaan AI dalam hal ini dapat dipastikan bersifat politis. Secara gamblang, kebijakan-kebijakan itu berfungsi untuk memisahkan antara kekerasan (yang dilakukan negara) yang dapat diterima dari kekerasan yang dilakukan oleh aktor nonnegara (tertentu). Tentu, penghapusan konten yang berisi kekerasan adalah hal yang mulia. Namun, hal ini dilakukan bukan semata-mata karena keprihatinan suatu kebijakan terhadap gambar-gambar kekerasan, melainkan karena kebijakan itu juga mengkhawatirkan hal apa pun yang terkait dengan kelompok yang secara resmi disebut ekstremis oleh sebuah perusahaan atau pemerintah. Hasil kebijakan seperti ini tidak berhenti pada mitigasi bahaya, melainkan sensor secara menyeluruh.
Keamanan Dunia Maya atau Sensor di Dunia Maya
Masih banyak contoh-contoh lain: sensor ekspresi seksual atas nama “keamanan di internet” ataupun klasifikasi dari mis- dan disinformasi yang mayoritas dilakukan oleh AI—AI yang diberikan asupan set data berdasarkan kebijakan yang secara inheren politis. Dalam semua contoh yang telah diberikan, kebijakan di belakangnya diketahui oleh publik. Namun, tidak demikian dengan tingkat eror. Dengan kata lain, kebijakan bisa dibedah dan didorong untuk diubah; namun mustahil bagi kita untuk melihat, atau mengetahui, jumlah persis ungkapan yang sah (baca: ungkapan yang sesungguhnya berada di luar cakupan pembatasan konten) yang terdeteksi dan dihapus oleh AI di bawah pengawasan yang sangat minim, bahkan mungkin tidak ada.
Lalu, di luar seruan untuk memahami sifat politis AI dan memperjuangkan transparansi dalam pemanfaatan AI, apa yang dapat kita lakukan? Haruskah kita menerima situasi ini sebagai kenyataan baru, ataukah ada intervensi yang dapat kita ambil untuk mengubah arah “kemajuan”?
Dalam buku Silicon Values: The Future of Free Speech Under Surveillance Capitalism, saya menyatakan, masa depan ada di tangan kita. Kita tidak seharusnya pasrah menerima “tren” ini begitu saja. Sebaliknya, kita perlu bertahan dengan sikap bahwa “keputusan tentang apa-apa yang boleh kita ungkapkan harus dipertimbangkan dan diperhatikan secara manusiawi, bukan diserahkan begitu saja kepada pemikiran semena-mena para aktor dan algoritma yang tidak dapat dimintai pertanggungjawaban.”
Pada akhirnya, ini berarti kita tidak dapat berhenti pada upaya mengatasi kerugian akibat teknologi. Kita juga harus membentuk dan menimbang kembali, bahkan mungkin melucuti sistem teknologi tersebut.