Artificial Intelligence
Salah kaprah AI

Kecerdasan buatan tidaklah adil atau netral seperti yang terlihat di permukaan.
Kecerdasan buatan tidaklah adil atau netral seperti yang terlihat di permukaan. | Foto (detail): © Adobe

Di era modern, revolusi digital menyentuh semua bidang tanpa terkecuali. Mulai dari transportasi, komunikasi, hingga konsumsi, semuanya dikendalikan oleh kode, dan kode itu makin cerdas. Namun, kecerdasan buatan sesungguhnya tidak seadil ataupun senetral yang terlihat di permukaan.
 

Detik-Detik Menjelang Kecelakaan

“SISTEM GAGAL”: Lampu merah berkedip-kedip di dasbor sebuah mobil yang bekerja dengan sistem otonom. Mobil melaju mendekati lampu lalu lintas, namun di luar dugaan gagal mengerem. Dalam beberapa detik selanjutnya, mobil itu akan menyebabkan kecelakaan di jalan raya. Apa yang akan dilakukan oleh program komputer? Akankah program memerintahkan mobil agar terus melaju dan menghantam para pejalan kaki? Atau akankah program mengalkulasi jalur baru untuk kemudian membanting setir sehingga menabrak tiang di dekatnya agar mobil bisa berhenti, namun berpotensi membahayakan nyawa Anda sebagai penumpang? Dalam situasi demikian, mungkinkah manusia—apalagi program komputer—membuat keputusan yang tepat?

Perhatian saya terhadap isu etika di bidang kecerdasan buatan (AI) beranjak dari skenario di atas, yang merupakan versi masa kini dari “trolley problem” yang terkenal. Pada tahun 2016, saya bekerja di Silicon Valley sebagai pengembang peranti lunak untuk program komputer di balik mobil-mobil dengan sistem otonom, atau self-driving. Untuk kami, dilema di dalam skenario di atas bukan sekadar pertanyaan tentang moralitas. Di dunia ilmu komputer, kami menyebutnya skenario yang terburuk

Di era modern ini, revolusi digital menyentuh semua bidang tanpa terkecuali. Mulai dari transportasi, komunikasi, hingga konsumsi: pada tahun 2022, segalanya dikendalikan oleh kode yang ditulis oleh beragam tim pengembang program, dan kode itu selalu mengandung ide, keyakinan, dan bias pembuatnya tentang bagaimana dunia bekerja. Sejatinya, bias algoritma tidak pernah lepas dari ilmu komputer. Pada tahun 1976, Joseph Weizenbaum, seorang pionir di bidang komputer, menyatakan peringatan tentang dampak negatif yang (tidak) disengaja dari kode komputer. Tidak lama sejak peringatan itu, kasus-kasus pertama mengenai program komputer yang tidak etis mulai muncul. Antara tahun 1982 dan 1986, terdapat lebih dari 60 perempuan dan individu dari kelompok etnis minoritas yang ditolak pendaftarannya di Sekolah Kedokteran St. George karena bias dalam sistem otomatis untuk seleksi mahasiswa baru. Sayangnya, Joseph Weizenbaum sekalipun tidak dapat memprediksi betapa luas permasalahan yang akan muncul seiring AI yang kian berkembang dan mendorong revolusi teknologi.

Kuasa Besar, Tanggung Jawab Besar?

Pada awal dekade 2010, AI dan pembelajaran mesin memperlihatkan perubahan paradigma dalam penulisan kode. Dahulu, kode adalah instruksi yang ditulis sebagai urutan deterministik (ibarat instruksi memasak di buku resep) dan memberikan perintah kepada komputer. Kini, dengan berkembangnya pembelajaran mesin, kode bisa berasal dari data yang amat banyak (ibarat chef yang menjadi ahli karena pengalamannya). Dengan cara ini, aplikasi yang sebelumnya dianggap mustahil dapat diciptakan. Misalnya, aplikasi yang bisa secara akurat mengenali tuturan (speech) dan citra (image). Tak hanya itu, ada pula program yang suatu hari nanti akan menciptakan mobil otonom yang mampu berkendara di tengah situasi lalu lintas yang kompleks. Namun begitu, perkembangan ini tidak bebas dari konsekuensi—meski canggih, ada harga mahal yang harus dibayar. Pengembangan AI mengandalkan model black box, yaitu model yang data masukan (input) dan operasionalisasinya tidak terlihat oleh pengguna sistem ataupun pihak lain yang berkepentingan. Dalam bentuknya saat ini, AI mencerminkan tidak hanya bias pengembangnya, tetapi juga bias dari data yang digunakan untuk membangun AI. Dan karena kita belum memahami mekanisme kerja black box, program-program AI sesungguhnya cukup rentan terhadap penyalahgunaan dan amat sulit dikendalikan.

Pada saat ini, AI mencerminkan tidak hanya bias pengembangnya; ada pula bias dari data yang digunakan untuk membangun AI.

Dilema etika yang dimunculkan kemajuan teknologi mungkin terasa seperti jalan cerita dalam suatu karya fiksi ilmiah. Program AI di balik mobil-mobil otonom mungkin saja membuat keputusan untuk berbelok atau terus melaju berdasarkan data yang digunakan untuk ‘melatihnya’. AI bisa belajar untuk menghitung jumlah manusia di depannya, kemudian mengambil keputusan berdasarkan hasil penghitungan. AI juga bisa membuat keputusan berdasarkan kemampuannya mengenali ciri-ciri seperti gender, usia, atau kebangsaan dari citra yang ditangkap (untuk diskusi lebih jauh, lihat mesin moral MIT).

Pengalaman dalam mempelajari skenario seperti tersebut mengajarkan saya betapa pentingnya mempertimbangkan dua hal, yaitu kemungkinan kegagalan sistem dan bias laten algoritma. Dalam situasi itu, bisa jadi tidak akan pernah ada keputusan yang tepat yang dapat diambil oleh kendaraan otonom. Namun, sebagai masyarakat, kita tahu bahwa program AI tidak seharusnya mengambil keputusan berdasarkan ciri yang diskriminatif, seperti ras atau gender.

Ada tanggung jawab besar yang mengiringi pengembangan program AI, dan membayangkan tanggung jawab ini seringnya menakutkan. Miliaran nyawa berpotensi terdampak oleh hasil pekerjaan sejumlah kecil engineer program. Saya pikir, ah, tak perlu khawatir. Seharusnya, kita bisa percaya kepada segelintir orang-orang penting di pucuk perusahaan; percaya bahwa mereka tahu titik penting kegagalan sistem dan tidak akan menggunakan kekuasaannya untuk menciptakan aplikasi dengan konsekuensi negatif yang (tidak) disengaja. Sayang, harapan itu langsung sirna begitu saya mencoba mendalami isu ini.

Miliaran nyawa berpotensi terdampak oleh hasil pekerjaan sejumlah kecil pembuat program.

AI dan Segala Salah Kaprahnya

Saya meninggalkan Silicon Valley untuk meneruskan studi PhD di bidang kecerdasan buatan. Saya ingin membuat AI lebih dapat dipercaya. Suatu hari, saya membaca artikel berita tentang sebuah perusahaan start-up yang mengklaim perekrutan karyawannya “nihil bias” karena menggunakan teknologi pengenalan video berbasis AI. Merinding rasanya membaca artikel itu. Alangkah menakutkan menyaksikan teknologi yang belum dipahami dengan baik diterapkan di dalam proses yang sangat penting bagi kehidupan seseorang—mendapatkan pekerjaan. Klaim bahwa AI bisa digunakan sebagai penawar bias yang dimiliki manusia tidak hanya salah, tetapi juga sangat berbahaya.
 
Lebih dari itu, klaim tersebut sama sekali tidak benar. Alih-alih menghindari bias, banyak kasus justru mencontohkan sistem berbasis AI dan prediksinya menguatkan serta memperluas bias dalam skala yang belum pernah terjadi sebelumnya. Untuk memahami sebabnya, kita perlu menelaah “bumbu” utama di balik semua program AI: data historis yang menjadi basis informasi program. Dalam perekrutan yang umum terjadi, data dibuat, dikumpulkan, kemudian dipilah oleh staf yang berwenang. Dalam hal perekrutan dengan AI, data itu berisi kumpulan dokumentasi historis dari semua orang yang pernah direkrut. Dengan demikian, datanya itu sendiri tidak bebas dari bias, keyakinan, dan cara pandang pihak yang memilah data dan lingkungan tempat data dihimpun. Periode data pun mungkin saja ditarik hingga sejauh puluhan tahun ke belakang: hingga ke masa ketika gender tertentu dan kelompok minoritas diperlakukan sangat tidak adil dibandingkan situasi masa kini.

Saya tidak kaget lagi ketika membaca penelitian-penelitian yang menunjukkan bahwa alat rekrutmen berbasis AI ‘mengajarkan’ dirinya untuk mengutamakan pelamar lelaki dibandingkan perempuan. Dalam beberapa kasus, sistem bahkan mengabaikan CV yang mengandung kata-kata “perempuan”, misalnya “ketua klub catur perempuan”. Tergerak untuk membangun kesadaran tentang permasalahan ini, saya pun membuat daftar yang dinamakan Awful AI. Seiring waktu, daftar ini terus berkembang dan kini berisi ratusan aplikasi yang dipilah ke dalam beberapa kategori seperti diskriminasi, disinformasi, surveilans, dan senjata.

Otomatisasi Rasisme

Konsekuensi negatif dari aplikasi AI sering kali tidak disengaja oleh pembuatnya. Ketidaksengajaan ini dapat disebabkan oleh minimnya pemahaman dan pengetahuan tentang isu-isu etika serta batasan teknis suatu sistem. Ambil contoh Tay, sebuah chatbot buatan Microsoft yang datanya berasal dari cuitan di Twitter. Selang hanya sehari setelah diluncurkan, Microsoft terpaksa menurunkan Tay karena chatbot ini mulai mencuitkan pesan-pesan antisemit. Contoh lain adalah program pengenalan citra dari Google; program ini memberikan label gorila terhadap wajah beberapa orang kulit hitam. Recognition dari Amazon salah mengenali perempuan dengan warna kulit lebih gelap sebagai lelaki hingga 31 persen, sementara tingkat kesalahan mengenali perempuan dengan warna kulit yang lebih terang hanya sebesar 7 persen.

Permasalahan otomatisasi rasisme seperti tersebut, yang dialami oleh layanan pengenalan citra berskala besar, sudah diketahui secara luas. Dalam beberapa tahun belakangan, para peneliti pun telah mengembangkan alat dan metode untuk mempelajari model AI di lingkungan penelitian yang terpisah, dengan harapan bisa menurunkan efek negatif AI. Dilihat secara kasus per kasus, alat dan model ini cukup berhasil, namun masih belum mampu mencegah masalah lain yang lebih besar lagi. Yaitu, seiring dengan makin terbukanya era otomatisasi, prediksi yang berangkat dari bias kini digunakan sebagai basis sistem yang diterapkan di dalam banyak aspek kehidupan penting di masyarakat. Penegakan hukum adalah salah satunya.

Diskriminasi Diperkuat

PredPol adalah program pemolisian dengan kemampuan prediktif dan berbasis AI. Program ini digunakan oleh kepolisian Los Angeles untuk memprakirakan wilayah-wilayah dengan potensi kriminalitas tinggi. PredPol akan menyarankan petugas untuk berpatroli di wilayah tertentu yang telah diidentifikasi. Sama dengan situasi perekrutan karyawan, ide di balik penggunaan PredPol dalam contoh ini pun berbahaya. Dengan premis manusia tidak sempurna, teknologi AI dianggap sebagai solusi objektif untuk membantu prioritisasi wilayah patroli dan, setelahnya, melakukan penangkapan berdasarkan prediksi sistem. Namun, kini kita tentu bisa melihat betapa ide itu bermasalah. Temuan dari berbagai penelitian, dan ini tidak mengejutkan bagi penelitinya, menunjukkan bahwa PredPol memiliki bias yang cukup berat terhadap lokasi-lokasi yang dahulu kerap didatangi polisi. Akibatnya, terjadi pengawasan yang berlebihan di wilayah yang penduduknya didominasi orang-orang kulit berwarna. Nyatanya, AI ‘belajar’ menggunakan data historis semua kejadian penangkapan di Amerika Serikat. Padahal, data penangkapan sesungguhnya merupakan indikator yang kuat dari rasisme sistematis yang terdapat di dalam sistem hukum. Yang kemudian terjadi adalah, PredPol tidak hanya meniru rasisme yang terkandung di dalam data input-nya, tetapi juga mengotomatisasi rasisme itu dalam skala besar, kemudian mempertajam efeknya.

Aspek yang berbahaya dari contoh di atas adalah program AI dianggap cukup objektif dan kompleks sehingga petugas tidak memandang prediksi program secara kritis. Jauh dari objektif, prediksi PredPol malah bisa digunakan untuk membenarkan dan menguatkan rasisme yang sudah ada terhadap populasi kulit berwarna. Siklus jahat pun tercipta: dengan main banyaknya penangkapan terhadap individu dengan kulit berwarna atas saran AI, terbentuk set data baru yang digunakan untuk melatih algoritma sistem.

Uni Eropa juga bereksperimen dengan program AI di bidang penegakan hukum. Bentuknya, misalnya, tes poligraf berbasis AI terhadap pengunjung yang ingin memasuki wilayah UE, ataupun sistem deteksi penipuan berbasis AI. Beruntung, kesadaran mengenai dilema etika terkait AI mulai meningkat dan tercatat ada beberapa kota besar pertama yang mulai melarang penerapan teknologi AI untuk penegakan hukum. Pertanyaannya kemudian, bagaimana jika diskriminasi dan kontrol yang otomatis menguntungkan negara? Seperti apa wajah suatu masyarakat jika negaranya menganggap bias AI adalah hal yang positif dan tak perlu diatasi?

Pemerintahan-pemerintahan yang otokratis diketahui selalu ingin mendorong batas-batas penggunaan AI untuk tujuan surveilans dan tujuan lainnya yang tidak etis. Perkembangan terbaru AI memungkinkan surveilans dilakukan dalam skala besar dan real-time serta mencakup semua jejak digital dan fisik. Tujuan surveilans pun tidak terbatas pada mengenali identitas seseorang. Sejumlah program AI saat ini sedang dikembangkan untuk memprediksi seksualitas, target surveilans, risiko penyakit, ataupun tingkat kemungkinan seseorang terlibat dalam tindak kejahatan hanya berdasarkan pada ciri-ciri wajah. Partai Komunis Tiongkok berencana melangkah lebih jauh dan menggunakan aplikasi AI untuk menentukan hukuman bagi orang-orang yang melanggar peraturan tertentu. Ada pula sistem kredit sosial yang secara otomatis memberikan poin kepada setiap warga negara dan menentukan kelayakan warga dalam mengakses layanan tertentu berdasarkan skor yang diraihnya. Kedua sistem ini tengah diuji coba di banyak wilayah di Tiongkok sebagai bentuk pemberian insentif dan hukuman serta digunakan untuk mempersekusi kelompok etnis minoritas.

Mencegah Penyalahgunaan Data

Sejauh ini, tulisan ini menggambarkan sisi gelap AI. Akan tetapi, kita tidak harus kehilangan harapan—bagian penting dalam mendorong perubahan adalah menumbuhkan kesadaran bahwa teknologi AI, dan berbagai aplikasinya, ada atau berpotensi ada tak lama lagi. Agar kehidupan kita tidak jatuh di bawah kendali AI akibat penerapannya yang salah kaprah, kita butuh semua elemen masyarakat untuk bekerja sama. Pengembang program dan pegiat teknologi harus menyadari konsekuensi aplikasi yang dibuatnya dan tanggung jawab yang dimlikinya saat teknologi hendak digunakan di dunia nyata. Jangan alpa mempertimbangkan kemungkinan kegagalan, isu etika, dan norma sosial.

Penelitian-penelitian baru sudah menunjukkan cara mencegah penyalahgunaan data. Teknologi yang terdesentralisasi dan proyek penelitian kami sendiri, seperti Kara sedang menjajaki cara-cara untuk memberikan batasan otomatis terhadap pengembangan aplikasi AI jika tidak ada persetujuan penggunaan data dari pemiliknya. Terdapat pula inisiatif seperti “Stop Killer Robots” yang menyasar tataran kebijakan yang tertinggi untuk melarang aplikasi AI yang merugikan serta mengedukasi pembuat keputusan. Pemangku kebijakan sangat perlu memahami batasan-batasan dari perkembangan teknologi saat ini, untuk kemudian membuat regulasi yang mendukung pengembangan AI secara aman.

Akhirnya, pelaku usaha perlu berhati-hati agar tidak termakan tren kehadiran robot pintar hanya untuk mengejar keuntungan jangka pendek. AI bukan ‘peluru perak’ yang bisa menjawab semua permasalahan dunia. AI adalah alat yang bisa memberikan dan memperluas solusi-solusi baru, namun sekaligus melanggengkan permasalahan sosial yang sudah ada. Masih banyak pekerjaan rumah yang harus dilakukan tanpa ada waktu untuk merasa ketakutan.

Top