Akses cepat:

Langsung ke konten (Alt 1) Langsung ke menu utama (Alt 2)

Perlindungan Data
Sebuah Masyarakat Itu Lebih Dari Jumlah Para Anggotanya

Bagaimana kalau aplikasi menjadi arsitek baru untuk perkotaan? Mengapa regulasi untuk aplikasi digital mendesak disesuaikan.
Bagaimana kalau aplikasi menjadi arsitek baru untuk perkotaan? Mengapa regulasi untuk aplikasi digital mendesak disesuaikan. | Foto (Detail): © picture alliance/Goldman

Apakah di Facebook, Siri atau Alexa – kurangnya perlindungan untuk ranah pribadi dalam kaitan dengan teknologi kecerdasan buatan sering dikeluhkan oleh publik. Tetapi yang lebih menarik bagi sistem-sistem cerdas sebenarnya bukan data individual, melainkan upaya generalisasi dan standardisasi konteks kehidupan, yang dikerjakan secara otomatis.

Zoom dan Skype, media sosial dan jam pintar – tapi juga ponsel pintar, bank dan asuransi – menggunakan sistem algoritme rumit yang biasa juga disebut sistem dengan “kecerdasan buatan”. Agar dapat berfungsi dengan baik, beberapa di antara sistem-sistem itu mengumpulkan data dalam jumlah sangat besar. Ini berlaku misalnya untuk penyedia jasa seperti Spotify, mesin pencari Google, Instagram, Siri, maupun Alexa.
 
Berdasarkan data tersebut dapat ditarik kesimpulan tertentu, yang kadang-kadang jauh melampaui selera musik atau pun preferensi pencarian para pengguna. Sebagai contoh: jika seseorang mendengarkan musik yang populer di kalangan LGTBQI+, apakah ini bisa menjadi dasar untuk mengira-ngira orientasi seksualnya? Seberapa akurat perkiraan itu? Bagaimana dengan latar belakang budaya seseorang yang mendengarkan Black Music, R&B atau musik dalam bahasa tertentu?
 
Banyak di antara data yang terkumpul sepintas lalu berkesan remeh-temeh, namun dalam konteks tertentu data itu dapat menjadi peka, dan ini membuat pers dan publik mulai mengeluh bahwa ranah pribadi sudah tidak ada. Yang sering kali terlupakan adalah bahwa berbagai infrastruktur tersebut pada umumnya tidak tertarik kepada person konkret yang berada di balik data itu. Meskipun sebuah sistem mengumpulkan dan memanfaatkan data pribadi – misalnya ketika Spotify menawarkan pilihan musik yang disesuaikan untuk orang tertentu – data pribadi yang konkret tidaklah relevan untuk sistem secara keseluruhan.

Adonan data matematika

Istilah “kecerdasan buatan” merujuk kepada sistem-sistem sosio-teknis dengan aspek manusia dan aspek mesin yang sulit dipisahkan satu sama lain. Sistem-sistem ini berlandaskan asumsi-asumsi mengenai dunia dan orang-orangnya, berikut maksud dan tujuan mereka, yang didasarkan atas keputusan manusia. Hal yang sama berlaku untuk pengolahan data yang diperlukan untuk itu. Data mengenai orang diterjemahkan menjadi bagian-bagian kecil seperti pada permainan puzzle. Rumus-rumus matematika yang mengolah data tersebut mencampurkan semuanya menjadi semacam adonan – kumpulan individu dijadikan rerata dan profil statistik: individu-individu yang terjabarkan dengan cermat tapi sekaligus “generik”.
 
Gambaran berikut dapat memperjelas apa yang dimaksud: Perhatian diberikan bukan kepada tiap-tiap pohon di dalam hutan (individu), melainkan kepada hutan (masyarakat) secara keseluruhan. Namun ambivalensi dan ambiguitas kehidupan manusia tidak dapat sepenuhnya diterjemahkan menjadi data dan algoritme. Tapi infrastruktur tersebut memang tidak dimaksudkan untuk itu, melainkan lebih banyak bertujuan menata kehidupan manusia, sebagaimana komentar ahli ilmu hukum asal Britania, Michael Veale. Sistem-sistem itu digunakan untuk mengotomatisasi proses-proses tertentu. Ini berarti bahwa untuk proses yang jika dikerjakan secara manual memungkinkan beberapa opsi dan cara, kini ditetapkan standar yang menghilangkan fleksibilitas itu. Dimulai dari keputusan apa yang didatakan dan apa yang tidak didatakan: Mana yang dikenali sebagai data, dan dalam format seperti apa, adalah sebuah keputusan mengenai apa yang dilihat oleh sistem dan apa yang tidak ada dalam sistem karena tidak terdatakan. Berbagai standar, format data, keputusan pendataan dsb. pada sistem dengan demikian mendiktekan bagaimana akses, partisipasi dan interaksi berlangsung di dalam sebuah layanan.
 
Justru di sini terlihat masalah mendasar pada regulasi sistem-sistem tersebut: Hak-hak dasar dan perlindungan data merupakan hak perorangan; seluruh sistematika hak dasar dan hak-hak turunan yang konkret berpangkal pada individu. Dengan kata lain: Terkait dengan hak dasar, sistem hukum Jerman hanya melihat pohon, bukan hutan. Upaya mengatur berbagai teknologi tersebut dengan perangkat hukum yang ada saat ini ibarat menganggap seluruh hutan bisa dikontrol dengan regulasi yang berlaku untuk pohon-pohon secara individual. 

Mengidentifikasi kejahatan dalam klaster

Contoh yang baik untuk pertentangan di antara sistem hukum dan sistem kecerdasan buatan yang  beroperasi adalah sistem predictive policing, atau “kerja polisi berdasarkan prediksi”. Sistem ini mengidentifikasi pola perilaku pada berbagai kategori kejahatan, kemudian menggunakan informasi tersebut untuk mencegah kejahatan serupa. Berhubung teknologi seperti itu menyerupai infrastruktur, sementara perlindungan data hanya mengatur hak individual, beberapa di antara program yang digunakan di Jerman itu luput dari regulasi undang-undang. Di beberapa bagian Jerman, misalnya, kepolisian negara bagian setempat menggunakan perangkat lunak Precobs, yang menggunakan data anonim mengenai jenis kejahatan serta data geografis dan kronologis untuk memprediksi pencurian dengan modus operandi dan parameter geografis tertentu untuk kurun waktu tertentu. Instansi perlindungan data di negara bagian bersangkutan mengizinkan penggunaan perangkat lunak itu – karena tidak ada data pribadi yang diolah sehingga perangkat lunak tersebut tidak masuk ke lingkup wewenang masing-masing. Perangkat lunak Precobs antara lain digunakan di Baden-Württemberg dan Nordrhein-Westfalen dengan tujuan mencegah pencurian. Perangkat lunak Precobs antara lain digunakan di Baden-Württemberg dan Nordrhein-Westfalen dengan tujuan mencegah pencurian. | Foto (Detail): © picture alliance / Zoonar / Robert Kneschke Padahal sistem itu menimbulkan sejumlah pertanyaan: jika di bagian kota tertentu tiba-tiba terlihat lebih banyak petugas polisi, apakah para warga akan merasa lebih aman? Ataukah situasi itu justru memicu perpindahan besar-besaran di kalangan warga yang mampu mencari tempat tinggal di bagian kota lain? Pertanyaan-pertanyaan ini tidak terjawab secara hukum. Penelitian menunjukkan bahwa kehadiran petugas polisi di pertandingan sepak bola justru membuat kelompok perusuh semakin bersedia melakukan kekerasan. Karena alasan itulah dikerahkan petugas polisi berpakaian sipil.
 
Dampak sosial program seperti Precobs tidak dipertimbangkan secara politik maupun diantisipasi secara hukum. Hal yang mendapat perhatian dari segi hukum semata-mata apakah ada hak individual (terkait perlindungan data) yang dilanggar oleh perangkat lunak itu atau tidak. Di sini terlihat: Stabilitas sosial satu kota tidak bisa dipetakan dengan perangkat predictive policing di satu pihak dan regulasi bersifat individual di pihak lain. Oleh karena itu stabilitas sosial sering kali terabaikan.

Memperhatikan nilai-nilai kemasyarakatan

Sistem sosio-teknis seperti predictive policing memperlihatkan bagaimana komunitas tidak dilihat sebagai suatu kesatuan di dalam masyarakat individualistis. Sebuah masyarakat itu lebih dari jumlah para anggotanya dan tidak hanya memerlukan hak individual, melainkan harus menyeimbangkan hak individual tersebut dengan nilai-nilai kemasyarakatan. Hal ini harus selalu diperhatikan dalam telaah terhadap sistem-sistem berbasis algoritme. Itulah yang diabaikan oleh negara-negara demokrasi. Itu pula yang menjadi pekerjaan rumah untuk masa depan.

Top