Digitales! Program, deschide-te!

Nu este om să nu fie auzit de problema discriminării la școală sau la locul de muncă. Dar această discriminare se regăsește și pe rețelele de socializare și pe motoarele de căutare. Cum este posibil așa ceva?

De Kim Maurus

Când intrăm pe Instagram sau Facebook, ne lovim de nenumărate poze și pagini cu reclame, meme, poze cu prietenii sau articole cu titluri senzaționaliste. Vedem tot felul de postări sponsorizate care ne trezesc suspiciunea că telefonul a tras cu urechea la ultima conversație. Tocmai când ne gândeam ce bine arată gecile de velur galben și că nu ne-ar sta urât cu una, ne și apare o reclamă cu exact o astfel de geacă. Software-ul din spatele rețelelor de socializare ne cunoaște. Ei bine, aici avem o problemă.

Evident, nu spune nimeni că liniile de cod din programele respective sunt conștiente. Totuși, aceste programe decid ce postări ajung la noi pe rețelele de socializare și în multe alte cotloane ale internetului. Postările virale sunt distribuite și mai abitir de algoritmul Facebook, adică ajung la mai mulți utilizatori. De când cu profilurile false de pe rețelele de socializare (așa-numiții boți sociali), am aflat și cât de ușor se dirijează comunicarea și se schimbă opiniile. Aici putem aminti de comentariile care instigă la ură de la diverse articole, jumătate dintre ele false și cealaltă jumătate provocatoare din adins. Nu e clar ce gândesc utilizatorii, pentru că cei mai mulți dintre ei nu comentează. Asta înseamnă că părerea lor nu ajunge la alți utilizatori. Ca s-o spunem pe-a dreaptă, avem o imagine complet distorsionată a opiniei publice. Ura, denigrarea și discriminarea au ajuns să fie fenomene complet normale.
 
Cellphone Unsplash © Georgia de Lotz

O societate bazată pe software nu poate combate discriminarea.

Pe lângă asta, ne lovim adesea de o problemă mai subtilă legată de modul de funcționare a algoritmilor. Jurnalista Ingrid Brodnig a fost una dintre primele persoane care au descris dezavantajele rețelelor de socializare într-o carte cu titlul „Ura pe Internet” („Hass im Netz”). Unul dintre ele ar fi că software-ul în sine are tendințe discriminatorii. 

Putem lua ca exemplu funcția de recunoaștere facială oferită de Google. Un caz cunoscut a fost acela în care o femeie afro-americană a fost clasificată drept gorilă. Un algoritm neozeelandez de recunoaștere facială pentru pozele de pașaport a crezut că un cetățean neozeelandez de origine asiatică avea ochii închiși, declarând astfel că poza lui nu e valabilă. La o căutare pe Google după coafuri profi, rezultatele arată numai femei albe cu păr blond. La coafuri casual primim rezultate cu femei negre cu look afro. 

O explicație ar fi că, la programele autodidacte, adică cele care sunt antrenate cu o bază de date mică pentru a putea mai apoi să structureze cantități mari de date cu rapiditate, baza de date inițială este crucială pentru a determina ce învață programul respectiv. Dacă baza de date conține numai poze cu oameni albi și blonzi, programul nu poate clasifica eficient poze cu negri. Așadar, din cauza unei baze de date care nu redă diversitatea întregii societăți, programele ajung să discrimineze diverse grupuri sociale, sau, în formularea lui Ingrid Brodnig, să codeze inechitatea socială. 

Fenomenul poate fi studiat sistematic. Într-un studiu din 2014, un grup de cercetători a programat 500 de calculatoare așa încât utilizatorii să fie recunoscuți de către motorul de căutare Google ori ca bărbat, ori ca femeie. Cercetătorii au analizat apoi ce oferte de muncă primeau utilizatorii virtuali falși. Pozițiile de top le erau afișate aproape în întregime „bărbaților”, în acest caz un număr de 402 poziții. Numai 60 de femei au primit astfel de anunțuri.
 
Cellphone Pexels © Julia Roberts

Să fie oare vina algoritmilor?

După spusele lui Brodnig, explicația ar fi că software-ul a fost învățat că, în realitate, mai puține femei dau click pe oferte pentru poziții de top, așadar își optimizează sistemul în așa fel încât să le afișeze mai puține anunțuri de acest fel. Statisticile cu care lucrează sistemele software se bazează pe informațiile obținute de la postările noastre pe rețelele de socializare. Prin intermediul datelor noastre personale, programele respective învață să imite modelele sociale deja existente și trag singure concluzii ¬, de exemplu că bărbații tind să câștige mai mult decât femeile. 

Așadar, oare putem într-adevăr să spunem că societatea n-are nicio vină? Britta Schinzel, profesoară de matematică și informatică, ne dă un răspuns foarte clar într-un articol de-al ei: „Nu. Este o greșeală să cerem programelor competențe etice și sociale. Sistemele software sau programele nu sunt același lucru cu algoritmii.” 

Schinzel spune că sistemele software sunt alcătuite din algoritmi și date. În acest context, algoritmii sunt practic instrumente de prelucrare a datelor conform instrucțiunilor primite de la programatori. Algoritmului îi e indiferent cu ce date operează. Profesoara face o paralelă cu felul în care folosim limba: dacă cineva scrie un text cu conținut discriminatoriu, nu spunem că este vina literelor sau cifrelor pentru conținut.
Programele folosesc datele care le sunt livrate, nu e vina lor ce învață de la noi.

Britta Schinzel susține că exact acesta este motivul pentru care nu ar trebui să credem că lumea ar putea fi condusă în totalitate de software. E de la sine înțeles că programele pot fi antrenate numai cu datele la care avem acces momentan. Exact de aceea nu reușim să ieșim din acest cerc vicios. Programele folosesc date extrase din societatea noastră reală, marcată de inechități, ceea ce, pe termen lung, înseamnă că societatea nu va putea combate discriminarea diverselor grupuri sociale.
 
Cellphone Pexels © Oskar Patyane

În acest joc, noi putem fi arbitrii

Potrivit lui Ingrid Brodnig, în această situație ar fi nevoie de arbitri independenți: „De ce, atunci când vorbim de algoritmi, facem rabat la controlul calității, iar la orice alt produs nu?”. Algoritmii ar trebui să se supună acelorași valori de bază ale sistemului juridic ca și noi. În acest context, Mario Martini, profesor de drept administrativ la Universitatea Speyer, face apel la introducerea unor standarde obligatorii de identificare și explicare a deciziilor algoritmilor. De exemplu, Google ar trebui să fie obligat să explice de ce algoritmii săi au afișat un anume anunț unui număr atât de mic de femei. După părerea sa, și pentru algoritmi ar trebui să existe măsuri juridice de control, ca un fel de ITP, dar pentru software. El mai spune și că acest lucru ar fi necesar nu numai din cauza interdicției discriminării; Noi oamenii avem de asemenea dreptul de a decide singuri cum ne afișăm în public (așa-numitul „drept de autodeterminare informațională”). Acest drept ne dă posibilitatea să știm cum, unde și când ne sunt procesate datele personale. Atunci când, cu ajutorul datelor noastre, ni se creează profiluri virtuale, personalități statistice, care mai apoi sunt folosite de diverse programe pentru a ști ce rezultate să ne afișeze cânt folosim motoarele de căutare, putem vorbi cu adevărat de o încălcare a dreptului de autodeterminare informațională. 

Și atunci ce putem face noi, utilizatorii? Ei bine, putem începe să intrăm în rolul de arbitri. Ne putem gândi mai bine cum ne comportăm în mediul online. Putem citi cu mai multă atenție ce scrie la secțiunea de termeni și condiții înainte să ne introducem datele în vreo aplicație. Ne putem pune întrebări mai serioase de ce programele ne afișează anumite rezultate. Putem semnala companiilor cazurile de discriminare din partea programelor precum motorul de căutare Google. Mai exact, ne putem da seama că, prin prisma datelor pe care a fost clădită, lumea noastră avansată din punct de vedere digital este impregnată de structuri sociale de care mulți dintre noi ar vrea mai degrabă să se descotorosească.