Бърз достъп:

Отиди директно в съдържанието (Alt 1)Отиди директно в навигация на второ ниво (Alt 3)Отиди директно в навигация на първо ниво (Alt 2)

Изкуствен интелект
Да поговорим за изкуствен интелект и етика

EthicAI: Изкуствен интелект и етика
© Гьоте-институт България

През февруари 2021 г. Гьоте-институтите от Югоизточна Европа започнаха работа по проекта EthicAI, насочен към изследване и дискутиране на теми, свързани с изкуствен интелект (ИИ) и етика. Той се явява продължение на проекта на Гьоте-институт Generation A=Algorithm, като сега акцентът е поставен върху етичния аспект на взаимодействието между хората и машините. Този дискурс изглежда релевантен в наши дни и редица инициативи в тази посока доказват неговата значимост и актуалност.

Om Галина Димтрова-Димова

През последните години се провеждат множество конференции и инициативи, сред които  AI for Good Global Summit, Mozilla Festival и др., които събират заедно представители от различни сфери (наука, технологии и култура), за да дискутират по въпроса какво трябва да включва доброжелатеният ИИ.

Защо обаче този въпрос трябва да занимава и нас? Както казват повечето изследователи на темата – технологията не е неутрална. На първо място тя следва целите и задачите, зададени ѝ от нейните създатели, които в повечето случаи са мощни корпорации, вече владеещи дигиталната сфера чрез своите услуги и продукти. На второ място тя включва хората, ангажирани с процеса на разработката и усъвършенстването на тези продукти чрез обучение на софтуерните агенти. И накрая идва ред на потребителите, които също влияят върху самообучаващите се ИИ системи (т.нар. deep learning machine).

Част от процеса

С други думи, ние всички сме част от този процес, независимо дали си даваме сметка за това. Оттук произтичат редица въпроси и проблеми, свързани с властта, контрола, стереотипите, манипулациите и заплахите. Дискусията е сложна и комплексна, защото това, което идва, за да помогне на хората в името на един по-добър живот и личностно развитие, често има и обратен ефект. То става инструмент в ръцете на онези, които държат властта и развиват структури за подчинение. Китай е първенец в този процес и мерките за контрол и стандартизация, които упражнява върху своите граждани са меко казани плашещи. Така например в провинция Хинян са въведени системи за наблюдение и контрол, които класифицират жителите в категории, осигуряващи им различни права за достъп до информация, места и услуги.

Очевидно така се накърняват основни човешки права, което сигнализира за риска от дигитален деспотизъм, както и от различни форми на дискриминация. Спокойно можем да кажем, че това, което се случва в Китай, не ни засяга и вероятно ще сме прави, защото особено в ЕС регулация в това отношение съществува. Европейската комисия е поръчала на експерти да изготвят ръководство, задаващо критериите, на които трябва да отговаря надеждният ИИ и според него те са:
 
  • законосъобразност: спазване на всички приложими закони и разпоредби;
  • етичност: зачитане на етичните принципи и ценности;
  • стабилност: както от техническа гледна точка, така и спрямо неговата социална среда.

ИИ като заплаха?

Това са предписания и препоръки, но на практика често наблюдаваме, че нещата не са съвсем такива. Но трябва ли непременно да се плашим от ИИ? Всъщност, много от въвлечените в дебата предпочитат да не го наричат така. Според тях засега става дума за алгоритмични агенти и системи, които се базират преди всичко на статистика. С други думи, това е изключително сложна система за обработка на данни, която е обучена да взима решения спрямо зададени показатели. И ето тук идва другият голям етичен въпрос, защото в процеса на обучение се намесват много странични, но важни фактори, като например интелекта, чувствителността и етичните норми на хората, които го създават и които са обусловени от тяхната социална и културна принадлежност. Те са в основата на онова, което наричаме biases.

Тук опираме до това, което учените наричат „социална интелигентност”, която при един човек се определя от взаимодействието му с обкръжаващата го среда и другите. За ИИ това е една непосилна задача, защото той не може сам да определя нормите на поведение, зададени му отвън. Той няма способността да прави причинно-следствена връзка, както и да решава сам кое е добро и лошо, правилно или грешно, приятно или неприятно…

Пример за това е историята с чат-бота Tay на Microsoft, който за по-малко от едно денонощие, пуснат в социалната мрежа на Twitter от „вежливия и приятен за разговори бот” се превръща в откровен хейтър и расист и започва да прави скандални изказвания в мрежата, което принуждава компанията бързо да го изтегли.

Така отваряме кутията на Пандора в дебата за това как една технология, която е създадена да бъде полезна и обективна, всъщност може да бъде лесно манипулирана и да стане обект на заплаха. Ако се замислим, всъщност този тип алгоритми са заложени в работата на полицията, съдебната система и други властови структури, които засягат всеки от нас. Така, както статистиката би посочила, че чернокожите са потенциални престъпници, или пък жените са…секси мацки. Така отново стигаме до темата за т.нар. biases и всички потенциални проблемни области, свързани с моделите на представяне, зададени в тези алгоритми. Ако трябва да опишат мъж например, обикновено те ще ни представят бял мъж на средна възраст в бизнес костюм, докато моделът за жена е млада секси мацка в оскъдно облекло. Тези стереотипи са родени именно от факта, че разработчиците на системите в общия случай са бели мъже, които задават на алгоритмите този вид възприятие.

Отново, не бива да обвиняваме алгоритмите, които са само един продукт на нашите представи и взаимодействия. Какво се случва обаче, ако те станат двигател на своите действия? Какво биха създали те, ако ги оставим сами да боравят с данните и да генерират съдържание?

Когато ИИ стане творец

Възможен отговор на въпроса дава проектът Next bienalle should be curated by a machine на артиста UBERMORGEN и дигиталния хуманист Леонардо Импет. Разработеният от екипа The B3(NSCAM) софтуер взима данни от базите на музея „Уитни“ в Ню Йорк и биеналето в Ливърпул и започва да генерира биографиите на артистите, да пише кураторски изложения и прессъобщения. Така стигаме и до темата за креативността и езика, които принципно приемаме за типична човешка дейност. Защото именно творчеството и писмеността са онези привилегировани за човешкия вид дейности, които го отличават от другите животински видове. Сега обаче се появява друг (нечовешки) вид, който „поема” тези дейности и започва да пише статии, да композира музикални произведения, да рисува и моделира виртуални светове с такова майсторство, че е трудно да ги различим от онези, сътворени от човека.

Дали машината ще бъде заплахата на нашия свят или ние самите като общества и цивилизация? Дали машината може да взима по-добри решения от хората? Дали се доверяваме по-лесно на алгоритмите, отколкото на хората? Какво се случва в това пандемично време, доминирано от дигитални дейности и медии, в което човешкото взаимодействие остана на втори план? Как ще се отрази това на нашето развитие като човечество?

На тези и други изключително любопитни и релевантни въпроси ще търсим отговорите в процеса на реализация на проекта EthicAI и бихме искали да чуем най-различни мнения и гледни точки.

Така че бъдете нащрек...