Защита данных
Общество — это больше, чем сумма его индивидуумов

А что, если архитектурой городов теперь станут управлять приложения? Поэтому необходимо срочно доработать законодательство в отношении цифровых приложений.
А что, если архитектурой городов теперь станут управлять приложения? Поэтому необходимо срочно доработать законодательство в отношении цифровых приложений. | Фото (фрагмент): © picture alliance/Гольдман

Когда в дело вступает искусственный интеллект — например, в случае Facebook, Siri, Alexa и других — общество часто начинает жаловаться на недостаточную защищенность частной сферы. Однако умные системы заинтересованы не столько в данных конкретных людей, сколько в обобщении и стандартизации жизненных контекстов, автоматизацией которых они занимаются.
 

Лорена Жауме-Паласи

Zoom и Skype, соцсети, смарт-часы, а также смартфоны, банки и страховые компании пользуются сложными алгоритмическими системами, которые мы также часто называем системами с «искусственным интеллектом». Чтобы обеспечить собственное функционирование, многие из них собирают большое количество данных. Этим занимаются, в частности, Spotify, поисковая машина Google, Instagram, Siri и Alexa.

Из этих данных можно делать определенные выводы, которые зачастую касаются далеко не только музыкальных вкусов или поисковых привычек пользователей. Например: если человек слушает музыку, популярную в сообществе ЛГБТКИ+ (от англ. LGBTQI+ — аббревиатура для обозначения представителей сексуальных меньшинств*), можно ли на основе этого сделать предположения о его сексуальной ориентации? Насколько надежными будут эти предположения? А что насчет культурного бэкграунда человека, который слушает black music, R&B или музыку на определенном языке?

Множество собираемых данных, которые на первый взгляд кажутся несущественными, в определенном контексте могут оказаться данными личного характера; поэтому в СМИ и в обществе уже начали раздаваться жалобы на то, что частной сфере приходит конец. Но при этом обычно упускается из виду, что эти инфраструктуры, как правило, не интересуются отдельными конкретными людьми, стоящими за данными. Даже если они собирают и используют персональные данные — например, когда Spotify предлагает музыку, соответствующую пристрастиям пользователя — конкретные, индивидуальные данные для системы как для целого нерелевантны.

Каша из математических данных

Термином «искусственный интеллект» обозначают социально-технические системы, в которых человеческое трудно отделить от машинного. Эти системы опираются на предположения о мире и человеке, его целях и намерениях, которые, в свою очередь, основываются на принимаемых людьми решениях. Такую информацию система должна «представлять себе» в виде данных. Данные о людях при этом становятся как бы деталями пазла. Математические формулы, применяемые для работы с данными, агрегируют все в однородную кашу — индивидуумы превращаются в среднестатистические профили: они могут быть разнообразны, но все же они будут усредненными категориями, а не отдельными людьми.

Приведем такой пример: значение в этом случае имеет не дерево в лесу (индивидуум), а лес (общество в целом). Амбивалентность и неоднозначность человеческой жизни невозможно полностью перевести в данные и алгоритмы. Но эти инфраструктуры на такое и не рассчитаны. Как замечает британский юрист Майкл Вили (Michael Veale*), они ориентированы скорее на то, чтобы формировать жизнь людей. Эти системы применяются для автоматизации определенных процессов. Это значит, что для процессов, которые ранее, при «ручном управлении», могли быть вариативны, устанавливаются стандарты, делающие подобную гибкость невозможной. «Ригидность» начинается уже с решения о том, что будет превращено в данные, а что нет: то, что считается данными, будет увидено системой — а то, что не было превращено в данные, в системе не существует. Таким образом, используемые тем или иным сервисом стандарты, форматы данных, решения о преобразовании в данные определяют, как будут реализовываться доступ, участие и взаимодействия в рамках сервиса.

И именно здесь становится видна фундаментальная проблема регулирования этих систем: основные права и защита данных — это область личных прав; вся систематика основных прав и конкретизирующие отдельные права ориентированы на индивидуума. Иными словами: правовая система Германии в сфере основных прав различает только деревья, а не лес. С помощью существующего правового инструментария технологии регулируются так, как будто лесом можно управлять, регулируя отдельные деревья.

Распознавать престуПления кластерами

Хороший практический пример такой рассогласованности между правовой системой и действующими ИИ-системами — системы предиктивной полицейской деятельности (predictive policing). Они выявляют паттерны поведения, характерные для преступлений того или иного типа, чтобы на основе этой информации предотвращать аналогичные преступления. Так как эти технологии соответствуют целой инфраструктуре, а законодательство в области защиты данных регулирует только индивидуальные права, некоторые из используемых в Германии программ выпадают из зоны действия нынешнего законодательства. Так, например, полиция многих федеральных земель пользуется программой Precobs, которая предсказывает кражи со взломом, характеризующиеся определенным modus operandi, в заданный период времени и в заданном месте. Для этого программа задействует собранные ранее анонимные данные о типе преступления, хронологии, а также географические данные. Ведомства по защите данных в этих землях дали добро на применение программы — она не обрабатывает данные, соотнесенные с конкретными личностями, и поэтому не подпадает под область их компетенции.
Программа Precobs, призванная предотвращать кражи со взломом, используется, в частности, в Баден-Вюртемберге и Северном Рейне-Вестфалии.
Программа Precobs, призванная предотвращать кражи со взломом, используется, в частности, в Баден-Вюртемберге и Северном Рейне-Вестфалии. | Фото (фрагмент): © picture alliance / Zoonar / Роберт Кнешке
Однако по результатам применения этого ПО неизбежно возникают вопросы: если в определенных районах вдруг усиливается полицейское патрулирование, дает ли это жителям чувство большей защищенности? Или наоборот, это даже приводит к массовому переезду жителей, которые могут позволить себе квартиру в другом районе? Законодательство не помогает ответить на эти вопросы. Исследования показывают, что как раз-таки присутствие полицейских на футболе повышает готовность фанатов к агрессии. Поэтому на футбольных матчах полиция работает в штатском.
 
Вопрос о социальном эффекте, оказываемом программами вроде Precobs, не учитывался на уровне политики и не был предусмотрен на уровне права. В правовом отношении внимание уделялось исключительно тому, нарушает ли ПО индивидуальные права в сфере защиты данных. Здесь становится очевидно: социальная стабильность целого города не может поддерживаться инструментами предиктивной полицейской работы с одной стороны и ориентированным на индивидуума законодательством с другой. Поэтому ее регулярно упускают из виду.

Учитывать ценности общества

На примере социально-технических систем, например, систем предиктивной полицейской работы, хорошо видно, что в индивидуалистском обществе общность не рассматривается как нечто цельное. Общество — это больше, чем сумма его индивидуумов, и оно нуждается не только в индивидуальных правах: оно должно уравновешивать их ценностями общества. К оценке алгоритмических систем всегда следует подходить, учитывая это обстоятельство. Демократические режимы пока что этим пренебрегали. Теперь это наше «домашнее задание» на будущее.

*  Прим.ред.