Быстрый доступ:

Перейти к содержанию (Alt 1) Перейти к навигации первого уровня (Alt 2)

Искусственный интеллект
Алгоритмы – как кулинарные рецепты

Исходный код по принципу функционирования не сильно отличается от кулинарного рецепта: алгоритмы определяют нашу повседневную жизнь
Исходный код по принципу функционирования не сильно отличается от кулинарного рецепта: алгоритмы определяют нашу повседневную жизнь | Фотография (фрагмент): © Adobe

Но чтобы блюдо вышло вкусным, следует тщательно выбирать ингредиенты: эксперт по алгоритмам Себастиан Шельтер рассказал нам об искусственном интеллекте, о том, как он берет на себя принятие решений и как это влияет на нашу жизнь.

Йоханнес Целлер

Искусственный интеллект (ИИ) и самообучающиеся компьютеры – термины все еще кажутся немного научно-фантастическими, однако эти явления уже давно вошли в нашу повседневную жизнь. Алгоритмы определяют не только то, что нам будет предлагаться к просмотру или прослушиванию на стриминговых сервисах; есть места, где алгоритмы принимают решения о выдаче кредитов или предсказывают вероятность, с которой заключенный станет рецидивистом. Но что такое вообще алгоритм и как ИИ влияет на нашу жизнь?

БАЗОВЫЙ РЕЦЕПТ: АЛГОРИТМ

«Алгоритм — это, в первую очередь, последовательность шагов. Его можно представить себе в виде кулинарного рецепта: есть ингредиенты — данные, вводимые в компьютерную программу, и есть сам рецепт — пошаговая инструкция о том, что надо делать, чтобы получить правильно приготовленное блюдо», — объясняет эксперт по алгоритмам Себастиан Шельтер, ведущий научные исследования в области управления данными и машинного обучения в Амстердамском университете.

С этой точки зрения в алгоритмах нет ничего нового; по такому принципу функционирует каждая компьютерная программа. Что нам интересно на данный момент, когда мы говорим о растущем влиянии алгоритмов — это машинное обучение: «В обычной компьютерной программе все шаги по решению конкретной проблемы задаются человеком. Однако существуют проблемы, решение которых нам сложно расписать для компьютера», — рассказывает эксперт. Поэтому при машинном обучении применяется другой подход.

Себастиан Шельтер закончил Технический университет Берлина, затем занимался научными исследованиями в Нью-Йоркском университете и в исследовательском подразделении Amazon. В настоящее время, будучи младшим профессором Амстердамского университета, изучает проблемы, возникающие на стыке управления данными и машинного обучения. Себастиан Шельтер закончил Технический университет Берлина, затем занимался научными исследованиями в Нью-Йоркском университете и в исследовательском подразделении Amazon. В настоящее время, будучи младшим профессором Амстердамского университета, изучает проблемы, возникающие на стыке управления данными и машинного обучения. | Фото: © Себастиан Шельтер

КУЛИНАРИЯ ДЛЯ ПРОДВИНУТЫХ: ОБУЧАЮЩИЙСЯ АЛГОРИТМ

«Простой пример — спам-фильтр, призванный отличать рекламные письма от личных. Если соответствующую компьютерную программу пишет человек, ему нелегко решить эту задачу. Он может задавать различные критерии и правила, по которым теоретически будут распознаваться рекламные письма — например, время отправки или определенные слова в тексте. Но в какой-то момент человек упрется в границы своих возможностей», — так обрисовывает проблему Шельтер.

В рамках машинного обучения компьютеру больше не задается конкретная программа — ему показывают примеры. Лучший вариант решения он найдет сам. Вместо полного кулинарного рецепта программист указывает только желаемый результат, который программа должна предоставить.

«В этом случае вводимыми данными могут быть 1000 писем, которые пользователь захочет получить, а также целый ряд отрицательных примеров — рекламных писем, которые пользователь получать не хочет, — поясняет Шельтер далее. — На основании этих примеров алгоритм оценивает, с какой вероятностью новое сообщение окажется или не окажется рекламным. Большая разница заключается в том, что при обычном программировании человек совершенно четко прописывает шаги — а обучающиеся алгоритмы на основании примеров и статистических вероятностей вырабатывают собственные критерии выбора».

КОГДА ИИ ОБВОДИТ ВОКРУГ ПАЛЬЦА

Обучающиеся алгоритмы могут решать определенные проблемы не только быстрее, чем человек, но и лучше, чем он. В 2019 году программа Pluribus выиграла у профессиональных игроков в покер, и стало понятно, что ИИ может даже научиться блефовать лучше, чем человек. Чем способнее становится ИИ, тем большее влияние он приобретает: в системе здравоохранения, в финансовых кругах, в мире юриспруденции.

Большинство жителей Германии ежедневно имеют дело с решениями, принимаемыми умными алгоритмами. «С научной точки зрения это абстрактные математические процедуры, которые можно применять в самых разных областях. Например, для того, чтобы оценить, с какой вероятностью тот или иной человек вернет кредит», — объясняет Шельтер.

В таких странах, как США и Австралия, алгоритмы подозревают в том, что при принятии решений они дискриминируют определенные национальности. «Это обусловлено отчасти тем, что дискриминация уже содержится в данных, которые алгоритму показывали для примера. Если просто оставить алгоритм работать на основе этих данных, то он будет воспроизводить дискриминацию», — так эксперт видит корень проблемы.

АЛГОРИТМ С ЧУВСТВОМ ТАКТА?

Вопрос о том, какие рамки поставить алгоритмам и ИИ — не столько технический, сколько этический. А может быть, можно привить алгоритму «чувство такта»?

«На данный момент это открытый вопрос. Лично я считаю, что есть сферы, где принятое алгоритмом неправильное решение не будет иметь тяжелых последствий — например, если стриминговый сервис воспроизведет мне неподходящую песню. Есть и другие сферы, где алгоритм может что-то рекомендовать, но окончательное решение должен принимать человек. И, наконец, есть сферы, которые нужно полностью оставить за человеком», — так формулирует Шельтер свою точку зрения.

«В США применяются алгоритмы, оценивающие, насколько велик риск рецидива у заключенного. Данные об этом доступны судам и другим органам, принимающим решения о досрочном освобождении». Неизбежно встает вопрос: справедливо ли это?

«Справедливость вряд ли можно поверить математикой, поскольку здесь затрагиваются философские, политические, юридические аспекты. У каждого свое представление о том, что справедливо, а что нет, и математически невозможно одновременно удовлетворить всем определениям справедливости».

Исследования того, насколько справедливо алгоритмы принимают решения, также подтверждают: до выработки чувства такта еще довольно далеко. Во многих областях нужно сначала с этической, политической и правовой точек зрения договориться о том, как «правильно» трактовать определенные случаи. Только после этого задачу можно будет поручить алгоритму. «Но даже после этого останется философский и политический вопрос: а хотим ли мы вообще передоверять задачу алгоритму?», — утверждает Шельтер.