Культурные техники 4.0
В борьбе против дезинформации: трезвая оценка дипфейков

Проект под названием «В случае катастрофы на Луне» (In Event of Moon Disaster)
Проект под названием «В случае катастрофы на Луне» (In Event of Moon Disaster) | Фото: MIT Center for Advanced Virtuality, 2019

С распространением технологии дипфейков открылась новая глава в долгой истории использования СМИ для скрытого распространения дезинформации, которая служит разделению общества или даже подстрекательству к насилию. Борьба с дипфейками требует не только новаторских решений, но и общего признания прав человека и человеческого достоинства.

Пакинам Амер, Франческа Панетта и Д. Фокс Харрелл

В июле 2020 года мы опубликовали дипфейк, в котором Ричард Никсон сообщает мировой общественности из Овального кабинета о том, что миссия Аполлона-11 закончилась трагедией. Нашей целью было помочь людям получить представление о дипфейках, которые используют искусственный интеллект для создания поддельных изображений или звуков, кажущихся реальными. Но мы можем представить, что произошло бы, если бы вместо этого мы намеревались использовать наш фильм для дезинформации.

Проект под названием «В случае катастрофы на Луне» (In Event of Moon Disaster), который возглавляли директора Франческа Панетта и Хэлси Бургунд от имени Центра продвинутой виртуальности Массачусетского технологического института (центром руководит Д. Фокс Харрелл, Пакинам Амер, исследователь Массачусетского технологического института), представляет альтернативную историю посадки на Луну. Для этого был обработан киноматериал из архива НАСА и объединен с записью речи Никсона, синтезированной с помощью искусственного интеллекта. Работа дополнена материалом, призванным развенчать дипфейки.
 
После выхода нашего видео за несколько недель его посмотрели почти миллион человек. Оно был распространено на платформах социальных сетей и в онлайн-сообществах и продемонстрировало, насколько легко комбинированные синтетические медиа могут обмануть человеческий глаз. Также была показана огромная способность социальных сетей представлять материалы человеческому вниманию. Цифры были показательными: Тест на веб-сайте показал, что 49 процентов тех, кто смотрел фильм, ошибочно полагали, что синтетически измененное лицо Никсона было настоящим; не менее 65 процентов считали его голос подлинным.
 
Когда в прошлом году в центре внимания оказались дипфейки, некоторые СМИ с помощью устрашающих заголовков объявили об «окончании новостей» и «разрушении реальности». Но насколько в действительности мы должны быть обеспокоены? Манипуляции СМИ, в творческих целях или со злым умыслом, не новость. Общество давно породило СМИ, способные причинить вред. Возьмем, к примеру, статью в Village Voice в 1993 году под названием «Изнасилование в киберпространстве» (A Rape in Cyberspace), в которой Джулиан Диббелл поделился новым травмирующим опытом: Аватар женщины был изнасилован онлайн в многопользовательской игре.
 

Льюис Д. Уиллер позволил воспроизвести своё лицо для проекта «В случае катастрофы на Луне».
Льюис Д. Уиллер позволил воспроизвести своё лицо для проекта «В случае катастрофы на Луне». | Фото: MIT Center for Advanced Virtuality, 2019
Это была другая технология, но серьезное влияние на человеческое поведение и страх перед смешиванием виртуального и реального мира были похоже на то, что мы наблюдаем с дипфейками сегодня. Важна не только сама технология, но и то, как мы распространяем, рассматриваем, регулируем и верим в правдивость ее продуктов, если мы хотим в них верить, даже если мы знаем, что они поддельные.

Среда использования дипфейков  в СМИ: Текущее состояние

В июне 2019 года в мире в обороте было около 49 000 дипфейк-видео, которые были просмотрены более 134 миллионов раз. 96 процентов этих видео были классифицированы как «не имеющие значительных последствий», включая, например, поддельную порнографию. Но даже в этой области есть такие приложения, как DeepNude, которые позволяют удалять женскую одежду с изображений без их согласия, аналогично примеру виртуального сексуального насилия, описанного Диббеллом. Поддельная порнография часто травмирует жертв: одним из примеров является австралийская студентка Ноэль Мартин, фотографии которой были украдены и использованы для видео откровенно сексуального характера. Несмотря на все усилия, не удается удалить оскорбительные фальсификации.
 
Дипфейки с политическим содержанием до сих пор носили преимущественно сатирический характер и воспринимались как фейки. Но злоумышленники могут создавать видеоролики, разоблачающие политических оппонентов и укрепляющие этот вредоносный имидж в социальных сетях, что может негативно сказаться на результатах выборов. Осенью прошлого года в статье в The New York Times описывалось, как конгрессмен Стив Скализ опубликовал злонамеренно сфальсифицированное видео, в котором Джо Байден занимает неправильную позицию в дискуссии; однако это был не технически сложный дипфейк, а видео, созданное с использованием довольно элементарных методов.
 
На самом деле, более простые формы манипуляции также представляют собой угрозу. Джоан Донован и Бритт Пэрис придумали термин «дешевые подделки» для описания видео, в которых с целью обмана используются простые методы редактирования, такие как ускорение, замедление, обрезка и повторная контекстуализация существующих записей. Например, видео, на котором представлена пресс-секретарь палаты представителей Нэнси Пелоси в состоянии алкогольного опьянения, является дешевой подделкой. Эта категория дезинформации в настоящее время является более серьезной проблемой, но Сэм Грегори из WITNESS считает, что это изменится, когда создание дипфейков станет проще.
 
 


Почему среда использования дипфейков в СМИ имеет значение

 Изображения могут быть мощной и позитивной силой, которую можно использовать для привлечения к ответственности виновных в правонарушениях, объясняет Дэвид Рэнд, профессор менеджмента и когнитивных наук Массачусетского технологического института. «Одна проблема заключается в том, что дипфейки, если мы к ним привыкнем, могут подорвать пригодность изображений для привлечения злоумышленников к ответственности за свои преступления, потому что такие изображения могут быть отклонены как фальшивки». После протестов Black Lives Matter, конгрессмен от партии республиканцев штата Миссури Винни Хартстронг написала в Твиттере, что кадры смерти Джорджа Флойда были подделкой, созданной «с использованием технологии дипфейка», «цифровых смонтированных видео двух или более реальных людей».
 
Представим себе общество, в котором никто не доверяет какой-либо информации, в котором все доказательства могут быть отвергнуты как подделка, а все обвинения могут быть обоснованно опровергнуты? В худшем случае это была бы антиутопия. Все зависит от нас и нашей готовности осознавать собственные ошибки подтверждения. «Мы — ошибка в коде программы», — сказала Даниэль Ситрон, профессор права Бостонского университета в разговоре с Scientific American. «У нас есть все эти исследования ... о том, что мы верим даже в то, о чем узнаем впоследствии, что это ложь, при условии, что это подтверждают наши собственные убеждения». Когда репортер CNN Дони О'Салливан показал последователям Трампа, что некоторые видео Байдена были фальшивыми, один из них ответил спокойно: «Вы называете это фальшивым видео. Но на самом деле это мем".

Что мы можем сделать

Чтобы иметь возможность бороться с дезинформацией в СМИ, требуется общеe признание прав человека и человеческого достоинства. Это является предпосылкой для устранения многочисленных социальных недовольств, в том числе злонамеренных дипфейков. Помимо такого признания существуют различные дешевые и эффективные методы противодействия дезинформации: Технологии для борьбы, законодательство и развитие общественного самосознания. Технологии противодействия важны. Их существование успокаивает, но они не панацея. Цифровые криминалисты, такие как Сивэй Лю из Государственного университета Нью-Йорка в Буффало, разработали алгоритмы, которые могут находить цифровые следы. Но даже Лю признает, что эта технология не совсем надежна. И всякий раз, когда разрабатывается алгоритм, способный обнаруживать дипфейки, программисты будут разрабатывать более эффективные методы обхода этого алгоритма.
 
Протест «Пятницы во имя будущего» в Германии: дискуссии на тему того, что является фактом, а что нет.
Протест «Пятницы во имя будущего» в Германии: дискуссии на тему того, что является фактом, а что нет. | Фото: Мика Баумайстер / Unsplash
Правовые нормы также могут внести свой вклад. В Техасе и Калифорнии создание дипфейка с намерением нанести вред политическому кандидату или повлиять на выборы является нарушением закона. Это только начало. Многое также зависит от того, насколько хорошо общественность понимает, как работают СМИ. «Те, кто очень критически относятся к СМИ, должны быть менее восприимчивыми», - объясняет Нина Янкович, которая занимается дезинформацией в Центре Вильсона. При использовании медиа полезно иметь возможность оценивать источники, проверять перекрестные ссылки или следить за фактическими ошибками. Именно эта демистификация технологии дипфейков и является целью «В случае катастрофы на луне» (In Event of Moon Disaster).
 
Стоит отметить, что дипфейки также являются инструментом в ряде инноваций: от телеграфии Гранвилля Вудса до Photoshop и синтетических СМИ. Медиа-технологии помогают поддерживать связи между нами. Их можно использовать для активизма. Их можно использовать в образовательном искусстве.
 
Когда возникают социальные разногласия, СМИ становятся орудием. Дезинформация используется для разжигания притеснения, разделения и насилия. Каждый из нас обязан признать пределы собственного понимания и неспособность общества выполнять свою коллективную миссию по обеспечению справедливости для всех его членов.
 
Опасность не в технологии. Опасность — это мы.

Эта статья впервые была опубликована в октябре 2020 года. Опубликована здесь с разрешения Boston Globe и авторов.

Материал является частью проекта Культурные техники 4.0, созданоого Гёте-Институтом в Австралии. Проект исследует связь искуственного интеллекта с традиционными культурными техниками.