Star Views + Comments Previous Next Search Wonderzine

МнениеНикому не верь:
Чем грозит нейросеть, делающая порнофейки

Никому не верь:
Чем грозит нейросеть, делающая порнофейки — Мнение на Wonderzine

Добро пожаловать в пугающий мир цифровых подделок

дмитрий куркин

Фальшивое порновидео, в котором звезда фильма «Чудо-женщина» Галь Гадот якобы занимается сексом со своим сводным братом, всплывшее в Сети на этой неделе, оказалось не просто фейком, а фейком, сгенерированным с помощью искусственного интеллекта.

Автор ролика, анонимный пользователь реддита с никнеймом deepfakes, в интервью Vice подтвердил, что использовал нейросеть для того, чтобы «прифотошопить» лицо Гадот к телу порноактрисы. Подделка, в общем, заметна, а deepfakes не планировал как-либо зарабатывать на ней — по его словам, он просто хотел проверить, насколько легко будет её изготовить с помощью ИИ. И у него для нас плохие новости: сделать фальшивое порно «в домашних условиях» оказалось очень просто.

Проблема, в общем, не в самих порнофейках: спрос на снимки и видео, где похожие на знаменитостей актёры и актрисы занимаются сексом, был, есть и будет у фетишистов и любителей сенсаций. На внешней схожести со звёздами в порноиндустрии делаются целые карьеры — этот феномен даже породил выдающийся в своём роде заголовок жёлтой прессы: «Карлик-порнодвойник Гордона Рамзи обнаружен мёртвым в норе барсуков».

Но если раньше для производства нужны были время, ресурсы и какое-никакое мастерство, то нейросеть, натренированная приваривать лица к изображению, сильно упрощает задачу. Вкалывают роботы, а не человек, причём роботы от раза к разу умнеют, а значит, подделки будут выглядеть всё более достоверными. Пользователь deepfakes уточнил, что свой ИИ-софт он собрал из подручных элементов, найденных в библиотеках открытого кода, а фото и видео взял в общедоступных стоках и хостингах вроде YouTube. Проще говоря, все инструменты для генерирования порнофейков лежали под носом не только у него, но и у миллионов людей по всему миру.

И это, строго говоря, даже не новости. Ещё в 2003-м специалисты Орегонского университета здоровья и науки предупреждали о том, что аудиоподделки «легко сделать и трудно определить». К 2017 году прогноз сбылся, и появились сгенерированные нейросетями фейки голосовых записей, которые очень непросто отличить от настоящих. Вслед за аудио подтянулось и видео. Разработка сотрудников Университета Вашингтона синхронизирует мимику лица человека с его речью: в выложенном для примера ролике с Бараком Обамой настоящее только аудио, картинка же сгенерирована программой. Соедините одно с другим — и вот уже готовы поддельные ролики, в которых, скажем, известный либеральный политик «признаётся» в своих симпатиях к Гитлеру.

Нужно совсем немного фантазии, чтобы представить, к каким злоупотреблениям может привести появление подобного искусственного интеллекта — на их фоне чатбот Microsoft, которого тролли из твиттера меньше чем за сутки превратили в расиста, покажется милой шалостью. И само собой, порнофейковые технологии в первую очередь угрожают никак не Галь Гадот, Тейлор Свифт или Дженнифер Лоуренс. Они достаточно обеспечены, чтобы нанять армию IT-спецов, которые распознают подделку, и флот юристов, который завалит исками любого, кто попробует использовать эти подделки в корыстных целях.

Нет, жертвами новых небезобидных алгоритмов будут становиться простые смертные. Цифровые фейки можно использовать для порномести, киберсталкинга, сетевой травли, шантажа и манипулирования людьми, которые легко поддаются внушению и не особенно следят за новостями из области передовых технологий («Вашу дочь засняли на видео, срочно переведите деньги, иначе его увидят ВСЕ»). И речь необязательно идёт о порно: подделки точно так же могут быть запущены в Сеть для политической пропаганды и разжигания ненависти.

«Но это же чудовищно!» Да, чудовищно, и виноват в этом отнюдь не кодер deepfakes. Как хакеры порой взламывают банковские системы не для того, чтобы украсть деньги, а для того, чтобы указать отделу киберзащиты на бреши в безопасности, так и изобретённый программистом-анонимом ИИ всего лишь ставит нас перед фактом: эпоха цифровых подделок — не антиутопическая страшилка в духе «Чёрного зеркала», а наступившая реальность. Она пока ещё не осмыслена ни современной этикой (можно ли считать порнофейки вторжением в личную жизнь других людей?), ни действующим правом. Но именно в ней нам как-то предстоит жить в ближайшие годы. А значит, придётся выработать противоядие против таких вбросов.

Кураторы словаря Collins назвали выражением 2017 года термин «fake news», тем самым подчеркнув, что рядовой пользователь падок на кликбейт и репостит сенсационные заголовки, не тратя время на то, чтобы проверить подлинность информации. А между тем фейковые новости способны влиять на результаты выборов и референдумов. И это тоже часть новой реальности, в которой мы уже существуем и в которой нам нужно будет научиться быть менее легкомысленными.

Социальные сети и так сделали интернет домом со стеклянными стенами, в котором за вашей жизнью могут каждый день наблюдать миллионы людей — даже тогда, когда вы этого не хотите. Теперь же очевидно, что в этом доме ещё и нет двери: любой может попытаться вторгнуться в ваше личное пространство, с помощью ИИ прикрутив ваше лицо к порноролику или фильму «Властелин колец». Privacy is dead, но виновен в этом не только Большой Брат в виде спецслужб и глобальных корпораций, но и мы сами.

Мир цифровых подделок наступает, но это не повод для паники, паранойи, отказа от пользования интернетом или требований запретить нейросети. Это повод задуматься о сетевой гигиене и новой этике, в которой будет раз и навсегда закреплено, что использовать чужое изображение для создания цифровой подделки подло и незаконно. Времена, когда люди безоговорочно верили всему, что говорят по телевизору (даже если там говорят, что «Ленин был грибом»), сходят на нет. Точно так же мы понемногу приучим себя не верить на слово всему, что пишут в интернете.

Обложка: Warp Records

Рассказать друзьям
3 комментарияпожаловаться