В 2017 году компрометирующие дипфейки (короткие видеоролики, реалистично модифицированные при помощи искусственного интеллекта) с участием звезд стали активно распространяться в соцсетях. Оказалось, что любое видео можно поменять в два клика с мобильного устройства. На фоне растущего недоверия к средствам массовой информации (в России этот показатель находится на уровне 50%, в США – 29%) журналисты и политики забили тревогу, а пользователи объявили о начале новой эры фейк-ньюс.

Авторитетные исследования подтвердили, что фейки распространяются в тысячи раз быстрее, чем правдивая информация, и опровержения доходят до единиц из прочитавших. Реакцией цифровых платформ стала полная блокировка дипфейков. В то же время на разработчиков технологии незаслуженно обрушился шквал критики. Изначально Deepfake задумывался как инструмент удобного, дешевого и качественного профессионального монтажа – например, для создания развлекательных видео, улучшения спецэффектов или реалистичности дубляжа фильмов.

О том, можно ли снизить негативные последствия технологии и применять ее во благо человека согласно замыслу ее создателей, рассказала член Совета Федеральной палаты адвокатов РФ, советник адвокатского бюро «Егоров, Пугинский, Афанасьев и партнеры», преподаватель Научно-образовательного центра интеллектуальной собственности и цифровой экономики Digital IP Елена Авакян:

– Проблема в том, что ложная информация оказывает давление не только на истеблишмент, но и на представителей власти. К сожалению, бороться с фейками, в том числе и видео, не всегда в интересах государства. Наоборот, они зачастую используются для того, чтобы целенаправленно ослабить или запретить доступ к определенным видам информации. Все вращается вокруг того, кто может размещать контент и какой именно, что такое публичные источники и до какой степени закрытости мы можем позволить себе деградировать.

То есть проблема дипфейков в России не только культурологическая, связанная с тем, что люди не могут понять, что из увиденного в сети истина, а что – ложь. Главная опасность в том, что посредством этой проблематики проводятся попытки ограничить доступ к информации о публичных людях. Пожалуй, борьба с фейками не только у нас, а во всем мире носит глобально-политический характер.

Уточню, что я говорю не исключительно о видеоманипуляциях, а о фейках в целом. Что изменилось с появлением Deepfake? Если возникает необходимость в визуальном подкреплении, то больше не надо для этого куда-то ехать и что-то снимать. Достаточно использовать умную программу, которая сама составит нужный ролик. Такая манипуляция общественным сознанием – самая опасная вещь. Человек доверяет своим глазам и ушам, он смотрит, воспринимает, формирует мнение и не может делать экспертизу по одному взгляду.

Для судебной системы дипфейки представляют не меньшую угрозу. По данным исследователей, вплоть до 75% ошибочных приговоров выносится из-за погрешностей в показаниях свидетелей, зачастую совершенно непреднамеренных. Когда нам нужно доказать факт нахождения того или иного человека в том или ином месте, мы смотрим записи с камер. Там мы видим силуэт, например, человека, машины, иногда можем расшифровать номер. Дальше вопрос – откуда эти данные? Обычно следствие обращается к камерам видеонаблюдения отелей, заправок и так далее, то есть эти данные хранятся на частных серверах.

Где уверенность, что это то самое видео, которое снимала эта камера в конкретный момент? Нам придется менять презумпции. Еще пять лет назад, когда стороны приносили видеосвидетельства, этому факту доверяли. Сегодня разумный адвокат требует исходник и проведения экспертизы на предмет отсутствия монтажа и наличия метки даты и времени. Получается, чем дальше будут развиваться Deepfake-технологии, тем сильнее будут ужесточаться требования к источникам информации и чаще производиться все более сложные технические экспертизы. Следовательно, однажды человечество придет к выводу, что доверять аудио и видео можно только при условии, что они сохранены в условный блокчейн, на них стоит метка места и времени, и эта метка не может видоизменяться.

Сейчас первым делом необходимо сделать так, чтобы в экспертизе не могло быть отказано. Это решение должно перестать быть хоть в какой-то степени на усмотрение суда. Во-вторых, методы проведения экспертизы должны быть однозначно раскрыты стороной и проверяемы. В любом случае суды не могут ограничиваться одной экспертизой и обязаны назначать комплексную или повторную проверку. То есть процесс в этой части нужно существенно усложнить по сравнению с тем, что мы имеем. Я абсолютно убеждена, что должны появиться нормы, которые будут обеспечивать право стороны, ссылающейся на свою невиновность и максимально ее доказывающую.

Сама же технология Deepfake нейтральна: с одной стороны, с ее помощью можно подделывать доказательства, с другой – она облегчает кинематографический процесс. Системы «умного» видео способны переместить контент, снятый в условиях павильона, на любую натуру, видоизменить ее в соответствии с фантазией режиссера. Они создавались именно для промышленного кинопроизводства с целью снижения издержек. Еще немного – и любой человек сможет экранизировать дома понравившийся рассказ с любимыми актерами. Как сегодня мы читаем фанфикшн, так завтра сможем смотреть качественные фанвидео. На данный момент их масштабной популяризации мешают законодательные барьеры – есть право на персонажа, право личности на его визуализацию и образ, авторские права на оригинальное видео и право на переработку. Но, думаю, как и в случае с фанфикшн, это скоро изменится.

Главная составляющая такого искусства – отсутствие коммерческого интереса. Но если продукт успешен и получает миллионы просмотров на YouTube или другой платформе, то какая-то монетизация точно будет. Это сложная тема. О тонкостях взаимоотношений между правообладателями и интернет-ресурсами подробнее можно узнать на программах повышения квалификации в Digital IP.

Все эти факторы приводят к изменению базовых парадигм в регулировании прав на интеллектуальную собственность (ИС). Сегодня мы стоим уже практически на краю перелома, когда нам придется изобретать что-то иное для защиты ИС, так как традиционные механизмы под влиянием технологий начинают распадаться. Одним из самых важных аспектов станет презумпция авторства.

При создании сложного продукта с участием многих людей по всему миру, компьютерных программ и искусственного интеллекта – кого считать автором? Сегодня во все сферы творчества вторгаются технологии, связанные с ИИ. Они начинают вытеснять из массового искусства человека, потому что это дешево и доступно. Вопрос о качестве, конечно, спорный. Понятно, что настоящее произведение искусства ИИ пока создавать не может, но прикладные вещи, «из интеллектуального масс-маркета», – какое-нибудь очередное «Убийство бензопилой» или что-то в этом духе – сегодня вполне можно сделать с использованием технологий, не обладая особым режиссерским или операторским талантом.

В случае с дипфейками ответственность за возможные нарушения должно нести лицо, создавшее ролик. И снова встает вопрос: кто автор? Если искусственный интеллект, то кто его запрограммировал на создание дипфейков с участием определенных лиц? Необходимо найти источник волеизъявления, а делать это сегодня все сложнее. Следовательно, когда государство не умеет предотвращать, оно вынуждено догонять. Получается, что единственный способ противодействовать – это запрет на контент, который всегда приводит к ограничению свободы.

Дипфейки еще раз показывают: если даже в технологии есть что-то хорошее, то оно будет принесено в жертву глобальному общественному интересу. Но чем больше мы идем на жертвы, тем выше соблазн «закатать в асфальт» что-нибудь еще – неудобное, но нужное. Это меня волнует больше всего. Чтобы найти автора, мы будем вынуждены мониторить сети, ставить «сетевые дуршлаги», применять DPI-технологии для анализа пакетов информации, передаваемых из сети, записывать и хранить данные. Для доказательства своей невиновности мы будем вынуждены фиксировать каждый свой шаг, жить за стеклянной стеной. Создавая технологии, позволяющие отслеживать любые действия человека в интернете, мы в конечном итоге ставим под удар обычных пользователей.

Пока в мире нет однозначных рецептов и никто точно не знает, как отвечать на новые технологические вызовы. Все чаще говорят о том, что государство должно превратиться в единую платформу по оказанию госуслуг, в том числе связанных с безопасностью. Это значит, что при переходе к платформенным решениям нежелательный контент за нас будут выявлять алгоритмы. Вопрос в том, как и по каким критериям они это будут делать.

Новое поколение уже променяло свободу на возможность играть в компьютерные игры. Цифровые аватары нашим детям зачастую дороже собственных физических тел. Они не думают о своей телесной оболочке, если есть возможность реализовываться в сети. И это, конечно, тоже часть глобальной цифровой трансформации. Чем она закончится, пока неизвестно.

Автор: Елена Авакян
Член Совета Федеральной палаты адвокатов РФ, советник адвокатского бюро «Егоров, Пугинский, Афанасьев и партнеры», преподаватель Научно-образовательного центра интеллектуальной собственности и цифровой экономики Digital IP.