Все новости
Дипфейки, написанные с натуры

Технологии, позволяющие синтезировать внешность и голос живого человека, используются как в легитимных целях, — например, в кинематографе, — так и со злым умыслом. «Ъ-Review» оценил, в какой степени к популяризации дипфейков оказалось готово российское законодательство.

Проблемы синтеза речи — одни из старейших, с которыми сталкивались ученые на пересечении технологий и лингвистики: первые машины для создания искусственного голоса появились еще в 1930-х годах. Современные же технологии позволяют не просто генерировать речь вместе с соответствующим ей видеорядом, но и основывать синтез на образе другого человека, технически — и без его ведома. Создание дипфейков (то есть, генераций, созданные с применением технологий машинного обучения) уже давно вышло за рамки академического интереса.

В отдельных сферах деятельности дипфейкам нашлось легитимное применение, например, в кинематографе — для воссоздания образов умерших или заметно постаревших актеров. В числе последних российских проектов, чьи авторы анонсировали такое применение — «Манюня: Приключения в Москве» Гевонда и Сарика Андреасяна: технология позволит воссоздать образ актера Юрия Никулина. Отдельно синтез речи используется «в разработке диалоговых ассистентов для контактных центров крупного бизнеса и госсектора, для озвучки пользовательского интерфейса для слабовидящих, для создания медиаконтента», перечислил гендиректор группы компаний ЦРТ Дмитрий Дырмовский.

Но технологии применяются и для создания фиктивных публичных сообщений: так, в июне 2023 года после взлома ряда теле- и радиосетей на них стало распространяться объявление от лица президента Владимира Путина с объявлением всеобщей мобилизации. Тем же рискам подвержены и менее известные лица: как сообщала компания Start X, злоумышленники в начале 2024 года стали подделывать голоса отдельных людей, чтобы убеждать их родственников и коллег перевести деньги.

В России нет ни рамочного закона, который бы регулировал такое использование нейросетей, ни упоминания дипфейков в других нормативно-правовых актах. Попытки ввести дипфейки в правовое поле не находили поддержку в правительстве. Так, в частности, случилось с законопроектом депутата от ЛДПР Сергея Леонова: как сообщал в 2023 году ТАСС со ссылкой на документ, правительство сочло избыточным идею классифицировать создание неавторизованных дипфейков как преступление. Но создателям «искусственных двойников» уже приходится учитывать, что их деятельность без должной правовой очистки может быть признана незаконной.

Вручить лично под роспись

Закон защищает право на изображение человека, соответствующая норма прописана в ст. 152.1 ГК РФ, говорит руководитель практики интеллектуальной собственности VERBA LEGAL Алексей Дарков. Под изображением понимаются фотографии человека, а также видеозаписи или произведения изобразительного искусства, в которых он изображен. «Согласно данной норме, гражданин вправе запретить обнародование и использование своего изображения, если на это не было получено согласие»,— отмечает господин Дарков.

Подробнее читайте по ссылке.

Наша команда
Связанные лица
Алексей Дарков
Советник, руководитель практики интеллектуальной собственности
Наш адрес
Гоголевский бульвар, 11, Москва, 119019
Смотреть на карте
Свяжитесь с нами
Подпишитесь на нашу рассылку
Подтверждаю, что ознакомился с Политикой конфиденциальности и даю согласие на обработку персональных данных ООО «Верба Лигал» (ОГРН: 1197746297528) в соответствии с ней
Подтверждаю, что согласен на получение маркетинговых и иных информационных материалов от ООО «Верба Лигал» (ОГРН: 1197746297528) по электронной почте и обработку персональных данных для этой цели как описано в Политике конфиденциальности