В российском правовом поле появится официальное понятие дипфейк. Законопроект об этом планируют внести в нижнюю палату в осеннюю сессию, сообщили "Известиям" в комитете Госдумы по информполитике. Такой шаг должен помочь в борьбе с мошенничеством - сегодня, в частности, с помощью нейросетей уже заменяются лица на видео и фото. Эксперты предупреждают, что даже специалистам сложно отличить достоверную картинку от ложной, и компании уже ведут исследования по противостоянию дипфейкам. Однако пока технология остаётся слишком трудозатратной для использования в мошеннических схемах, и она всё ещё уступает традиционным способам обмана, добавили они.
Сейчас всё чаще используются нейросети для создания так называемых дипфейков - контента с реалистичной подменой фото-, видео- и аудиоматериалов, сказал "Известиям" глава комитета Госдумы по информационной политике, информационным технологиям и связи Александр Хинштейн. Он добавил, что отличить их от достоверного изображения становится всё труднее. По словам депутата, на базе комитета совместно с Роскомнадзором и экспертным сообществом уже разрабатывается законопроект, который, впрочем, пока к предметному обсуждению не готов. "Известия" направили запрос в ведомство.
- Главная задача законопроекта, которую, надеемся, удастся решить, - это дать правовое определение явлению под названием дипфейки, которые сегодня стали уже неуникальными, - сказал Александр Хинштейн.
По его словам, отдельного закона для них сегодня не требуется, инициатива будет предполагать изменение в уже действующее законодательство. Зампред комитета Олег Матвейчев объяснил: сегодня люди всё чаще стали использовать нейросеть в первую очередь для развлечения, поместив фото в интересные декорации, чтобы увидеть себя или близких в новом образе. Однако в течение трёх-пяти лет этот механизм разрастётся, и к его использованию примкнут мошенники. Использовать программу в недобросовестных целях будут не только они. К примеру, учащиеся уже начали писать выпускные дипломы с помощью нейросети, напомнил Олег Матвейчев.
- Сейчас это просто игрушки. Но когда люди будут, к примеру, загружать в программу свои голоса, то мошенники потом смогут звонить их близким с имитацией их же голоса. Или даже сама нейросеть будет вести разговор. То есть вам, к примеру, позвонит ваш родственник, вы его прекрасно узнаете, он будет так же шутить, использовать те же слова-паразиты. Вы его не отличите. А потом он скажет: пришли мне 20 тыс. рублей срочно, - пояснил "Известиям" депутат.
Политик также прогнозирует риски дискредитации: злоумышленники могут использовать фотографии человека, "приписав" ему на видео получение взятки, или просто добавить его изображение на публикацию откровенного характера.
Предполагается не только дать правовое определение такому явлению, но и продумать регуляторные механизмы: как отслеживать, кто ответствен, потому что "на нейросеть нельзя подать в суд", добавил он. На фоне актуальности проблемы документ готовится к внесению в Госдуму уже в осеннюю сессию в этом году, уточнил парламентарий.
Ранее "Известия" писали о подобной инициативе, тогда фракция ЛДПР предлагала ввести уголовное наказание за дипфейки при финансовом мошенничестве с помощью подмены голоса или изображения человека. 4 июня стало известно, что в правительстве РФ не поддержали законопроект, сославшись на то, что незаконное распространение персональных данных гражданина, включая применение искусственного интеллекта, подпадает под действие ст. 137 УК РФ ("Нарушение неприкосновенности частной жизни").
Подобные сети состоят из двух частей: пока одна из них генерирует поступившие материалы от пользователя, вторая отсеивает непохожие на исходные данные части загруженного контента, пояснил специалист в области обработки данных Дмитрий Каплун. В результате это приводит к достаточно качественным изображениям: потому что объекты не накладывались друг на друга по отдельности, а были созданы вместе единой картинкой на основе представленных данных. Более того, сегодня используются сильные вычислительные мощности, которые также позволяют успешно генерировать контент, начиная со звуков и заканчивая правдоподобным видео.
- Даже специалистам очень тяжело отличить достоверный кадр от дипфейка. Одним из способов остаётся их "недостаток": плохая передача отражения - к примеру, в зеркалах, окнах или даже в зрачке глаза. Подделки автоматически идеализируют картинку, даже убирая красные глаза, а в реальных фотографиях это всё есть. Ещё можно по количественным критериям оценить: если обработать соответствующим образом фотографии, то получится подсчитать их метрики, и тогда мы увидим разницу, однако скоро и их количество перестанет различаться. Это трудоёмкий процесс, - пояснил "Известиям" Дмитрий Каплун.
Подобная технология остаётся достаточно дорогостоящей и трудозатратной и пока уступает более простым способам мошенничества, считает старший исследователь данных "Лаборатории Касперского" Дмитрий Аникин. Впрочем, технология непрерывно развивается и уже добилась неплохих результатов в аудиоформате данных, добавил он.
- Существует несколько точек зрения на будущее дипфейков. По оптимистичному прогнозу, эта технология так и останется слишком трудозатратной для использования в мошеннических схемах, а люди повысят свою скептичность и будут замечать такие подделки. С другой стороны, есть риск, что технология станет проще благодаря попаданию в свободный доступ, что может привести к её широкому использованию, в том числе и в плохих целях: вымогательство, кража, промышленный шпионаж, - рассказал "Известиям" эксперт.
В настоящий момент уже ведутся исследования по противостоянию такой технологии, и с помощью применения искусственного интеллекта обучаются модели, способные определить подобные подделки, добавил Дмитрий Аникин. Однако сегодня в первую очередь необходимо повышать осведомлённость людей о новых потенциальных способах мошенничества, считает он.