Пользователи даркнета, как русскоязычных, так и международных форумов, предлагают создание дипфейк-видео с любым человеком за сумму в 20 000 долларов. Эксперты отмечают, что такие видео могут быть использованы злоумышленниками для шантажа и преследования. Дипфейк-видео - это видеомонтаж, в котором главным образом используется искусственный интеллект (ИИ), чтобы создать реалистичную копию человека. Об этом сообщает издание «Известия».
Эксперты из «Лаборатории Касперского» заявили, что на форумах в даркнете стали предлагаться услуги по созданию соответствующих видео с любой личностью. По словам специалистов, чаще всего создание дипфейк-видео предлагается для криптофрода. Преступники применяют такие видео в качестве инструмента для проведения скам-схем, таких как криптостримы или фальшивые розыгрыши криптовалют. Эти схемы направлены на обман зрителей и побуждение их к переводу криптовалюты злоумышленникам.
Согласно данным «Лаборатории Касперского», мошенниками используются фальшивые видео с участием известных персон или соединяют старые ролики, чтобы вести прямые трансляции в соцсетях и привлечь потенциальных жертв.
Дмитрий Овчинников, являющийся специалистом фирмы «Газинформсервис», поясняет, что дипфейк-видео представляют собой ролики, на которых изображения лиц, голоса или тела людей заменяются на изображения лиц, голоса или тела других людей с помощью ИИ.
При разработке дипфейков системы ИИ используют множество точек человеческого лица для создания «цифрового слепка», который затем соединяется с первоначальным видеоматериалом. Таким образом, возможно создать видео, которое выглядит настоящим, но на самом деле является фальсификацией. При этом программы для создания дипфейков способны воспроизводить не только внешний вид человека, но и его голос. Это означает, что отличить такой фейк от настоящего видео может быть очень сложно, и часто требуется специальная экспертиза. Владислав Шурховецкий, являющийся адвокатом компании «Бородин и партнеры» отмечает, что использование дипфейков может привести к серьезным последствиям, таким как дезинформация, нарушение прав человека на конфиденциальность и т.д.
Неудивительно, что преступники довольно оперативно обратили внимание на технологию дипфейков. Эксперты, в том числе Шурховецкий, отмечают, что потенциальными жертвами могут стать все, чьи фотографии или видео доступны в Сети. При этом качество созданного видеоролика зависит от качества и количества фотоснимков, на основе которых оно разработано. Однако использование таких роликов может быть разнообразным и зависит только от фантазии недобросовестных персон. Таким образом, дипфейки представляют серьезную угрозу для частной жизни и безопасности людей, и необходимо обеспечить защиту от их злоупотребления.
Как отмечает эксперт в сфере кибербезопасности организации «Вебмониторэкс» Екатерина Старостина, дипфейк-видео могут быть использованы для распространения ложных сведений, шантажа, скандалов, мошенничества и других целей. Это может привести к серьезным последствиям для людей и организаций, которые могут стать жертвами таких махинаций.
Персоны1 и Компании3 в новости
Новости по теме
Последние новости
Общественная редакция в Москве
- Запросами в любые органы власти местного и федерального уровня;
- Экспертными мнениями о проблеме у тематических спикеров.