21 мая 2024

Обмани меня, ИИ

Как дипфейки применяются для мошенничества, хулиганства и мести

Future Crew

Блок инноваций ПАО «МТС»

Пока идут споры, что называть сильным или общим ИИ, и когда он превзойдёт человека, системы на основе машинного обучения уже достигли уровня, позволяющего эффективно обманывать людей. Мошенники используют ИИ для подделки чужой личности при помощи синтетических фото, аудио и видео — дипфейков. За прошлый год рост числа дипфейк-атак составил 3000%, и предупреждения правоохранительных органов подтверждают, что эти методики эффективно работают. Как применяются ИИ-подделки и как от них защититься?



Что такое дипфейки

Термин deepfake означает синтетические фото, аудио и видео, созданные генеративными нейросетями и реалистично изображающие людей, выбранных авторами подделки. Само слово сконструировано из deep learning и fake, означающих технологию обучений нейросетей и фальшивку.

Термин стал популярен в 2019 году, когда одноименный пользователь reddit опубликовал большую подборку порноматериалов с участием знаменитостей — лица известных людей были наложены на существующие порнофильмы при помощи общедоступных нейросетевых алгоритмов.

С помощью дипфейков можно создать видео или аудио, в котором человек говорит нужные слова и совершает определенные действия. Для этого нейросеть должна получить видео или аудио с нужными действиями, выполненными другим человеком, а также образцы фото, аудио и видео, из которых сможет выделить характерные особенности внешности, голоса, мимики, произношения подделываемого человека. В зависимости от технологии, для обучения может требоваться совсем небольшой набор данных: 60 секунд записи голоса и 10 качественных фото для генерации фото и видео. Чем больше образцов, тем более убедительной будет подделка.


Фальшивые знаменитости, друзья и коллеги

Дипфейки быстро нашли применение в рекламе финансовых пирамид. Злоумышленники создавали ролики, в которых сомнительные инвестиции рекламировали Илон Маск, Олег Тиньков, а также известные певцы и актёры. Многие подделки отличались неубедительной мимикой и не очень натуральным голосом, но это не помешало им обмануть инвесторов. За прошлый год ущерб от таких схем, например, в Австралии, составил $8 млн.

Уже в этом году в России мошенники звонят своим жертвам от имени родственников, друзей или прямого начальства. Для этого создают аккаунт в мессенджере, загружают в профиль имя и фотографию имитируемого человека, а затем посылают жертвам с этого аккаунта голосовые сообщения или совершают аудиозвонки. Фальшивый босс может инструктировать сделать срочный банковский перевод контрагенту, а друзья и родственники просят деньги на неотложные нужды.

Пока злоумышленники стараются ограничиваться голосовыми подделками, поскольку это проще. Но технология быстро развивается, и замена лиц для подделки видеозвонков уже тоже возможна. В самом известном случае сотрудника финансовой организации убедили провести платеж на $25 млн при помощи «видеозвонка с коллегами», на котором все, кроме жертвы, были дипфейками.



Шантаж по дипфейкам и атаки на репутацию

Дипфейки упростили производство компрометирующих фото, поэтому мошенники могут послать жертве на рабочий адрес письмо с синтетическими фото порочащего содержания и требованиями выкупа за то, чтобы не публиковать их. За март-апрель сингапурская полиция получила 70 жалоб на такие преступления, одна из жертв перевела преступникам почти $15 тыс.

До 98% созданных дипфейков — это порнографический контент. Многие подобные ролики не безобидны — в них невольно участвуют звезды искусства, спорта и политики. Это негативно влияет на их имидж и карьеру. Но не обязательно быть звездой, чтобы стать жертвой дипфейка — более 30 девочек-подростков пострадали от публикации фальшивых фото, созданных при помощи общедоступного приложения по «раздеванию». Для создания такого изображения достаточно пары фотографий лица жертвы, взятых из соцсетей.

Различные паспорта и удостоверения можно генерировать онлайн за одну минуту и всего $15. Нейросеть снабжает фальшивку не только реалистичными данными, фото и подписью, но и придаёт картинке вид настоящего удостоверения, сфотографированного на столе или на коврике. В основном это нужно для мошеннической регистрации в финансовых организациях, но также применяется в фальшивых сборах благотворительной помощи, для придания просьбе убедительности.



Как защититься от дипфейков

Чтобы не стать «героем» дипфейка, есть только одна защита: избегать публикации своих фото и видео, по которым можно натренировать нейросеть — прежде всего в соцсетях. Групповые фото и картинки низкого разрешения, на которых лица мелкие, не подходят для тренировки. А вот портреты, галереи из множества снимков, длительные аудио- и видеозаписи, на которых слышна речь, могут пригодиться мошенникам.

Что касается определения дипфейков, присланных вам, то иногда их выдают мелкие погрешности генерации: неестественная мимика и странный фон на видео, металлические призвуки, отсутствие дыхания и естественных микропауз речи в аудио. Но это зависит от примененной нейросети, поэтому полностью полагаться на свою способность распознать дипфейк не стоит. Для анализа видео на «фейковость» уже существуют специальные сервисы, но их вердикт об аутентичности тоже не является гарантией. Поэтому лучше применять общие рецепты, защищающие от подделок как новых, так и старых:

  • перепроверять неожиданные просьбы от коллег и родственников, срочно позвонив им по другому каналу связи или встретившись лично;

  • не верить рекомендациям знаменитостей при принятии инвестиционных решений;

  • перепроверять волнующие новости и резонансную информацию в авторитетных источниках;

  • ·комплексно защищать свою конфиденциальность в интернете, чтобы не дарить мошенникам информацию о себе.


Поделиться