ЦИФРОВОЙ ИНВЕСТОР ЦИФРА В «НОРНИКЕЛЕ» ПУЛЬС ТЕХНОЛОГИЙ СУПЕРНИКА NORNICKEL CONNECT
Пульс технологий
Установите кодовое слово в Супернике!
* с его помощью вы всегда сможете войти в приложение, если, например, забыли пароль или сменили телефон
КАК УСТАНОВИТЬ
КОДОВОЕ СЛОВО?

Дипфейки уже атакуют, хотя их ждали позже

В марте текущего года ФБР опубликовало документ, в котором утверждается, что в следующие 12-18 месяцев киберпреступники начнут активно использовать дипфейки. Прошло всего 6 месяцев, и эксперты констатируют печальный факт: разведка США была слишком оптимистична — такие атаки уже происходят, причём один из первых характерных случаев был зарегистрирован еще в 2019-м году.

Хочешь знать о технологиях и цифровизации больше?
Устанавливай приложение «Цифроникель». Проходи обучение в игровой форме. Копи знания, получай баллы, участвуй в конкурсах и получай ценные призы.
КАК УСТАНОВИТЬ
КОДОВОЕ СЛОВО?

По понятным причинам компании не спешат делиться со СМИ информацией о том, что они стали жертвами мошенников — это чудовищный удар по репутации. Тем не менее, представитель страхового подразделения Euler Hermes Group рассказал изданию Wall Street Journal о том, как один из их клиентов перевёл киберпреступникам свыше 240-ка тысяч долларов. Управляющий директор британского подразделения германской энергетической компании (название не разглашается) думал, что говорит со своим боссом по телефону. Тембр, интонации, манера речи, акцент — всё было на сто процентов правдоподобно. «Начальник» потребовал срочно перевести деньги «венгерским партнёрам». Впоследствии выяснилось, что мошенники использовали новейшее программное обеспечение, способное синтезировать любой голос, а манеру речи почерпнули из похищенных баз данных с аудиозаписями деловых переговоров.

И это — в 2019-м году, ещё до ковида. Сегодня, в эпоху Zoom, Skype и прочих инструментов для видеоконференций, всё намного опаснее. Эти приложения — впрочем, как и практически любое ПО — не отличаются стопроцентной степенью безопасности, и в даркнете можно приобрести сотни, тысячи часов видеозаписей многих ответственных лиц (как в бизнесе, так и в политике), причём во вполне приемлемом качестве. К сожалению, машинное обучение и искусственный интеллект — обоюдоострый меч: киберпреступники могут использовать их для правдоподобного копирования личности. Это гораздо хуже банальной кражи логина и пароля: виртуальная среда сегодня крайне важна, и преступник при желании может практически везде выступить в вашей роли — разве что лично явиться в отделение банка не получится.

Средства защиты не всегда поспевают за злоумышленниками. Учёные из Университета Сувона (Южная Корея) провели эксперимент, призванный продемонстрировать общественности степень опасности дипфейков. Инструменты распознавания личности даже от таких IT-гигантов, как Amazon и Microsoft, не защищены от ошибок: в 70-80 процентах случаев они принимали дипфейки от корейских учёных за чистую монету. И это — всего лишь эксперимент: научные сотрудники просто регистрировали факт «обмана», а настоящие киберпреступники уже получили бы доступ к информации или финансам, причём защищённым не банальным паролем, а, казалось бы, куда более надёжной биометрией.

Беспокоящие факты этим не исчерпываются. Эксперимент проводился с использованием видеороликов знаменитостей, так как их предостаточно в сети, что позволяет генерировать более правдоподобные синтетические видео. Azure Cognitive Services от Microsoft принимала дипфейк за требуемую известную персону в 78% случаев. Результат Amazon Rekognition — 68,7%, но в данном случае вскрылась другая неприятность. Софт от Amazon выставляет свою внутреннюю оценку доверия, и 902 из 3200 дипфейков получили более высокий бал, чем оригинальные видео соответствующих селебрити. Грубо говоря, системы безопасности почти в трети случаев больше склонны доверять синтетическому изображению, чем подлиннику. Обычным гражданам не стоит думать, что они полностью защищены. Видео с Томом Крузом преступники возьмут из многочисленных интервью для популярных вечерних шоу, а с бизнесменом, избегающим публичности — с камер видеонаблюдения. Такой «товар» давно продаётся в даркнете.

По данным стартапа Deeptrace, с 2019-го по 2020-й год количество дипфейков в сети подскочило на 330%. Изначально злоумышленники создавали фальшивые видео «для взрослых» с целью шантажа знаменитостей, но затем переключились на бизнес. Утечка пикантных роликов (зачастую подлинных) для селебрити давно не новость, а стратегия звонка от босса в пятницу вечером с требованием срочного перевода чуть ли не под страхом увольнения работает более эффективно именно благодаря своей свежести. Компания Recorded Future, работающая в сфере кибербезопасности, предупреждает о новой угрозе. Вернее, угроза эта не совсем новая.

Уже достаточно давно приложения-вымогатели в даркнете превратились в сервис. Обычные злоумышленники, не особо подкованные в хакерском «искусстве», могут купить готовый вирус-вымогатель, что называется, «под ключ» — а также подробную инструкцию по его применению. Это и обуславливает огромное количество подобных киберпреступлений: теперь не каждому злоумышленнику надо быть гением. По такой же модели сравнительно недавно стал развиваться чёрный рынок дипфейков. Желающие могут приобрести в даркнете инструментарий по созданию поддельных видео. Такое ПО, конечно, требует продвинутых пользовательских навыков, но углублённых знаний в сфере программирования не понадобится, что значительно расширяет потенциальный круг киберпреступников.

Компания Experian выделяет ещё одну новую угрозу — если вам вдруг показалось, что их мало. Она получила название Frankenstein ID — «паспорт Франкенштейна». Во всех предыдущих сценариях цифровая копия реальной личности использовалась для доступа к информации — или сразу к деньгам. В случае же Frankenstein ID буквально из воздуха, из нулей и единиц создаётся абсолютно правдоподобная личность, которая даже может поговорить по видеосвязи с сотрудником диджитал-банка и оформить на себя кредитку. Одно “но”: в реальной жизни этой личности не существует. Звук и изображение сгенерированы компьютером. В случае использования данных подставных, или ничего не подозревающих, но реально существующих лиц, у правоохранительных органов есть хоть какие-то шансы выйти на настоящего преступника. В сценарии с Frankenstein ID они падают практически до нуля.

ФБР даёт рекомендации, как определить хотя бы самые примитивные дипфейки без использования оборудования и ПО. Самое очевидное — это неестественное подёргивание торса и головы, но злоумышленники уже давно научились исправлять столь грубые огрехи. Более важные признаки — движения глаз и синхронизация речи с движениями губ. Фиксированный на одной точке взгляд и отставание/опережение по звуку должны сразу вызывать подозрения.

УЗНАТЬ БОЛЬШЕ
Читайте также
ЦИФРОВОЙ ИНВЕСТОР ЦИФРА В «НОРНИКЕЛЕ» ПУЛЬС ТЕХНОЛОГИЙ