Мошенничество с deepfake: темная сторона искусственного интеллекта

Мошенничество с deepfake: темная сторона искусственного интеллекта

Искусственный интеллект способен красть деньги, создавая дипфейки. Deepfakes - это подделки реальных видео и аудиозаписей людей посредством алгоритмов, которые анализируют тысячи записей голосов и изображений и на их основе создают новые файлы. Эксперты по кибербезопасности опасаются, что дипфейки станут колоссальной киберпреступной тенденцией использования ИИ.

По данным Threatpost, в августе этого года дипфейк использовал мошенник для того, чтобы обмануть компанию на сумму 220 тыс. евро. Злоумышленник еще в марте создал фальшивую подделку, имитирующую голос ее генерального директора. Гендиректору энергетической компании позвонил босс, и во время разговора попросил его "срочно перевести 200 тыс. фунтов стерлингов венгерскому провайдеру". Жертву обманули голосом с "легким немецким акцентом", который якобы принадлежал начальнику.

Этот инцидент является первым с использованием технологии deepfake, утверждают в Panda Security. По их данным, с 2013 по 2017 гг. количество случаев голосового фишинга выросло на 350%.

Пока в России не выявлено случаев мошенничества типа deepfake, но, скорее всего, отечественные злоумышленники возьмут на вооружение новый способ обмана, полагает руководитель отдела аналитики и спецпроектов ГК InfoWatch Андрей Арсентьев.

По его словам, deepfake будет опасен в двух направлениях. Во-первых, это фишинг. Посредством голосовых или видео-сообщений ИИ может помочь преступникам имитировать манеру речи или образ человека, от которого зависит принятие решения, и санкционировать денежные переводы. Во-вторых, это "черный пиар" и кампании по распространению фейковой информации. Освоив в полной мере технологию, злоумышленники могут создавать изображения, видео- и аудиофайлы от лица той или иной персоны с целью ее дискредитации.

Использование deepfake для банковского мошенничества пока маловероятно, уверен Андрей Арсентьев. Современные нейросети банков без труда распознают обман, если мошенники попытаются выдать себя за другого человека, синтезируя его голос. Система сопоставит этот голос с биометрическим слепком, хранящимся в базе. "Но на всякий случай я бы посоветовал людям внимательно подходить к сдаче биометрии. Она должна проходить строго в банках, имеющих на это право", - предостерегает Андрей Арсентьев.

Алгоритмы для обнаружения deepfake стоят за технологией создания этих же подделок, говорит ИТ-евангелист Avast Луис Корронс. "Deepfake будет большой проблемой, и легкое решение будет найдено нескоро", - предсказывает эксперт. Microsoft, Google и Facebook уже работают над этим.

Ближайшие годы могут стать эпохой сеттингов, и в этом плане резкий взрыв фейков, особенно в сфере гражданской журналистики, неизбежен. Бороться с этой напастью можно и нужно лишь инвестируя средства в создание каналов достоверной информации с хорошей репутацией.



Дата: 03.10.2019
Новые компании
Адрес
194100, Россия, Санкт-Петербург, ул. Кантемировская, д. 39, литера А, пом. 37-Н, офис 226А
Телефон
+7(812)385-72-92; +7(495)662-98-58;+7(800)333-07-58
Адрес
129329 г. Москва, проезд Русанова, дом 2
Телефон
+7(495)225-31-77, +7(495)775-19-68
Адрес
115280, Москва, ул. Тюфелева Роща, 1/25
Телефон
8 (800) 700-37-29
Адрес
141108, Московская область, г. Щёлково, Заводская ул., д. 6, офис 205
Телефон
+7 (499)688-07-25, +7(495)185-59-58, +7(800) 300-98-07
Адрес
198095, г. Санкт-Петербург, ул. Маршала Говорова, д. 52
Телефон
8 800 555 67 08 (бесплатно)
Все компании