
Представьте: вам звонит мама по видеосвязи, взволнованно просит срочно перевести 50 тысяч рублей на незнакомый номер — «потом объясню, беда!». Голос родной, лицо родное, на заднем плане знакомая кухня. Вы переводите. А через час мама пишет: «У меня всё хорошо, ты чего?». Это не сценарий фильма ужасов — это реальность 2026 года, в которой дипфейки стали главным оружием финансовых мошенников .
Заместитель председателя Банка России Герман Зубарев прямо называет обман с использованием дипфейков одной из ключевых угроз этого года. По его словам, всё больше людей сталкиваются с мошенничеством на основе сгенерированных видео и аудио. Сами по себе дипфейки деньги не крадут — они решают главную задачу аферистов: мгновенно входят в доверие и убеждают человека расстаться с деньгами добровольно .
Технологии ушли далеко вперёд. Если раньше поддельные видео были редкостью и требовали высокой квалификации, то теперь массовое применение подмены голоса и внешности в реальном времени во время видеозвонков становится обыденностью. Мошенники имитируют руководителей, родственников, сотрудников служб безопасности банков, чтобы отдать преступную команду. Эксперты предупреждают: технология стала настолько доступной, что под удар попадают не только крупные компании, но и рядовые граждане .
Экономист Пётр Щербаченко поясняет механизм: сгенерированные аудио и видео имитируют голос и внешность близкого человека или начальника, чтобы получить доступ к аккаунтам на «Госуслугах» или банковским приложениям. Цель — перехватить учётные данные и действовать от имени жертвы .
Международный размах угрозы подтверждает глобальный отчёт FATF (Группы разработки финансовых мер борьбы с отмыванием денег). Эксперты предупреждают: генеративный ИИ создаёт deepfakes — реалистичные видео, аудио, счета и удостоверения личности, которые используются для обхода due diligence и фальшивого KYC. Преступники могут создавать сложные корпоративные структуры с поддельными документами, счетами и перепиской, полностью сгенерированными нейросетями .
Ассоциация сертифицированных специалистов по борьбе с отмыванием денег (ACAMS) бьёт тревогу: финансовые институты столкнулись с быстрорастущим кризисом доверия. 75% профессионалов в сфере противодействия финансовым преступлениям считают злонамеренное использование ИИ главной угрозой. AI-мошенничество с идентификацией, основанное на deepfakes, синтетических документах и даже голограммах, подрывает доверие к традиционным инструментам верификации. Рутинные проверки документов становятся «бесполезными» .
Есть и новый, коварный вектор атак. Владислав Тушканов из «Лаборатории Касперского» предупреждает: опасность таится в самих сервисах искусственного интеллекта. Пользователи часто обращаются к малоизвестным чат-ботам или неофициальным Telegram-сервисам-прослойкам, которые не раскрывают политику конфиденциальности. Если создатели окажутся недобросовестными, всё, что вы вводите в чат-бот, может быть скомпрометировано. Загружая конфиденциальные данные, вы рискуете, что они станут публичными или будут использованы против вас же — для создания того самого дипфейка .
Как защититься? Эксперты единодушны. Зампред ЦБ Зубарев рекомендует: при получении видео или аудио с просьбой о деньгах обязательно свяжитесь с человеком альтернативным способом — просто позвоните, а не через мессенджер. Если связаться невозможно — задайте проверочный личный вопрос, ответ на который не может знать посторонний. Обращайте внимание на дефекты: неестественная мимика, монотонная роботизированная речь, странная артикуляция .
Двухфакторная аутентификация, сложные уникальные пароли, отказ от переходов по подозрительным ссылкам и использование только официальных приложений — базовые правила цифровой гигиены, которые сегодня спасают не только данные, но и деньги. И главное: никогда не передавайте конфиденциальную информацию незнакомым сервисам, даже если они очень удобны .