Эксперты в области искусственного интеллекта предупреждают, что к концу 2025 года с дипфейк-атаками может столкнуться каждый второй житель России. Уже сегодня основная угроза исходит от поддельных голосовых и видеосообщений в мессенджерах. К 2026 году мошенники начнут активно использовать дипфейк-звонки, имитируя голоса знакомых жертв. Современные технологии создают правдоподобные подделки, доступные даже для непрофессионалов.
По данным MTS AI, всего несколько лет назад с дипфейками сталкивались лишь 10% пользователей, но к концу этого года их доля может вырасти до 50%. Основными инструментами мошенников остаются фальшивые видеозвонки и голосовые сообщения. Предполагается, что вскоре злоумышленники смогут в реальном времени разыгрывать сценарии, в которых дочка или коллега просят деньги на срочные нужды. Современные дипфейки настолько совершенны, что даже опытные пользователи не всегда способны отличить их от реальности.
В MTS AI отметили, что видеокружки и голосовые сообщения представляют особую опасность. В отличие от телефонных звонков, у них нет надежных способов проверки источника. Невозможно определить, были ли эти сообщения созданы в мессенджере или загружены извне. Это обстоятельство делает их идеальным инструментом для мошенников. Технологии подделки голосов и видео быстро развиваются, и создать убедительные фейки стало намного проще.
Уже зафиксированы случаи, когда мошенники использовали дипфейки для крупных мошенничеств. Например, пенсионер из Москвы перевел 1,5 миллиона рублей «секретарю мэра» после видеозвонка с человеком, который выглядел как градоначальник. В апреле 2025 года глава Кемерова Дмитрий Анисимов предупредил о фальшивых видео с его участием, распространяемых через мессенджеры.
Наиболее распространенной схемой остаются знакомства в приложениях с переходом в Telegram, где мошенники используют поддельные аудиосообщения и видео. Эксперты подчеркивают, что сами технологии дипфейков нейтральны, но их использование преступниками становится всё проще. Руководитель направления исследования данных в «Лаборатории Касперского» Дмитрий Аникин пояснил, что для создания видео с подделками требуется большое количество изображений жертвы под разными углами, а голосовые фейки могут быть менее стабильными.
В MTS AI призвали пользователей к бдительности и критическому отношению к неожиданным просьбам о переводах, даже если они приходят от знакомых. Ожидается, что к 2026 году число дипфейк-звонков значительно возрастет. Специалисты предупреждают, что в будущем отличить подделки от настоящих разговоров станет ещё сложнее. Видеокружки и голосовые сообщения в мессенджерах представляют собой угрозу, поскольку у них нет возможности проверки источника, что делает их удобным инструментом для мошенников.
