Антивирусная компания Kaspersky предсказывает увеличение атак мошенников через камеры в смартфонах
На модерации
Отложенный
Мошенники могут использовать новую технологию дипфейков для атак на россиян в социальных сетях и видеосвязи в реальном времени, предупреждает Сергей Голованов, главный эксперт "Лаборатории Касперского". Это означает, что мошенники будут не только подделывать голосовые сообщения, но и создавать видеоизображение звонящего.
Голованов объясняет, что такие атаки могут происходить в режиме реального времени, что может привести к тому, что жертва не заподозрит мошенничество. Однако эксперт успокаивает, отмечая, что это пока только перспектива и не ожидается в ближайшее время.
На данный момент мошенники уже используют голосовые сообщения в мессенджерах, притворяясь знакомыми или руководителями и просив жертву перевести деньги.
Однако у таких сообщений есть свои проблемы - они звучат "роботизированно", и жертва может понять, что это сгенерированный голос. Голованов объясняет, что роботизированная интонация, отсутствие разговорных частиц и фонового шума вызывают подозрение у человека, даже если тембр голоса похож на тембр реального человека.
Однако будущие мошеннические атаки, основанные на дипфейках, будут гораздо сложнее распознать. "Старые схемы, например, "мама, переведи деньги, я в тюрьме", играют феерическими красками, и распознать, что это не тот человек, становится очень сложно", - говорит Голованов. Он считает, что единственный способ предотвратить такие атаки - это проверять аккаунты. По голосу жертвы будет сложно определить, что это искусственный интеллект.
Комментарии