Дипфейк — это технология реалистичной подмены фото, видео или звука с помощью нейросетей. С его помощью можно увидеть себя в старости, заменить голос или наложить свое лицо на тело знаменитости. Но, как и любая технология, дипфейк может не только развлечь, но и стать инструментом мошенников.
Киберпреступники успешно используют дипфейки и против бизнеса. Так, в 2019 году искусственный интеллект имитировал голос директора британской энергетической компании и поручил сотруднику перевести 243 тысячи $ на свой счет в Венгрии. А во Франции мошенник выдавал себя за министра иностранных дел и запрашивал у предпринимателей деньги, чтобы якобы помочь французским гражданам за рубежом.
Развитие технологии позволяет использовать фейковые фото и видео с целью шантажа и вымогательства. Например, дипфейки уже могут взламывать защиту Face ID или совершать звонки, точь-в-точь повторяя настоящий голос другого человека.
Технология становится все доступнее: найти в интернете программу и создать правдоподобное фейковое фото может даже обычный школьник.
Некоторые страны уже запрещают дипфейки. Например, в американском штате Калифорния приняли законы, которые запрещают использовать технологии синтеза изображений человека без его согласия.
Центральный банк России также считает технологию реальной угрозой безопасности для обычных граждан. Дело в том, что банки и платежные сервисы активно тестируют открытие счетов по видеосвязи. Это позволит мошенникам использовать дипфейки, чтобы использовать чужие персональные данные для кражи и отмывания денег. Но конкретных мер по запрету дипфейков в России пока нет.
14:51
https://blog.rt.ru/