Москва
22 декабря ‘24
Воскресенье

Киберэксперт Шутов назвал способ защититься от дипфейков

В последнее время мошенники активно прибегают к использованию дипфейков для обмана людей и выманивания денег, создавая поддельные видео и аудиозаписи с изображением и голосом человека.

Чтобы избежать таких уловок, важно не размещать свои данные на публичных ресурсах и скептически оценивать всю поступающую информацию, подчеркнул RT преподаватель кафедры КБ-1 «Защита информации» РТУ МИРЭА Василий Шутов.

Применяя различные современные программы, злоумышленники с помощью искусственного интеллекта создают контент с изображением и голосом человека, а затем рассылают сообщения от его имени. В этих сообщениях человек как бы просит финансовую помощь, и близкие зачастую не могут отличить подделку от настоящего обращения.

«Многие становятся жертвами мошенников и переводят им значительные суммы денег», — отметил эксперт, подчеркнув, что риск уменьшается, если личная информация не находится в свободном доступе.

Шутов также призвал критически подходить к получаемой информации, обращать внимание на любые искажения, несоответствия и лишние пиксели. Следует тщательно следить за частотой моргания, совпадением голосовых и визуальных движений, а также обращать внимание на предметы в окружении и тени. Подозрительно, если у человека на видео потухшие глаза и зубы, неестественная цвет кожи, а детали и контуры выглядят нечеткими.

Киберэксперт подчеркнул, что следует избегать переходов по полученным ссылкам (даже от знакомых), а также проверять информацию. Он рекомендовал защитить данные от шифровальщиков с помощью резервных копий и сложных дополнительных паролей, которые должны быть уникальными для каждого отдельного ресурса.

Напомним, что этой осенью в Госдуму намечено внесение законопроекта о дипфейках, который разрабатывают «лучшие юридические умы». Также МВД России готовит поправки к Уголовному кодексу РФ, предлагая считать использование искусственного интеллекта при совершении преступлений отягчающим обстоятельством.

Полная версия