Каждая третья мошенническая атака в 2025 году будет сопровождаться использованием искусственного интеллекта (ИИ). IT-эксперт Татьяна Дешкина рассказала «Газете.Ru» о трех основных сценариях использования ИИ в этом контексте.
Чаще всего мошенники будут использовать дипфейки: подделывать изображения и голоса друзей, родственников, коллег или известных личностей, чтобы украсть деньги со счета. Дипфейки, вероятно, будут использовать и для манипулирования общественным мнением, рассказала Дешкина.
Еще одна тенденция — обман пользователей в дейтинговых приложениях. Мошенники оформляют профиль фотографиями, сгенерированными ИИ, и с помощью чат-бота одновременно общаются с десятками тысяч потенциальных жертв. В ходе общения мошенники промят помочь деньгами или отправить подарок. Любые конфиденциальные данные, которые в этот момент окажутся в переписке, могут быть перехвачены.
Наконец, мошенники будут использовать ИИ для поиска потенциально уязвимых людей. При помощи нейросетей можно осуществлять парсинг данных из профилей — это могут быть посты, где пользователь написал, что оказался в уязвимом положении, например, потерял близкого человека, оказался в другой стране или ему срочно нужны деньги. Эти данные будут использоваться для индивидуального подхода к обману жертвы.
Ранее «ЭкоПравда» писала, что в Великобритании для борьбы с мошенниками создали «ИИ-бабушку».
В Ленинградской области изъяли редких хищников, которых местный житель держал на даче без разрешения. Как…
Цены на норвежскую сёмгу упали до 7,32 доллара за килограмм против 11,8 доллара годом ранее.…
Глянцевая, идеально ровная клубника без единого пятнышка — повод насторожиться. Как рассказала терапевт Красногорской больницы…
В Хабаровском крае появится первый на Дальнем Востоке аффинажный завод. Производство разместят в Амурске или…
Мытьё сырого мяса под водой увеличивает риск распространения бактерий. Единственной эффективной защитой остаётся термическая обработка…
Жаркая погода до +30°С не вернётся в Москву до конца июня. Такой прогноз агентству городских…