В 2025 году каждая третья мошенническая атака будет совершаться с использованием искусственного интеллекта (ИИ). Это приведет к миллионам подобных инцидентов в месяц, сообщила «Газете.Ru» замдиректора департамента развития продуктов компании VisionLabs Татьяна Дешкина.
По ее словам, будут мошенники будут использовать три основных сценария:
- Создание дипфейков. Мошенники будут массово подделывать изображения, видео и голоса друзей, родственников, коллег, знакомых и известных личностей для кражи денег или манипуляции общественным мнением. Тем более сейчас ИИ позволяет создавать дипфейки в реальном времени, что усложняет их определение.
- Обман пользователей дейтинговых сервисов. Злоумышленники будут использовать профили, оформленные фотографиями несуществующих людей, которыми управляют чат-боты. С помощью ИИ они смогут общаться с десятками тысяч потенциальных жертв.
- Поиск уязвимых жертв. Нейросети будут использоваться для поиска пользователей в соцсетях, которые находятся в уязвимом положении и сделали соответствующие посты. Например, это могут быть люди, которые хотят переехать в другую страну, потеряли близкого человека или остро нуждаются в деньгах.
Дешкина предупреждает, что мошенники будут активно использовать новые технологии на основе ИИ для достижения своих целей. Она призывает пользователей быть бдительными и осторожными при общении с незнакомыми людьми в интернете.
Напомним, ранее ЦБ предупредил о том, что мошенники начали создавать виртуальные образы банковских карт через приложения якобы Центробанка (ЦБ) России. Людей убеждают установить приложение под предлогом того, что кто-то пытается похитить их деньги.
В сентябре сообщалось, что ущерб от преступлений в киберпространстве превысил 116 млрд рублей. Министр внутренних дел России Владимир Колокольцев заявлял, что за последние пять лет число таких преступлений выросло вдвое и, по статистике, киберпреступление становится каждым вторым в стране, что составляет 40%.
Внимание!
Комментирование временно доступно только для зарегистрированных пользователей.
Подробнее
Комментарии 0
Редакция оставляет за собой право отказать в публикации вашего комментария.
Правила модерирования.