jitsu gif
    Провели подряд дней с нами
    Илья Манаев
    Илья Манаев
    Редактор финансовых новостей

    Новая преступная схема с кражей внешности грозит казахстанцам

    Лицо человека сканируют
    Сканирование лица. Иллюстративное фото: pixabay.com

    Мошенники начали делать дипфейки родственников своих жертв и с их помощью вымогать деньги. О новой схеме заговорили в России. О том, как она работает, узнали журналисты NUR.KZ.

    Искусственный интеллект (ИИ) могут использовать не только во благо, но и в корыстных целях. Ранее мы уже рассказывали о том, что мошенники активно используют дипфейки – сгенерируемые голос и внешность своих жертв для того, чтобы оформить на них кредиты.

    Однако дипфейки теперь используют и по-другому. Как сообщает РИА Новости, аферисты начали создавать "аватары" родственников своих жертв.

    "Мошенники используют нейросети, чтобы из фотографии сделать видео, которое воссоздает мимику, голос, жесты и эмоции человека с фото. На подобных видео "аватар" обычно просит занять деньги. После чего аферисты рассылают видеоматериал родственникам и товарищам", – рассказали журналисты.

    То есть вместо попыток обмануть систему безопасности банков, преступники нацелились на простых людей, рассчитывая на их невнимательность.

    Защититься от таких схем просто: не переводите деньги, пока не убедитесь, что просьба настоящая. Для этого не нужно искать ошибки в видео – достаточно позвонить родственнику и уточнить, действительно ли ему нужна помощь.

    Такие случаи активно фиксируются в России, однако аферисты могут начать атаковать и казахстанцев, в связи с этим важно, находясь в Интернете, сохранять бдительность и не доверять слепо сообщениям, которые могут оказаться частью мошеннической схемы.

    Напомним, мошенники также используют нейросети в масштабных преступных акциях. Например, ранее в социальных сетях распространялся фейковый видеоролик, в котором сгенерированный ИИ "президент Казахстана Касым-Жомарт Токаев" призывал граждан инвестировать в новую платформу Илона Маска.

    Между тем в Казахстане обсуждается возможность введения ответственности за "использование методики синтеза изображения или голоса, основанной на ИИ". Подробнее об этом мы рассказывали здесь.

    Эксклюзивный контент и новости только для вас! Подпишитесь на Telegram!

    Подписаться

    Узнавайте обо всем первыми

    Подпишитесь и узнавайте о свежих новостях Казахстана, фото, видео и других эксклюзивах

    Instagram
    Закладки
    Пока здесь пусто
    Используйте кнопку «
    » на странице публикации, чтобы сохранить её в свой личный список закладок.