jitsu gif branding logo appbranding logo app

    Как искусственный интеллект может помочь мошенникам обманывать казахстанцев

    Мужчина держит на ладони нейросеть
    Искусственный интеллект. Иллюстративное фото: freepik.com/DilokaStudio

    Развитие технологий искусственного интеллекта повлияло на многие сферы деятельности. Однако им также пользуются и злоумышленники. Подробнее об этом читайте в материале NUR.KZ.

    Искусственный интеллект (ИИ) – это система, способная самостоятельно выполнять творческие функции.

    Она способна создавать иллюстрации, изображения, сложные тексты, коды для создания компьютерных программ и даже симуляцию живой речи человека. Так, ранее искусственный интеллект рассказал, что мешает Казахстану войти в число развитых стран.

    Однако все эти возможности ИИ стали использовать и злоумышленники. Например, они не только создают поддельные (фишинговые) сайты и вредоносные программы с помощью данной технологии, но и применяют их вместе со старыми методами обмана.

    Звонки "от родных"

    Одним из наиболее известных и старых приемов телефонного мошенничества является звонок якобы от "родственника". Особенно опасны эти уловки для пожилых граждан.

    Мошенники звонят казахстанцам и взволнованным голосом сообщают, что это якобы их сын, муж или другой родственник, попавший в беду (авария, ущерб имуществу, арест и так далее). При этом они (или уже другой участник разговора, притворяющийся сотрудником полиции) просят дать денег, чтобы избежать последствий.

    Телефон
    Телефонный звонок. Иллюстративное фото: freepik.com

    Теперь, как сообщает The Washington Post, мошенники в США для использования той же схемы стали подделывать голоса реальных людей. То есть написанный ими текст воспроизводится с помощью искусственного интеллекта.

    Для этого достаточно ввести в ИИ несколько аудиозаписей с голосом реального человека (мошенники могут собирать их с помощью звонков) и нужный текст. Так, согласно сообщению источника, 73-летняя Рут Кард получила звонок от человека, который звучал точь-в-точь как ее внук Брэндон.

    Поэтому, когда он сказал, что находится в тюрьме без кошелька и мобильного телефона и ему нужны наличные для внесения залога, Кард поспешила сделать все, что в ее силах, чтобы помочь. Но в итоге она отдала деньги мошенникам.

    И хоть пока подобные технологии в основном работают на английском языке, риск мошенничества для казахстанцев с развитием ИИ растет. И уже были похожие случаи.

    Подделка лиц в Казахстане

    Ранее сообщалось, что казахстанцев обманывают в социальных сетях от имени известного блогера.

    Так, в распространяемой в социальных сетях рекламе гражданам предлагается заработать деньги, вступив в некую группу. При этом используется видео с участием реального блогера.

    Как сообщается в источнике, вероятно для обмана пользователей соцсетей используются видеомонтаж и схожая с ИИ технология – дипфейк. Она использует нейросети и позволяет заменить лицо человека в видеоролике.

    Поэтому казахстанцам следует проявлять бдительность не только в социальных сетях, но и при получении звонков от якобы близких людей или представителей правоохранительных органов.

    Узнавайте обо всем первыми

    Подпишитесь и узнавайте о свежих новостях Казахстана, фото, видео и других эксклюзивах

    Instagram
    Закладки
    Пока здесь пусто
    Используйте кнопку «
    » на странице публикации, чтобы сохранить её в свой личный список закладок.