Top.Mail.Ru
Финансы

Версия сайта

ru kz

Актуальное

Все категории

Мошенники начали использовать голоса своих жертв, чтобы вымогать деньги

Опубликовано:

Сгенерированная девушка на фоне программного кода.
Программа. Иллюстративное фото: pexels.com

Преступники взяли на вооружение искусственный интеллект (ИИ) и начали генерировать голоса своих жертв, чтобы вымогать деньги у их знакомых. О новой мошеннической схеме читайте в материале NUR.KZ.

Мошенники часто используют взломанные аккаунты в социальных сетях и мессенджерах, чтобы через них обманывать людей и красть их деньги. Обычно они обходятся простыми сообщениями, которые рассылают контактам жертв с просьбой прислать деньги на указанную карту.

Однако с развитием искусственного интеллекта методы аферистов сильно усложнились. Как рассказали журналисты РБК, в России были зафиксированы случаи, когда мошенники с помощью ИИ генерировали голоса своих жертв и просили деньги уже с помощью аудиосообщений, разосланных их контактам.

Чтобы получить достоверный голос другого человека, злоумышленники взламывают его аккаунт в мессенджере, скачивают голосовые сообщения, загружают их в нейросеть, которая впоследствии реалистично воспроизводит голосом жертвы целые предложения.

Между тем жителям Казахстана, которые также активно пользуются мессенджерами и соцсетями, стоит сохранять бдительность и с подозрением относиться к сообщениям от знакомых с просьбой отправить деньги, даже если они голосовые.

Перед тем, как это сделать, лучше удостовериться, что это действительно знакомый контакт, которому необходима денежная помощь, например, позвонив ему и поговорив вживую.

Напомним, в 2023 году в стране было зарегистрировано 44,8 тыс. случаев мошенничества. Среди выявленных преступников были даже несовершеннолетние дети.

Оригинал статьи: https://www.nur.kz/nurfin/personal/2055205-moshenniki-nachali-ispolzovat-golosa-svoih-zhertv-chtoby-vymogat-dengi/