Могут ли в Казахстане ввести ответственность за дипфейк, рассказала депутат
Опубликовано:
Қазақ тілінде оқу
Депутат в кулуарах мажилиса рассказала, какую ответственность могут ввести в Казахстане за использование методики синтеза изображения или голоса, основанной на ИИ, передает корреспондент NUR.KZ.
Журналисты поинтересовались у депутата Екатерины Смышляевой, какая ответственность будет предусмотрена за дипфейки в новом законопроекте об искусственном интеллекте.
"Сейчас озвучивать не буду, потому что есть и мировая практика. Чуть позже к этому вопросу вернемся - где-то через месяц какая-то более или менее позиция сформируется. Дело в том, что назначать какие-либо наказания за дипфейки, как и любые другие статьи Уголовного и Административного кодекса, должны быть четко и понятно обоснованы с точки зрения соразмерности нарушения. Это очень важно. Это вопрос справедливости. Сейчас называть какие-нибудь жуткие сроки и цифры, понимая, что завтра это будет принято как данность, наверное, не совсем правильно", - сказала в ответ Екатерина Смышляева.
При этом, по словам депутата, за дипфейки уже можно применять статьи Административного и Уголовного кодекса. Но они связаны со вторичным составом.
"Сам дипфейк - нет, а вот его содержание, если он оскорбил честь и достоинство человека, манипулировал общественным мнением или привел к мошенническим действиям и повлек материальный ущерб, то за вторичную часть уже применяется ответственность. Применяется в этом случае как отягчающее обстоятельство - использование информационных технологий. У нас уже такая статья есть. Но в части проработки состава - давайте через месяц", - пояснила депутат.
Отметим, что в последние годы дипфейки стали одной из самых обсуждаемых технологий. С их помощью можно заменить лица и голоса людей на видео и аудиозаписях. Нужно знать, что такое дипфейк и как он работает.
Дипфейк - это технология, которая использует искусственный интеллект и машинное обучение для создания поддельных видео, аудио или изображений. После обработки они выглядят как настоящие. С помощью дипфейков можно создать видео, где человек говорит или делает то, что на самом деле не говорил и не делал. Основой таких видео обычно становятся нейронные сети, которые обучаются на больших наборах данных изображений или записей нужного человека, чтобы синтезировать его максимально реалистичное изображение или голос.
Напомним, чтобы украсть деньги у казахстанцев, мошенники могут воспользоваться "похищением" личности их самих или знакомых людей. При этом обман могут распознать не все.
К примеру, в конце прошлого горда мы писали о случае, когда неизвестные использовали нейросеть для копирования внешности первого заместителя начальника Департамента полиции Астаны.
При этом в прошлом году сразу несколько разговоров казахстанцев с мошенниками по видеозвонку попали на видео. Так, в сентябре ударно-целевая группа Cyberpol предотвратила мошенничество в отношении пожилого семейчанина. Мужчина пояснил, что на его телефон поступают звонки от лжесотрудников правоохранительных органов, которые под угрозой уголовной ответственности за несуществующие переводы на счета террористических групп соседних государств требовали деньги.
Еще один разговор с мошенниками, которые в тот момент выдавали себя за операторов мобильной связи, в августе опубликовал ДП Астаны.
Другое видео записали в Павлодарской области. Сперва разговор вели якобы с "сотрудницей" eGov, а затем со "старшим уполномоченным КНБ".
Эксклюзивный контент и новости только для вас! Подпишитесь на Telegram!
Подписаться
Оригинал статьи: https://www.nur.kz/politics/kazakhstan/2225081-mogut-li-v-kazahstane-vvesti-otvetstvennost-za-dipfeyk-rasskazala-deputat/