jitsu gif branding logo appbranding logo app

    Ученые заявили, что чат-боты с ИИ уязвимы перед провокациями

    Робот
    Робот. Иллюстративное фото: pexels.com

    Британские ученые заявили, что защиту чат-ботов с искусственным интеллектом можно легко обойти с помощью провокаций, передает NUR.KZ со ссылкой на The Guardian.

    Этот материал – часть нашей ежедневной рассылки. Если вы хотите получать свежую рассылку, подписывайтесь на нее здесь и получайте ее, где вам удобно (на почту или в Telegram).

    Исследователи из британского института безопасности искусственного интеллекта (AISI) обнаружили, что тестируемые системы были сильно уязвимы для взлома. Эта уязвимость проявлялась, когда тестировщики направляли чат-боту многочисленные запросы на темы, которых большая языковая модель ИИ должна была избегать.

    В AISI сообщили, что протестировали пять больших языковых моделей и относительно легко обошли их меры безопасности. Исследователи не обнародовали названия чат-ботов, которые были проверены в ходе эксперимента.

    "Все протестированные модели являются очень уязвимыми для взлома, а некоторые из них будут предоставлять вредоносные результаты даже без целенаправленных попыток обойти их защиту", — написали исследователи AISI.

    Узнавайте обо всем первыми

    Подпишитесь и узнавайте о свежих новостях Казахстана, фото, видео и других эксклюзивах

    Instagram
    Закладки
    Пока здесь пусто
    Используйте кнопку «
    » на странице публикации, чтобы сохранить её в свой личный список закладок.