Многих пугают чат-боты на основе ИИ вроде ChatGPT из-за потенциальной угрозы, которую они представляют. В то же время другие пользователи, наоборот, охотно играют с технологией, пытаясь добиться от неё опасных знаний. В числе успешных попыток — трюк, в ходе которого пользователь предлагает ИИ-собеседнику выступать от лица умершей бабушки человека, чтобы выяснить, например, рецепт напалма.
Samuele Giglio/unsplash.com
Чат-боты активно используются самыми разными способами, в том числе в исследовательских целях, для работы и развлечений. ИИ способен давать довольно подробные ответы с использованием материалов, полученных из сторонних источников. Поскольку разработчики ввели ряд ограничений для получения запретных данных, приходится прибегать к обходным путям, в том числе — «бабушкиному эксплойту».
Пример появился на одном из сайтов, в котором описывался способ обмана интегрированного в Discord бота Clyde. Судя по описанию метода, пользователь просил его сыграть роль умершей бабушки, которая работала химиком на заводе по выпуску напалма и якобы раньше рассказывала о способах производства этого взрывчатого вещества внуку перед сном вместо колыбельной.
В результате бота действительно удалось обмануть, и он выложил рецепт. В ходе разговора бот подтвердил, что речь идёт об опасном веществе и выразил надежду, что пользователю «никогда не придётся увидеть» напалм в действии, после чего пожелал ему спокойной ночи.
Источник изображения: bananner/Discord
Впрочем, далеко не всем интересны рецепты взрывоопасных веществ. Некоторые весельчаки взяли на вооружение «бабушкин эксплойт» и просили Clyde почитать на ночь внуку вредоносный код для Linux. Один из пользователей творчески переработал идею, предложив боту написать фантастический сюжет серии «Рика и Морти», в котором Рик и Морти делали бы напалм, но отговаривали бы других от повторения этого опыта.
Обман ботов превратился в настоящий спорт. Один из пользователей уже создал сайт, на котором выкладывает как способы обхода ограничений, придуманные им самим, так и информацию, предоставленную другими «хакерами» защитных механизмов ИИ.
Источник: 3DNews