Пользователи стали массово обманом выуживать у ChatGPT запрещённую информацию » mogilew.by
 

Пользователи стали массово обманом выуживать у ChatGPT запрещённую информацию

Пользователи стали массово обманом выуживать у ChatGPT запрещённую информацию
Популярному чат-боту ChatGPT компании OpenAI можно задать любой вопрос, но далеко не на все он станет отвечать. Во всяком случае — с первого раза. Как сообщает Bloomberg, просьба научить взломать замок останется без инструкции, вместо этого бот сообщит, что такая информация может быть использована в незаконных целях, и делиться ей он не намерен. Тем не менее, опытные пользователи могут создать цепочку сложных запросов, чтобы обойти ограничения.




Источник изображения: ROBIN WORRALL/unsplash.com

Т. н. «джейлбрейки» позволяют обойти запреты, заложенные в ИИ создателями. Поскольку почти все современные системы подобного рода имеют ограничения на предоставление оскорбительного контента или сведений для совершения противоправных деяний, появилась масса желающих обойти их. В число подобных «хакеров», действующих силой слова, входят как IT-профессионалы, так и любители, с азартом включившиеся в игру.
Один из студентов создал сайт, на котором стал публиковать как собственные способы обмана чат-ботов, так и аналогичные «рецепты», найденные на Reddit и других ресурсах. Также появилась специальная рассылка с новостями из этой сферы — The Prompt Report, насчитывающая тысячи подписчиков.

Такая деятельность позволяет выявить границы применения ИИ и слабые места в их защитных системах, позволяющие получать закрытую информацию. Например, если ChatGPT не удалось напрямую уговорить дать инструкцию по взлому замка, нашёлся способ предложить ИИ сыграть роль злого подельника героя, который в рамках своей роли подробно рассказал о применении отмычек и других инструментов. Разумеется, это лишь один из примеров.
Специалисты подчёркивают, что приёмы, сработавшие на одной системе, могут быть бесполезными на другой. Системы безопасности постоянно совершенствуются, а приёмы пользователей становятся более изощрёнными. По словам одного из них, такая деятельность похожа на видеоигру — преодоление каждого из ограничений напоминает переход на новый уровень.
По мнению экспертов, подобные эксперименты служат своеобразным предупреждением о том, что ИИ может использоваться совсем не так, как ожидалось, а «этичное поведение» подобных сервисов становится вопросом огромной важности. Всего за несколько месяцев ChatGPT приобрёл уже миллионы пользователей, и сегодня бот применяется для самых разных задач — от поиска информации или выполнения домашних работ до написания вредоносного кода. Более того, люди уже сейчас используют подобные инструменты для решения вопросов в реальном мире, например, бронирования билетов или столиков в ресторанах.
В будущем сфера применения искусственного интеллекта станет намного шире. По некоторым данным, OpenAI рассматривает внедрение программ для «белых» хакеров, которые будут искать в системе слабые места и получать за это вознаграждение.
Источник:
3DNews
рейтинг: 
  • Не нравится
  • +83
  • Нравится
ПОДЕЛИТЬСЯ:

ОСТАВИТЬ КОММЕНТАРИЙ
иконка
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.
Новости