В последние дни всё чаще стали поступать жалобы пользователей на то, что ИИ-чат-бот ChatGPT на базе модели OpenAI GPT-4 стал отказываться выполнять запросы, мотивируя это тем, что он не заинтересован в ответах на их вопросы.
Источник изображения: Andrew Neel/unsplash.com
Так, в ответ на просьбу предоставить фрагмент кода, он мог просто дать небольшой фрагмент и предложить пользователю доделать остальное самостоятельно. Причём, по словам некоторых пользователей, это делалось самым дерзким образом, например, иногда бот просто заявлял, что они вполне могли бы выполнить всю работу самостоятельно — без обращения к ИИ.
В многочисленных постах на сайте Reddit и сообщениях на форумах разработчиков OpenAI, начавших появляться ещё в конце ноября, пользователи жаловались, что система становится менее полезной. Прозвучало даже предположение, что OpenAI специально сделала так, чтобы ChatGPT не тратил время на длинные ответы на запросы и таким образом стал более эффективным с точки зрения расходования вычислительных ресурсов.
Хорошо известно, что поддержка функционирования ChatGPT обходится OpenAI недёшево. В апреле 2023 года исследователи сообщили, что на OpenAI уходит $700 000 в день, или $0,36 за запрос. По словам отраслевых аналитиков, OpenAI придётся расширить парк ускорителей на 30 000 единиц до конца года, чтобы сохранить производительность.
В OpenAI сообщили, что осведомлены о жалобах на ИИ-бот и отметили, что никаких изменений в модель не вносили. «Мы просмотрели все ваши отзывы о том, что GPT4 становится более ленивым! — написала компания в соцсети X. — Мы не обновляли модель с 11 ноября, и это определённо не намеренно. Поведение модели может быть непредсказуемым, и мы пытаемся это исправить».
Источник: 3DNews