Top.Mail.Ru

OpenAI запрещает в общении упоминание гоблинов, енотов и пр.

В системных инструкциях GPT-5.5 Codex есть прямой запрет от Сэма Альтмана упоминать гоблинов, гремлинов, енотов, троллей, огров и голубей — кроме случаев, когда это «абсолютно и недвусмысленно релевантно запросу». Причём эту строчку в промпте продублировали — видимо, для надёжности, вдруг гоблины всё-таки пробьют брешь в Хельмовой пади.


Объяснение сему такое:


Новая модель OpenAI «подсела» на эти словечки. Почему именно — никто не знает. Возможно, это заехало в модель на тюнинге: быть может, модель дообучали на данных разраба-толкиниста, как вариант. Или просто кто-то прикололся. Или она сама дообучилась на сабреддите про фентези.


Но, в итоге модель начала использовать эти словечки как паразитов. А-ля, как мы называем что-то непонятное «штуковина» или «хренотень», GPT-5.5 стала называть баги «гремлинами» и «гоблинами».


Самое интересно в этой истории — это то, как решили исправлять сие. Не дообучением или переразметкой данных, а ... костыльной строчкой в системном промпте (двойной). То есть, вывод здесь не просто «лол, гоблины», а чуть глубже: системные промпты у больших LLM — это уже не аккуратные брифы, а свалка костылей под конкретные галлюцинации, накопившиеся за все релизы.


Получился такой «промпт-долг» (как техдолг, но для ИИ-эпохи). Хорошая новость — иногда промпт-долг реально угарный. Плохая — мы не всегда знаем, что там ещё наворотили внутри, помимо безобидных гоблинов и енотов.


#ИИ #обучение #промпт #OpenAI #AI #LLM


https://github.com/openai/codex/blob/main/codex-rs/models-manager/models.json#L55

0 / 2000
Ваш комментарий
Тебя ждёт миллион инвесторов
Регистрируйся бесплатно, чтобы учиться у лучших, следить за инсайтами и повторять успешные стратегии
Мы используем файлы cookie, чтобы улучшить ваш опыт на нашем сайте
Нажимая «Принять», вы соглашаетесь на использование файлов cookie в соответствии с Политикой конфиденциальности. Можно самостоятельно управлять cookie через настройки браузера: их можно удалить или настроить их использование в будущем.