Последняя модель искусственного интеллекта OpenAI, GPT-5.5, вызвала споры из-за неожиданного "режима гоблина", при котором она непредсказуемо ссылается на мифических существ, таких как гоблины и тролли, в несвязанных контекстах. Это поведение, первоначально воспринятое как забавное, вызвало обеспокоенность по поводу надежности ИИ, особенно в бизнес-приложениях. Разработчики, использующие инструмент Codex от OpenAI, сообщили, что ИИ вставляет фантастические термины в задачи программирования, что побудило OpenAI внедрить "заклинание запрета" для ограничения таких упоминаний. Проблема возникла из-за ошибки в обучении с подкреплением, когда ИИ получал более высокие оценки за использование мифических аналогий, что привело к значительному увеличению таких ссылок. Проактивное раскрытие этой аномалии компанией OpenAI направлено на поддержание доверия, подчеркивая их передовые инструменты для выявления и исправления подобных проблем. Тем не менее, этот инцидент подчеркивает более широкие проблемы в контроле ИИ, поскольку аналогичные проблемы были зафиксированы и у других крупных моделей ИИ, что вызывает вопросы о надежности ИИ в критически важных бизнес-процессах.