OpenAI đã ra mắt mô hình suy luận bảo mật mã nguồn mở gpt-oss-safeguard, được thiết kế để nâng cao phân loại nội dung dựa trên chính sách. Được phát hành vào ngày 29 tháng 10, mô hình cho phép các nhà phát triển triển khai các chính sách tùy chỉnh trong quá trình suy luận, cung cấp cả kết luận và chuỗi suy luận. Mô hình được tinh chỉnh từ gpt-oss mã nguồn mở và có sẵn dưới giấy phép Apache 2.0 trên Hugging Face. Mô hình gpt-oss-safeguard được cho là vượt trội hơn gpt-5-thinking và gpt-oss về độ chính xác đa chính sách, với hiệu suất trên các bộ dữ liệu bên ngoài gần đạt mức của Safety Reasoner. Tuy nhiên, nó gặp hạn chế trong các tình huống yêu cầu nhiều chú thích chất lượng cao, nơi các bộ phân loại truyền thống thể hiện tốt, và nó tiêu tốn thời gian suy luận cũng như chi phí tính toán cao hơn. ROOST dự định thành lập một cộng đồng mô hình và phát hành các báo cáo kỹ thuật để hỗ trợ sáng kiến này.