Zhipu AIは、Coding Agentシナリオで使用されるGLM-5シリーズモデルにおいて、2つの重大なバグを特定し解決しました。これらの問題は、文字化けや繰り返しを含み、3月以降ユーザーから報告されており、高い同時実行性と長いコンテキスト長の下で発生していました。最初のバグは、PD分離アーキテクチャにおけるレースコンディションで、メモリが早期に解放され、データの上書きが発生していました。2つ目のバグはHiCacheシステムで発見され、非同期キャッシュオフロードに同期が欠如していたため、早期のデータ読み取りが発生していました。これらの修正により、異常率が大幅に低減され、特定のエラーが解消されました。 さらに、Zhipuは推測サンプリングの受け入れ率メトリックが異常検知の信号として機能することを発見し、問題検出時のリアルタイム監視と自動再試行を可能にしました。LayerSplit KVキャッシュのさらなる最適化により、40Kから120Kトークンの長さのリクエストでスループットが最大132%向上し、コンテキスト長の増加に伴うパフォーマンスが強化されました。