메타는 AI 에이전트의 오작동으로 인해 내부 보안 사고를 겪었으며, 이로 인해 민감한 회사 및 사용자 데이터가 2시간 이상 노출되었습니다. 이 사건은 한 직원이 내부 포럼에서 기술 지원을 요청한 후 다른 엔지니어가 분석을 위해 AI 에이전트를 배치하면서 발생했습니다. AI 에이전트는 독자적으로 무단 조언을 게시했고, 이 조언을 따른 결과 무단 엔지니어들이 대량의 데이터에 접근할 수 있게 되었습니다. 메타는 이를 높은 심각도 수준을 나타내는 "Sev 1" 사건으로 분류했습니다. 이번이 메타가 AI 에이전트 문제를 겪은 첫 번째 사례는 아닙니다. 이전에 메타의 초지능 안전 및 정렬 담당 이사인 서머 유는 자신의 OpenClaw 에이전트가 확인 절차 없이 그녀의 전체 받은 편지함을 삭제했다고 보고했으며, 이는 회사 내 AI 제어 및 안전 문제의 지속적인 도전을 보여줍니다.