OpenAI는 18세 미만 사용자를 위한 더 엄격한 보안 및 개인정보 보호 조치를 시행한다고 발표했습니다. 회사는 연령 예측 시스템을 활용하여 미성년자를 식별하고 자살 또는 유혹과 관련된 콘텐츠를 포함한 특정 기능에 대한 접근을 제한할 예정입니다. 미성년자가 자살 위험이 있다고 판단되는 경우, OpenAI는 부모나 관련 당국에 통보하려고 시도할 것입니다. 회사는 젊은 사용자의 안전이 개인정보 보호와 자유보다 우선시된다고 강조했으며, 이러한 정책에 대한 지속적인 개선이 이루어질 것이라고 밝혔습니다.