OpenAI ha creado un marco de análisis de riesgos para evaluar los riesgos de seguridad de modelos de lenguaje grandes como Codex en varios aspectos.
El marco evalúa técnicas avanzadas de generación de código en función de su complejidad y expresividad, y su capacidad para comprender y ejecutar indicaciones en comparación con la capacidad humana.