OpenAI a créé un cadre d'analyse des risques pour évaluer les risques de sécurité des grands modèles de langue (LLM) comme Codex dans différents aspects.
Le cadre évalue les techniques de génération de code avancées en fonction de leur complexité et de leur expressivité, ainsi que de leur capacité à comprendre et à exécuter des instructions par rapport à la capacité humaine.