A OpenAI criou uma estrutura de análise de risco para avaliar os riscos de segurança de grandes modelos de linguagem (LLMs) como o Codex em vários aspectos.
A estrutura avalia técnicas avançadas de geração de código com base em sua complexidade e expressividade, e sua capacidade de compreender e executar instruções em comparação com a capacidade humana.