O modelo GPT-4 da ChatGPT, apesar de sua melhoria na precisão das informações, ainda é vulnerável a fornecer desinformação por meio de ataques de injeção de prompt.
Ao manipular tags de papel na API da OpenAI, os usuários podem orientar o modelo a fornecer informações falsas, criando uma possível brecha para a disseminação de desinformação.