El modelo GPT-4 de ChatGPT, a pesar de su mayor precisión en la información, sigue siendo vulnerable a proporcionar información incorrecta a través de ataques de inyección de comandos.
Al manipular etiquetas de roles en la API de OpenAI, los usuarios pueden guiar al modelo para que proporcione información falsa, creando un posible vacío para la propagación de información errónea.