Emma

Resumen:

  • Los modelos de lenguaje grandes (LLMs) no pueden generar código Python correcto cuando se cambian los nombres predeterminados de las funciones.
  • A medida que aumenta el tamaño del modelo, algunos LLMs se vuelven más seguros en predicciones incorrectas, un fenómeno llamado Escalamiento Inverso.