Emma
Resumen:
-
Los modelos de lenguaje grandes (LLMs) no pueden generar código Python correcto cuando se cambian los nombres predeterminados de las funciones.
-
A medida que aumenta el tamaño del modelo, algunos LLMs se vuelven más seguros en predicciones incorrectas, un fenómeno llamado Escalamiento Inverso.