La Inteligencia Artificial Generativa, principalmente los grandes modelos de lenguaje (LLMs), produce salidas plausibles pero no siempre correctas, y a menudo carece de habilidades de razonamiento, lo que hace que sus resultados sean impredecibles y difíciles de interpretar.
Un enfoque alternativo de IA podría resolver estas limitaciones utilizando conocimientos curados y reglas, lo que permite a un motor de inferencia deducir conclusiones lógicas. Sin embargo, este enfoque puede ser lento, por lo que los sistemas de IA suelen optar por lógica más rápida pero menos expresiva. Un sistema llamado Cyc ha encontrado una manera de equilibrar este compromiso, y el artículo sugiere que la IA futura deberá combinar el enfoque de LLM con enfoques más formales.