تعتبر نماذج اللغة الكبيرة الحجم (LLMs) ، مثل Generative Pre-trained Transformers (GPTs) ، مفيدة في مجالات مختلفة مثل تشخيص الرعاية الصحية وتقارير الأعمال ، ولكنها تفتقر إلى القدرة على تحديد أولويات المهام بكفاءة بسبب معالجة الذاكرة. لتحسين ذلك ، تم تقديم إطار جديد لنماذج اللغة الكبيرة الحجم متعددة الوكلاء مع ذاكرة متعددة الطبقات ، والتي تعمل بشكل خاص بفعالية في تداول الأسهم والصناديق.
في هذا الإطار ، يقوم وكيل واحد بتنظيم الذاكرة في ثلاث طبقات ، كل طبقة لديها آلية تحلل مخصصة ، لتشبه عمليات الإدراك البشرية بشكل أكثر تقاربًا. يمكن أيضًا للوكلاء أن يشاركوا في مناقشات بين الوكلاء. يستخدمون نظام ذاكرتهم المتعددة الطبقات لدمج الإجراءات التاريخية والرؤى السوقية ، مما يمكنهم من التنقل في التغييرات المالية ، وصياغة استراتيجيات ، ومناقشة قرارات الاستثمار. كما أنهم مزودون بصفات تداول فردية لتحسين قوة القرار.