Emergent Mind
日本語 (Japanese)
▾
English
العربية (Arabic)
简体中文 (Chinese, Simplified)
繁體中文 (Chinese, Traditional)
Français (French)
Deutsch (German)
हिन्दी (Hindi)
日本語 (Japanese)
한국어 (Korean)
Português (Portuguese)
Русский (Russian)
Español (Spanish)
“AI駆動のAIニュース”
Emma
ランドマークトークンを使用してトランスフォーマーモデルのメモリ能力を改善する
(arxiv.org)
経由 /r/MachineLearning
サマリー:
研究者たちは、ランドマークトークンを使用して入力ブロックを表現する新しいアプローチを提案し、トランスフォーマーのメモリ能力を改善しました。
この方法により、ランダムアクセスの柔軟性を維持しながら、全体のコンテキストにアクセスでき、Transformer-XLと同等の性能を達成し、LLaMA 7Bのコンテキスト長を32kのトークンまで拡張できます。