BLT模型在固定推理资源下,透过动态调整补钉(Patch)大小,同时扩展模型规模与效能,展现出比传统分词(Tokenization)模型更好的扩展性。实验显示,补钉大小为6和8的BLT模型,比Llama 2和3更快超越效能限制,特别是在高推理资源下优势更明显。
Meta新推出的BLTblt 分詞 模型