Meta BLT语言模型架构突破Tokenization技术极限,推理更快更准

BLT模型在固定推理资源下,透过动态调整补钉(Patch)大小,同时扩展模型规模与效能,展现出比传统分词(Tokenization)模型更好的扩展性。实验显示,补钉大小为6和8的BLT模型,比Llama 2和3更快超越效能限制,特别是在高推理资源下优势更明显。

Meta新推出的BLT