人工智能大模型,不是越大越好?

近期,谷歌和霍普金斯大学联合发布了一篇论文,研究显示,对于像Sora这样的潜在扩散模型,并不是越大越好。大模型参数越多,效果并不一定会越好。在计算资源少的时候,想要达到效率和质量的平衡,什么比参数量更重要呢?