这篇论文介绍了大型语言模型的研究现状。研究人员发现通过将语言模型的参数规模增加超过一定水平时,大语言模型(LLM)不仅可以实现显著的性能提升,而且还表现出一些特殊能力(例如上下文学习),这些能力在小规模语言模型(例如BERT)中不存在。最近,学术界和工业界对LLM的研究取得了很大进展,其中一个显著进展是ChatGPT的推出,引起了社会广泛关注。LLMs的技术进化对整个AI社区产生了重要影响,这将彻底改变我们开发和使用AI算法的方式。本篇Survey通过介绍背景、主要发现和主流技术来回顾LLMs的最新进展。特别关注LLMs的四个主要方面:预训练、适应性调整、利用和能力评估。此外,还总结了开发LLMs可用资源并讨论未来方向中存在的问题