个人微信:duge360。
1、新的开源且可商用的大模型:MPT-7B
训练成本20万美元,使用1T文本训练,质量与LLaMA-7B相仿,最高支持65536 token的上下文(GPT4 最高8000)。
官方新闻:https://www.mosaicml.com/blog/mpt-7b
Github:https://github.com/mosaicml/llm-foundry
2、together发布首个开源且可商用的RedPajama模型
几周前,together发布了RedPajama基础数据集,今天他们发布了RedPajama-INCITE的3B和7B版本LLM。
3B版本可以在2070上运行,7B版本效果超越了Pythia 7B模型。
官方新闻:https://www.together.xyz/blog/redpajama-models-v1
HuggingFace:https://huggingface.co/togethercomputer
3、开源且可商用的LLM大全
开源的LLM越来越多,这个项目收集了所有开源且可商用的LLM,并列出了每个模型的参数。包含今天刚发布的MPT-7B和RedPajama
Github:https://github.com/eugeneyan/open-llms
列表的部分截图: