2023.5.6-开源且可商用的LLM大全

个人微信:duge360。

1、新的开源且可商用的大模型:MPT-7B

训练成本20万美元,使用1T文本训练,质量与LLaMA-7B相仿,最高支持65536 token的上下文(GPT4 最高8000)。

官方新闻:https://www.mosaicml.com/blog/mpt-7b

Github:https://github.com/mosaicml/llm-foundry

Untitled

2、together发布首个开源且可商用的RedPajama模型

几周前,together发布了RedPajama基础数据集,今天他们发布了RedPajama-INCITE的3B和7B版本LLM。

3B版本可以在2070上运行,7B版本效果超越了Pythia 7B模型。

官方新闻:https://www.together.xyz/blog/redpajama-models-v1

HuggingFace:https://huggingface.co/togethercomputer

3、开源且可商用的LLM大全

开源的LLM越来越多,这个项目收集了所有开源且可商用的LLM,并列出了每个模型的参数。包含今天刚发布的MPT-7B和RedPajama

Github:https://github.com/eugeneyan/open-llms

列表的部分截图:

Untitled