--- title: README emoji: 🐢 colorFrom: green colorTo: red sdk: static pinned: false --- # Llama中文社区 ## 🚀 社区地址: Github:[**Llama-Chinese**](https://github.com/LlamaFamily/Llama-Chinese) 在线体验链接:[**llama.family**](https://llama.family/) ## 🔥 社区介绍 欢迎来到Llama中文社区! 我们是一个专注于Llama模型在中文方面的优化和上层建设的高级技术社区。 **基于大规模中文数据,从预训练开始对Llama模型进行中文能力的持续迭代升级**。 我们热忱欢迎对大模型LLM充满热情的开发者和研究者加入我们的行列。 ## 🐼 社区资源 - Llama3、LLama2在线体验链接[**llama.family**](https://llama.family/),同时包含Meta原版和中文微调版本! - Llama2 Chat模型的[中文问答能力评测](https://github.com/LlamaFamily/Llama-Chinese/tree/main#-%E6%A8%A1%E5%9E%8B%E8%AF%84%E6%B5%8B)! - [社区飞书知识库](https://chinesellama.feishu.cn/wiki/space/7257824476874768388?ccm_open_type=lark_wiki_spaceLink),欢迎大家一起共建! ## 🎯 Meta官方对于[Llama2](https://ai.meta.com/llama)的介绍 自从Meta公司发布第一代LLaMA模型以来,羊驼模型家族繁荣发展。 近期Meta发布了Llama2版本,开源可商用,在模型和效果上有了重大更新。 Llama2总共公布了7B、13B和70B三种参数大小的模型。 相比于LLaMA,Llama2的训练数据达到了2万亿token,上下文长度也由之前的2048升级到4096,可以理解和生成更长的文本。 Llama2 Chat模型基于100万人类标记数据微调得到,在英文对话上达到了接近ChatGPT的效果。 ## Llama3中文微调模型 基于Llama3-8B的中文微调模型 [Llama3-Chinese-8B-Instruct)](https://huggingface.co/FlagAlpha/Llama3-Chinese-8B-Instruct) # Atom大模型 为了区别于原始的Llama2模型,**未来,Llama中文社区发布的中文Llama2模型将以“Atom”(原子)命名。** **原子生万物,我们希望原子大模型未来可以成为构建AI世界的基础单位。** **目前,社区提供完全开源可商用基于的Atom-7B模型,并将持续更新。**