Spaces:
Runtime error
Runtime error
Upload app.py
Browse files
app.py
CHANGED
@@ -694,10 +694,10 @@ def mindAsk(
|
|
694 |
with gr.Blocks(title="🐰Bofan Ai🐰", theme=gr.themes.Soft(text_size="sm")) as demo:
|
695 |
# gr.HTML("""<h1 align="center">ChatGLM2-6B-int4</h1>""")
|
696 |
gr.HTML(
|
697 |
-
"""<center><a href="https://huggingface.co/spaces/mikeee/chatglm2-6b-4bit?duplicate=true"><img src="https://bit.ly/3gLdBN6" alt="Duplicate Space"></a>It's beyond Fitness,模型由[帛凡]基于ChatGLM-
|
698 |
"""<center>特别声明:本应用仅为模型能力演示,无任何商业行为,部署资源为Huggingface官方免费提供,任何通过此项目产生的知识仅用于学术参考,作者和网站均不承担任何责任。</center>"""
|
699 |
"""<h1 align="center">🐰帛凡 Fitness AI🐰 演示</h1>"""
|
700 |
-
"""<center><a href="https://huggingface.co/fb700/chatglm-fitness-RLHF">Bofan基于chatglm-
|
701 |
)
|
702 |
|
703 |
with gr.Accordion("🎈 相关信息", open=False):
|
@@ -706,18 +706,14 @@ with gr.Blocks(title="🐰Bofan Ai🐰", theme=gr.themes.Soft(text_size="sm")) a
|
|
706 |
|
707 |
ChatGLM-6B 是开源中英双语对话模型,本次训练基于ChatGLM-6B 的第一代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上开展训练。
|
708 |
|
709 |
-
|
710 |
|
711 |
-
|
|
|
|
|
|
|
712 |
|
713 |
-
|
714 |
-
|
715 |
-
*第三,在保留SFT阶段三分之一训练数据的同时,增加了30万条fitness数据,叠加RM模型,对ChatGLM-6B进行强化训练。
|
716 |
-
|
717 |
-
通过训练我们对模型有了更深刻的认知,LLM在一直在进化,好的方法和数据可以挖掘出模型的更大潜能。
|
718 |
-
训练中特别强化了中英文学术论文的翻译和总结,可以成为普通用户和科研人员的得力助手。
|
719 |
-
|
720 |
-
免责声明:本应用仅为模型能力演示,无任何商业行为,部署资源为huggingface官方免费提供,任何通过此项目产生的知识仅用于学术参考,作者和网站均不承担任何责任 。
|
721 |
|
722 |
The T4 GPU is sponsored by a community GPU grant from Huggingface. Thanks a lot!
|
723 |
|
@@ -778,7 +774,7 @@ with gr.Blocks(title="🐰Bofan Ai🐰", theme=gr.themes.Soft(text_size="sm")) a
|
|
778 |
temperature = gr.Slider(
|
779 |
0.01, 1, value=0.85, step=0.01, label="Temperature", interactive=True
|
780 |
)
|
781 |
-
gr.HTML("""<h3 align="center"
|
782 |
|
783 |
history = gr.State([])
|
784 |
past_key_values = gr.State(None)
|
|
|
694 |
with gr.Blocks(title="🐰Bofan Ai🐰", theme=gr.themes.Soft(text_size="sm")) as demo:
|
695 |
# gr.HTML("""<h1 align="center">ChatGLM2-6B-int4</h1>""")
|
696 |
gr.HTML(
|
697 |
+
"""<center><a href="https://huggingface.co/spaces/mikeee/chatglm2-6b-4bit?duplicate=true"><img src="https://bit.ly/3gLdBN6" alt="Duplicate Space"></a>It's beyond Fitness,模型由[帛凡]基于ChatGLM-6B进行微调后,在健康(全科)、心理等领域达至少60分的专业水准,而且中文总结能力超越了GPT3.5各版本。</center>"""
|
698 |
"""<center>特别声明:本应用仅为模型能力演示,无任何商业行为,部署资源为Huggingface官方免费提供,任何通过此项目产生的知识仅用于学术参考,作者和网站均不承担任何责任。</center>"""
|
699 |
"""<h1 align="center">🐰帛凡 Fitness AI🐰 演示</h1>"""
|
700 |
+
"""<center><a href="https://huggingface.co/fb700/chatglm-fitness-RLHF">Bofan基于chatglm-6B的微调模型</a>如果喜欢请给个 💖 。遇到任何问题可邮件和我联系👉 fb700@qq.com</center>"""
|
701 |
)
|
702 |
|
703 |
with gr.Accordion("🎈 相关信息", open=False):
|
|
|
706 |
|
707 |
ChatGLM-6B 是开源中英双语对话模型,本次训练基于ChatGLM-6B 的第一代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上开展训练。
|
708 |
|
709 |
+
本项目通过多位网友实测,证明了其中文总结能力超越了GPT3.5的各个版本,同时在健康咨询方面的表现也比其他同量级模型更加出色。经过优化,该模型可以支持无限上下文,远超过4K、8K、16K等限制,这可能是个人和中小企业的首选模型。
|
710 |
|
711 |
+
* 使用 40 万条高质量数据进行强化训练,以提高模型的基础能力;
|
712 |
+
* 使用 30 万条人类反馈数据,构建了一个表达方式规范优雅的语言模式(RM模型);
|
713 |
+
* 使用 30 万条 fitness 数据,在保留 SFT 阶段三分之一训练数据的同时,增加了 30 万条 fitness 数据,叠加了RM模型,对 ChatGLM-6B 进行强化训练。
|
714 |
+
经过训练,我们对模型有了更深入的认知,LLM一直在进化。使用好的方法和数据可以挖掘出模型的更大潜能。训练中特别强化了中英文学术论文的翻译和总结,可以成为普通用户和科研人员的得力助手
|
715 |
|
716 |
+
免责声明:本应用旨在展示huggingface模型的能力,huggingface官方提供免费的部署资源。任何通过此项目产生的知识仅用于学术参考,作者和网站均不承担任何责任。 。
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
717 |
|
718 |
The T4 GPU is sponsored by a community GPU grant from Huggingface. Thanks a lot!
|
719 |
|
|
|
774 |
temperature = gr.Slider(
|
775 |
0.01, 1, value=0.85, step=0.01, label="Temperature", interactive=True
|
776 |
)
|
777 |
+
gr.HTML("""<h3 align="center">🍀健康和心理咨询请先点击,再输入问题。<a href="https://huggingface.co/fb700/chatglm-fitness-RLHF">模型由🐰帛凡基于chatglm-6微调</a>🍀</h3>""")
|
778 |
|
779 |
history = gr.State([])
|
780 |
past_key_values = gr.State(None)
|