Update app.py
Browse files
app.py
CHANGED
@@ -7,6 +7,9 @@ import requests
|
|
7 |
import time
|
8 |
import sys
|
9 |
|
|
|
|
|
|
|
10 |
from huggingface_hub import snapshot_download
|
11 |
from llama_cpp import Llama
|
12 |
|
@@ -42,8 +45,8 @@ def get_system_tokens(model):
|
|
42 |
return get_message_tokens(model, **system_message)
|
43 |
|
44 |
|
45 |
-
repo_name = "
|
46 |
-
model_name = "
|
47 |
|
48 |
snapshot_download(repo_id=repo_name, local_dir=".", allow_patterns=model_name)
|
49 |
|
@@ -104,7 +107,7 @@ with gr.Blocks(
|
|
104 |
) as demo:
|
105 |
gr.Markdown(f"""<h1><center>JWorld-Cecilia-人工智能助理</center></h1>""")
|
106 |
gr.Markdown(value="""这儿是一个中文模型的部署。
|
107 |
-
这是量化版 Cecilia 的部署,具有
|
108 |
Cecilia 是一种会话语言模型,在多种类型的语料库上进行训练。
|
109 |
本节目由上海师范大学附属外国语中学 & JWorld NLPark 赞助播出""")
|
110 |
|
|
|
7 |
import time
|
8 |
import sys
|
9 |
|
10 |
+
os.system("pip install --upgrade pip")
|
11 |
+
os.system('''CMAKE_ARGS="-DLLAMA_AVX512=ON -DLLAMA_AVX512_VBMI=ON -DLLAMA_AVX512_VNNI=ON -DLLAMA_FP16_VA=ON -DLLAMA_WASM_SIMD=ON" pip install llama-cpp-python''')
|
12 |
+
|
13 |
from huggingface_hub import snapshot_download
|
14 |
from llama_cpp import Llama
|
15 |
|
|
|
45 |
return get_message_tokens(model, **system_message)
|
46 |
|
47 |
|
48 |
+
repo_name = "maddes8cht/mosaicml-mpt-30b-chat-gguf"
|
49 |
+
model_name = "mosaicml-mpt-30b-chat-Q4_K_S.gguf"
|
50 |
|
51 |
snapshot_download(repo_id=repo_name, local_dir=".", allow_patterns=model_name)
|
52 |
|
|
|
107 |
) as demo:
|
108 |
gr.Markdown(f"""<h1><center>JWorld-Cecilia-人工智能助理</center></h1>""")
|
109 |
gr.Markdown(value="""这儿是一个中文模型的部署。
|
110 |
+
这是量化版 Cecilia 的部署,具有 300亿 个参数,在 CPU 上运行。
|
111 |
Cecilia 是一种会话语言模型,在多种类型的语料库上进行训练。
|
112 |
本节目由上海师范大学附属外国语中学 & JWorld NLPark 赞助播出""")
|
113 |
|