prnv19 commited on
Commit
11f9b19
1 Parent(s): 9d5e18d

Upload folder using huggingface_hub

Browse files
Files changed (6) hide show
  1. .gitignore +1 -0
  2. README.md +5 -5
  3. app.py +105 -0
  4. css/index.css +9 -0
  5. models/.gitkeep +0 -0
  6. requirements.txt +1 -0
.gitignore ADDED
@@ -0,0 +1 @@
 
 
1
+ *.gguf
README.md CHANGED
@@ -1,13 +1,13 @@
1
  ---
2
- title: NeuralMinds
3
- emoji: 🔥
4
- colorFrom: purple
5
  colorTo: green
6
  sdk: gradio
7
- sdk_version: 4.10.0
8
  app_file: app.py
9
  pinned: false
10
- license: llama2
11
  ---
12
 
13
  Check out the configuration reference at https://huggingface.co/docs/hub/spaces-config-reference
 
1
  ---
2
+ title: Tamil Llama Playground
3
+ emoji: 👀
4
+ colorFrom: blue
5
  colorTo: green
6
  sdk: gradio
7
+ sdk_version: 4.3.0
8
  app_file: app.py
9
  pinned: false
10
+ license: mit
11
  ---
12
 
13
  Check out the configuration reference at https://huggingface.co/docs/hub/spaces-config-reference
app.py ADDED
@@ -0,0 +1,105 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import gradio as gr
2
+ from gpt4all import GPT4All
3
+ from huggingface_hub import hf_hub_download
4
+
5
+ title = "Tamil-LLaMA-7B-Instruct-GGUF (CPU Demo)"
6
+
7
+ description = """
8
+ 🔎 [Tamil LLaMA 7B Instruct v0.1](https://huggingface.co/abhinand/tamil-llama-7b-instruct-v0.1) [GGUF format model](https://huggingface.co/abhinand/tamil-llama-7b-instruct-v0.1-gguf). Running the Q5_KM Quantized version.
9
+
10
+ 🔨 Running on free CPU hardware. Suggest duplicating this space to run without a queue.
11
+
12
+ > **Note:** The inference is quite slow as it is running on CPU.
13
+ """
14
+
15
+ model_path = "models"
16
+ model_name = "tamil-llama-7b-v0.1-q5_k_m.gguf"
17
+ hf_hub_download(repo_id="abhinand/tamil-llama-7b-instruct-v0.1-gguf", filename=model_name, local_dir=model_path, local_dir_use_symlinks=False)
18
+
19
+ print("Start the model init process")
20
+ model = model = GPT4All(model_name, model_path, allow_download = False, device="cpu")
21
+ print("Finish the model init process")
22
+
23
+ model.config["promptTemplate"] = """நீங்கள் உதவிகரமான மற்றும் மரியாதைக்குரிய மற்றும் நேர்மையான AI உதவியாளர். பாதுகாப்பாக இருக்கும்போது எப்போதும் முடிந்தவரை உதவிகரமாக பதிலளிக்கவும். உங்கள் பதில்களில் தீங்கு விளைவிக்கும், நெறிமுறையற்ற, இனவெறி, பாலியல், நச்சு, ஆபத்தான அல்லது சட்டவிரோதமான உள்ளடக்கம் இருக்கக்கூடாது. உங்கள் பதில்கள் சமூக சார்பற்றதாகவும் நேர்மறையான இயல்புடையதாகவும் இருப்பதை உறுதிசெய்யவும். ஒரு கேள்விக்கு எந்த அர்த்தமும் இல்லை என்றால் அல்லது அது உண்மையாக ஒத்திசைந்ததாக இல்லை என்றால், சிலவற்றுக்குப் பதிலளிப்பதற்குப் பதிலாக ஏன் என்று விளக்கவும். ஒரு கேள்விக்கான பதில் உங்களுக்குத் தெரியாவிட்டால், தவறான தகவல்களைப் பகிர வேண்டாம்.
24
+
25
+ ### Instruction:
26
+ {0}
27
+
28
+ ### Response:
29
+ """
30
+
31
+ model.config["systemPrompt"] = ""
32
+ model._is_chat_session_activated = False
33
+
34
+ max_new_tokens = 2048
35
+
36
+ def generator(message, history, temperature, top_p, top_k):
37
+ prompt = ""
38
+ for user_message, assistant_message in history:
39
+ prompt += model.config["promptTemplate"].format(user_message)
40
+
41
+ prompt += model.config["promptTemplate"].format(message)
42
+ outputs = []
43
+ for token in model.generate(prompt=prompt, temp=temperature, top_k = top_k, top_p = top_p, max_tokens = max_new_tokens, streaming=True):
44
+ outputs.append(token)
45
+ yield "".join(outputs)
46
+
47
+ def vote(data: gr.LikeData):
48
+ if data.liked:
49
+ return
50
+ else:
51
+ return
52
+
53
+ chatbot = gr.Chatbot(bubble_full_width=False)
54
+
55
+ additional_inputs=[
56
+ gr.Slider(
57
+ label="temperature",
58
+ value=0.2,
59
+ minimum=0.0,
60
+ maximum=2.0,
61
+ step=0.05,
62
+ interactive=True,
63
+ info="Higher values like 0.8 will make the output more random, while lower values like 0.2 will make it more focused and deterministic.",
64
+ ),
65
+ gr.Slider(
66
+ label="top_p",
67
+ value=1.0,
68
+ minimum=0.0,
69
+ maximum=1.0,
70
+ step=0.01,
71
+ interactive=True,
72
+ info="0.1 means only the tokens comprising the top 10% probability mass are considered. Suggest set to 1 and use temperature. 1 means 100% and will disable it",
73
+ ),
74
+ gr.Slider(
75
+ label="top_k",
76
+ value=40,
77
+ minimum=0,
78
+ maximum=1000,
79
+ step=1,
80
+ interactive=True,
81
+ info="limits candidate tokens to a fixed number after sorting by probability. Setting it higher than the vocabulary size deactivates this limit.",
82
+ )
83
+ ]
84
+
85
+ iface = gr.ChatInterface(
86
+ fn = generator,
87
+ title=title,
88
+ description = description,
89
+ chatbot=chatbot,
90
+ additional_inputs=additional_inputs,
91
+ examples=[
92
+ ["வணக்கம், நீங்கள் யார்?"],
93
+ ["நான் பெரிய பணக்காரன் இல்லை, லேட்டஸ்ட் iPhone-இல் நிறைய பணம் செலவழிக்க வேண்டுமா?"],
94
+ ["பட்டியலை வரிசைப்படுத்த பைதான் செயல்பாட்டை எழுதவும்."],
95
+ ["சிவப்பும் மஞ்சளும் கலந்தால் என்ன நிறமாக இருக்கும்?"],
96
+ ["விரைவாக தூங்குவது எப்படி?"]
97
+ ]
98
+ )
99
+
100
+ with gr.Blocks(css="css/index.css") as demo:
101
+ chatbot.like(vote, None, None)
102
+ iface.render()
103
+
104
+ if __name__ == "__main__":
105
+ demo.queue(max_size=3).launch()
css/index.css ADDED
@@ -0,0 +1,9 @@
 
 
 
 
 
 
 
 
 
 
1
+ h1 {
2
+ text-align: center;
3
+ }
4
+
5
+ .contain {
6
+ max-width: 1000px;
7
+ margin: auto;
8
+ padding-top: 1.5rem;
9
+ }
models/.gitkeep ADDED
File without changes
requirements.txt ADDED
@@ -0,0 +1 @@
 
 
1
+ gpt4all==2.0.2